-
Liczba zawartości
37634 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Dell i fundusz inwestycyjny Silver Lake prowadzą zaawansowane rozmowy na temat przejęcia producenta systemów do przechowywania danych, firmy EMC Corp. Jeśli rozmowy dadzą pozytywny dla Della efekt, będzie to jedna z największych transakcji w historii rynku IT. Tymczasem samo EMC rozważa jakiś sposób jeszcze bliższej współpracy ze swoimi licznymi partnerami, wśród których znajdują się m.in. VMWare czy Red Hat. Nie wiadomo też, że Dell chciałby przejąć całość firmy czy tylko jej część. Jednocześnie Dell prowadzi podobno rozmowy z bankami w sprawie sfinansowania przejęcia firmy Hopkinton, co ma wzmocnić pozycję Della na rynku korporacyjnym. Michael Dell, który założył swoją firmę w 1984 roku, od kilku lat wdraża strategię zamiany jej na przedsiębiorstwo dostarczające kompleksowe usługi IT na rynku korporacyjnym. Niedawno Dell wycofał się z giełdy, dzięki czemu nie musi tłumaczyć się inwestorom ze swoich działań i jest narażony na ryzyko, iż brak wzrostu cen akcji czy niskie dywidendy spowodują odwołanie go przez niezadowolonych posiadaczy akcji. Jeśli umowa pomiędzy Dellem a EMC dojdzie do skutku, będzie ona więcej warta niż przejęcie za 37 miliardów USD firmy Broadcom przez Avago Technologies. Samo EMC też opiera się presji ze strony jednego ze swoich posiadaczy, firmy Eliott Management, która chce, by EMC wydzieliła z siebie VMware. « powrót do artykułu
-
W doskonale zachowanych szczątkach koniowatego Eurohippus messelensis sprzed ok. 48 mln znaleziono 12,5-cm płód oraz nietknięte tkanki miękkie. Klacz odkryto w 2000 r. w kamieniołomie Messel koło Darmstadtu. Autorzy publikacji z pisma PLoS ONE przeprowadzili badania anatomiczne i osteologiczne. Skaningowy mikroskop elektronowy (SEM) i analiza mikro-X-promieni w wysokiej rozdzielczości pozwoliły opisać płód. Płód okazał się dobrze zachowany: niemal wszystkie kości były obecne i połączone. Czaszka uległa jednak zmiażdżeniu. Stan skamieniałości pozwolił zespołowi Lorenza Franzena z Instytutu Badawczego Senckenberga odtworzyć pierwotny wygląd i pozycję płodu. Specjaliści szacują, że klacz zmarła krótko przed porodem i nie sądzą, by jej zgon był nim wywołany. Uczeni znaleźli też zachowane tkanki miękkie, w tym fragment łożyska i szerokie więzadło maciczne. Franzen, Christine Aurich i Jörg Habersetzer podkreślają, że mogą one stanowić najstarszy zapis kopalny układu macicznego ssaków łożyskowych. Niemcy stwierdzili, że położenie płodu było normalne i odpowiadało późnej ciąży współczesnych koni. Biorąc pod uwagę wszystkie zebrane informacje, akademicy doszli do wniosku, że układ rozrodczy dzisiejszych koniowatych był wysoce rozwinięty już w paleocenie. Ten sposób rozmnażania mógł nawet wyewoluować dużo wcześniej. « powrót do artykułu
-
Już 10 października br. o godzinie 17 dla wszystkich chętnych zostaną otwarte niedostępne na co dzień miejsca, jakimi są wrocławskie laboratoria. Wszystko za sprawą pierwszej edycji Nocy Laboratoriów, której organizatorami są Nokia Networks wraz z Wrocławskim Centrum Badań EIT+. Do wydarzenia przyłączyły się również wrocławskie uczelnie, firmy, instytucje państwowe i naukowe, które otworzą drzwi do swoich pracowni badawczych. Wzorem Nocy Muzeów, organizatorzy oraz partnerzy wydarzenia planują otworzyć drzwi swoich laboratoriów, umożliwiając mieszkańcom Wrocławia nocne zwiedzanie miejsc, w których na co dzień tworzone są technologie przyszłości. Uczestnicy będą mogli dowiedzieć się m.in. jak powstaje nowoczesna telekomunikacja, w jaki sposób tworzone są genetycznie modyfikowane tkaniny czy jak powstają najnowocześniejsze materiały ścierne. Zwiedzający na własnej skórze będą mogli doświadczyć też, jak niska temperatura wpływa na ich ciała. Lista atrakcji jest znacznie dłuższa i obejmuje również symulację powodzi, która spustoszyła Wrocław w 1997 roku. Dodatkowo, specjalnie tego dnia, Komenda Wojewódzka Policji zorganizuje pokaz oględzin i zbierania materiałów dowodowych z miejsca zbrodni. Nie zabraknie również atrakcji dla najmłodszych, dla których tej nocy przygotowane zostaną specjalne warsztaty i pokazy w Humanitarium oraz we Wrocławskim Parku Technologicznym przez Fundację Pro Mathematica. Ogrody Doświadczeń Humanitarium Wrocławskiego Centrum Badań EIT+ to innowacyjny park rozrywki edukacyjnej, który łączy zabawę z nauką. Podczas Nocy Laboratoriów dzieci i młodzież będą mogły wziąć udział w warsztatach i pokazach bio-chemicznych, pobawić się z suchym lodem i ciekłym azotem, sprawdzić swoje PH oraz zrobić plastik z mleka. Odwiedzający Humanitarium poznają również świat, w którym nie wszystko jest takie na jakie wygląda. Wszystko dzięki wystawie „Szkiełko i oko – tajemnice optyki”, która pomoże zrozumieć najtrudniejsze zagadnienia optyki, m.in. dzięki użyciu interaktywnych eksponatów. Pro Mathematica – fundacja Wrocławskiego Parku Technologicznego, przygotowała warsztaty dla dzieci i młodzieży w wieku od 4 do 17 lat. Warsztaty poświęcone będą bardzo zróżnicowanym tematom – specjaliści z WPT będą opowiadać zarówno o podstawach genetyki, kriogeniki i chemii, jak i o Układzie Słonecznym, w czym na pewno pomoże obecność łazika marsjańskiego! Międzynarodowe Laboratorium Silnych Pól Magnetycznych i Niskich Temperatur przygotowało sesje „Zabawy z nauką” dla dzieci i całych rodzin, na których omawiane będą m.in. niezwykłe zachowania materii w niskich temperaturach (-196 C) czy lewitacja nadprzewodników. Atrakcją dla młodzieży i dorosłych będą wykłady i pokazy poświęcone niskim temperaturom, nadprzewodnictwu, magnetyzmowi, a nawet lewitacja przedmiotów! Najmłodszych uczestników wydarzenia na pewno zainteresują także pełne sprzętu laboratoria Nokii oraz organizowana przez firmę wystawa o historii telekomunikacji. Będzie to wyjątkowa edukacyjna podróż przez eksponaty służące poprzednim pokoleniom aż po te, z których korzystamy dzisiaj. U pozostałych partnerów akcji dzieci mogą uczestniczyć w większości zaplanowanych atrakcji. Pełen program wydarzenia dostępny jest pod adresem: http://www.noclaboratoriow.pl/ « powrót do artykułu
-
Amazon rozważa uruchomienie internetowej telewizji. Firma prowadzi już w tej sprawie rozmowy z wielkimi stacjami, w tym z CBS i NBCUniversal. Online'owa telewizja byłaby dobrym uzupełnieniem usług wideo oferowanych obecnie przez Amazona. Jednocześnie koncern wszedłby na rynek, na którym działają obecnie m.in. Comcast i AT&T. Amazon nie jest jedyną firmą zainteresowaną dostarczaniem treści telewizyjnych przez internet. Obecnie z takimi usługami eksperymentują bądź już je oferują m.in. Sony czy Apple. Koncern Bezosa uruchomił też niedawno nową usługę analizy dużych zestawów danych biznesowych. QuickSight ma umożliwiać każdej zainteresowanej osobie przeprowadzenie analizy i podzielenie się z innymi jej wynikami. Amazon korzysta przy tym z silnika SPICE (QuickSight Parallel, In-memory Calculation Engine), któray przeprowadza obliczenia i renderuje grafikę potrzebną do ich wizualizacji. QuickSight automatycznie integruje się z z chmurą Amazon Web Services, dzięki czemu tysiące użytkowników zyskują dostęp do wyników analiz przeprowadzonych za pomocą nowego narzędzia. QuickSight jest obecnie udostępniane jako wersja "preview". Od przyszłego roku będzie płatnym narzędziem. Możliwość korzystania z niego wyceniono na 9 USD rocznie. « powrót do artykułu
-
Naukowcy z Uniwersytetu we Fryburgu Bryzgowijskim odkryli, że w limfocytach B występuje białko Kidins220/ARMS. Odgrywa ono decydującą rolę w ich rozwoju i produkcji przeciwciał. Różne ekipy donosiły o jego występowaniu w neuronach i limfocytach T, ale nikt nie wspominał o limfocytach B, zwanych również limfocytami szpikozależnymi. Odkryliśmy nowego molekularnego gracza układu odpornościowego. Wiedza ta pomoże nam w rozwijaniu leków na różne choroby, w tym autoimmunologiczne - podkreśla immunobiolog prof. Wolfgang Schamel. Limfocyty B jako jedyne wytwarzają przeciwciała. Na ich powierzchni znajdują się receptory B-komórkowe (ang. B cell receptor, BCR), które odpowiadają m.in. za przekazanie sygnału aktywującego do wnętrza komórki. Niemcy ustalili, że Kidins220/ARMS wchodzi z nimi w interakcje. Pod nieobecność tego białka zdolność receptora do wysyłania sygnału jest ograniczona. W rezultacie limfocyty wytwarzają mniej przeciwciał, a układ odpornościowy jest osłabiony. Naukowcy podkreślają, że Kidins220/ARMS odgrywa także ważną rolę w tworzeniu limfocytów B. Gdy myszy nie potrafiły go wyprodukować, limfocyty gorzej spełniały swoje funkcje. Działo się tak, bo na różnych etapach rozwoju limfocyty B polegają na sygnałach z receptora B-komórkowego i prekursorowego BCR. « powrót do artykułu
-
Badanie tomograficzne odlewów gipsowych ofiar wybuchu Wezuwiusza z Pompejów pokazało, że miały one zęby w świetnym stanie. Popioły, które pokryły starożytne miasto, szybko zastygły, zachowując w środku kształt pogrzebanych ciał (tkanki miękkie rozłożyły się pod wpływem wysokiej temperatury). Od 1861 r. archeolog Giuseppe Fiorelli prowadził na stanowisku usystematyzowane badania. To on opracował metodę wykonywania odlewów. Prze otwory wlewał gips sztukatorski, który wypełniał puste przestrzenie. Później wystarczyło usunąć warstwę popiołu, odsłaniając odlew ciała w momencie śmierci. Niedawno zakończyła się konserwacja 86 takich obiektów. Dziewiętnastowieczny gips jest tak gęsty, że współczesne standardowe metody obrazowe nie potrafią odróżnić grubej warstwy zewnętrznej od szkieletu. Naukowcy posłużyli się jednak ostatnio wielorzędową tomografią komputerową, a następnie za pomocą specjalnego oprogramowania stworzyli trójwymiarowe modele szkieletów i łuków zębowych 16 mężczyzn, kobiet i dziecka. Okazało się, że badani mieszkańcy Pompejów mieli wszystkie zęby, co zespół powiązał ze zdrową dietą z niewielką ilością cukrów oraz wysoką zawartością fluoru w powietrzu i wodzie w okolicach wulkanu. Skany uwidoczniły także pęknięcia czaszki, co wskazuje nie na uduszenie, jak wcześniej sugerowano, ale na śmierć w wyniku urazów głowy wywołanych odłamkami dachu i ścian. Badanie jednego z odlewów pokazało, że ofiara nosiła grubo tkany ubiór, co sugeruje, że erupcja nie miała miejsca latem 24 sierpnia, ale raczej jesienią (postuluje to zresztą od dawna Grete Stefani, dyrektor Soprintendenza Archeologica di Pompei). Wypożyczony przez firmę Philips Spa Healthcare 16-rzędowy skaner wykorzystano również do zbadania odlewów 2 zwierząt, najprawdopodobniej psa i dzika. Szefem prac radiologicznych, które przeprowadzono rano 29 września, był dr Giovanni Babino. Nadzorowaniem badań zębów zajmowała się wyspecjalizowana stomatolog Elisa Vanacore. Stworzywszy protokół badania, akademicy transportowali po kolei odlewy do "szpitala polowego", położonego na terenie niedostępnym dla zwiedzających. Poza radiologami, pracowali tam m.in. archeolodzy, antropolodzy i konserwatorzy. Istnieją plany, by stworzyć dla naukowców bazę danych nt. odlewów. Na razie zbadano 16 ofiar, ale Babino nie zamierza na tym poprzestać. Analizy DNA pozwolą ustalić stopień pokrewieństwa między zmarłymi. « powrót do artykułu
-
W pojedynczym neuronie normalnego dorosłego mózgu występuje nawet ponad 1000 mutacji, których nie ma w sąsiednich komórkach nerwowych. Większość mutacji pojawia się podczas używania genów, już po zakończeniu rozwoju mózgu. Odkryliśmy, że geny najczęściej używane przez mózg są zmutowane z największym prawdopodobieństwem [...] - opowiada Christopher Walsh z Howard Hughes Medical Institute (HHMI). Nie wiadomo, jak te naturalnie występujące mutacje wpływają na funkcjonowanie mózgu lub w jakim stopniu przyczyniają się do choroby. Tak czy siak, śledząc ich rozkład, Amerykanie zdobywają informacje o rozwoju mózgu. Genom pojedynczego neuronu jest jak zapis archeologiczny komórki. Na podstawie wzorca dzielonych mutacji możemy odtworzyć linię pochodzenia. Wiemy obecnie, że jeśli prześledzimy wystarczającą liczbę komórek z wystarczającej liczby mózgów, uda nam się zdekonstruować wzorzec rozwoju ludzkiego mózgu. Naukowcy interesują się zmiennością genomu neuronów, ponieważ wyniki badań wskazują, że mutacje niewielkiej części komórek mózgu mogą wywołać poważne choroby neurologiczne. Dotąd jednak specjalistów chcących badać tę zmienność hamowała niewielka ilość DNA wewnątrz neuronów. Nie wystarczała ona do sekwencjonowania, a więc i dokonywania porównań. Walsh i inni zastosowali jednak amplifikację całego genomu wyizolowanego z komórki. Naukowcy zsekwencjonowali genomy 36 neuronów ze zdrowych dorosłych mózgów (przekazano je do badań pośmiertnych). Dla porównania zespół z HHMI zsekwencjonował DNA komórek pobranych z serc zmarłych. W analizie danych pomogli Peter Park, biolog obliczeniowy z Harvardzkiej Szkoły Medycznej, i Semin Lee z jego laboratorium. Amerykanie odkryli, że genomy wszystkich neuronów były unikatowe. Każdy miał ponad 1000 mutacji punktowych i tylko kilka mutacji wystąpiło w więcej niż 1 komórce. Spodziewaliśmy się, że mutacje te będą wyglądać jak mutacje nowotworowe [powstające w czasie niedokładnego kopiowania DNA w przygotowaniu do podziału], ale miały one wyjątkową sygnaturę. Mutacje występujące w mózgu wydają się w większości zachodzić podczas ekspresji genów przez komórkę. Neurony się nie dzielą i przez gros czasu ich DNA pozostaje ciasno upakowane. Kiedy neuron chce uaktywnić gen, rozwija DNA, odsłaniając gen, tak że może on być skopiowany na RNA. W oparciu o rodzaj i umiejscowienie mutacji naukowcy stwierdzili, że większość uszkodzeń DNA następuje w ramach procesu rozwijania i kopiowania. Niewielki odsetek mutacji występował w więcej niż jednej komórce. To oznacza, że mutacje te powstały, gdy przyszłe komórki mózgu nadal się dzieliły, a proces ten kończy się jeszcze przed narodzinami. Później zostały one przekazane, gdy komórki się dzieliły i migrowały. Analizując wzorce ich rozkładu, naukowcy byli w stanie odtworzyć część historii rozwoju mózgu. Mapowanie ujawniło, że w dorosłym mózgu blisko spokrewnione komórki mogą się znajdować w dość dużej odległości od siebie. Bywa, że pojedynczy obszar mózgu zawiera komórki z 5 różnych linii, które oddzieliły się, nim rozwijający się mózg odseparował się od innych tkanek płodu. Potrafimy zidentyfikować mutacje, które zaszły naprawdę wcześnie, zanim mózg w ogóle się pojawił. Stwierdziliśmy, że komórki, w których one występują, są posadowione obok komórek, które mają zupełnie inne mutacje - wyjaśnia dr Mollie Woodworth. Co więcej, konkretny neuron może być bliżej spokrewniony z komórką serca niż z sąsiednim neuronem. Amerykanie sądzą, że przeplatanie komórek o innym pochodzeniu chroni mózg przez wczesnymi, potencjalnie szkodliwymi mutacjami. Dzięki powstaniu bardzo mieszanych populacji, komórki ulokowane obok siebie i realizujące te same zadania nie są ze sobą blisko spokrewnione, dlatego z mniejszym prawdopodobieństwem dzielą identyczną zgubną mutację - dodaje Michael Lodato. « powrót do artykułu
-
Komputery osiągnęły już taką moc, że przewyższają możliwości człowieka w niektórych zastosowaniach. Potrafią znacznie lepiej od nas przeprowadzać operacje arytmetyczne, z łatwością pokonują ludzi w szachach. Powstaje jednak pytanie, czy te możliwości sumują się w jakiś rodzaj sztucznej inteligencji? Odpowiedzieć na nie postanowił Stellan Ohlsson z University of Illinois. Uczony przeprowadził test IQ na jednej z najbardziej rozwiniętych sztucznych inteligencji (AI). Od wielu lat tworzone są systemy AI, a jednym z najbardziej znanych jest rozwijany przez MIT ConceptNet. Ohlsonn poddał ConceptNet 4 standardowemu testowi WPPSI-III VIQ. To test badający inteligencję dzieci w wieku przedszkolnym i na początku szkoły. Sprawdza on zdolności dzieci w pięciu kategoriach: posiadanych informacji, słownictwa, rozpoznawania koncepcji, rozumienia i znajdowania podobieństw. Na przykład w teście dotyczącym posiadanych informacji może pojawić się pytanie "Gdzie żyją pingwiny?". W kategorii słownikowej będziemy mieli np. za zadanie odpowiedzi na pytanie w rodzaju "Co to jest dom?". W kategorii rozpoznawania koncepcji pojawiają się trzy wskazówki, na podstawie których należy rozpoznać, o czym mowa, na przykład: "możesz przez to patrzyć", "jest to kwadratowe", "możesz to otworzyć". W kategorii rozumienia padają pytania w rodzaju "Dlaczego ludzie ściskają sobie dłonie?", a w kategorii znajdowania podobieństw pada prośba o dokończenie zdań w rodzaju: "Pióro i ołówek służą do....". Ohlsson i jego współpracownicy nieco przetworzyli pytania, by można było je zadać komputerowi. Test dał zaskakujące wyniki. ConceptNet dobrze radzi sobie ze słownictwem i podobieństwami, średnio z informacją i słabo z rozpoznawaniem koncepcji oraz rozumieniem - stwierdzili uczeni. Gdy komputer zapytano "dlaczego ludzie ściskają sobie dłonie" (ang. shake hands), maszyna rozbiła problem na trzy jednostki. Dwie jednowyrazowe "ściskać", "dłonie" oraz na "ściskać dłonie" i odpowiedziała "atak epilepsji". Jednak gdy została zmuszona do przetworzenia jedynie jednowyrazowych jednostek "ściskać", "dłonie" jej odpowiedź była już znacznie bardziej trafna "podziękowanie", "flirt", "spotkanie przyjaciela". Jednak metoda ta nie zawsze działała. Na pytanie "gdzie można spotkać nauczyciela" padła prawidłowa odpowiedź, gdy maszyna osobno rozważyła "spotkać", "nauczyciel" oraz "spotkać nauczyciela". Jednak gdy zmuszono ją do przeanalizowania tylko "spotkać" oraz "nauczyciel", odpowiedź brzmiała "zespół muzyczny", "fortepian". Eksperci nie wiedzą, dlaczego ConceptNet miał problem w przypadku tego rodzaju zadań. Zauważono też, że sztuczna inteligencja potrafi dać odpowiedzi, jakich raczej nie usłyszelibyśmy od dziecka. W kategorii rozpoznawania koncepcji przed AI postawiono zadanie odgadnięcia czym jest "zwierzę, którego samiec ma grzywę", "to zwierzę żyje w Afryce", "to wielki brązowo-żółty kot". Pięć pierwszych odpowiedzi AI to "pies", "farma", "stworzenie", "dom", "kot". To zaskoczyło naukowców. Zdrowy rozsądek podpowiada, że odpowiedzi powinny być zawężone do zwierząt, a skoro w pytaniach mamy zawartą informację, że chodzi o kota, to należy rozważać tylko koty - mówi Ohlsson. Po ocenie pracy ConceptNet 4 naukowcy doszli do wniosku, że na obecnym etapie rozwoju AI znajduje się na poziomie przeciętnego 4-letniego dziecka, jednak poniżej poziomu 5- czy 7-latka. Oczywiście mowa tutaj o tych aspektach inteligencji, które bada konkretny wspomniany test. Naukowcy uważają, że jednym ze sposobów na poprawę pracy ConceptNet jest zaimplementowanie mu algorytmów przetwarzania języków naturalnych, z jakich korzystają Siri, Cortana czy Google Now. AI nie musiałaby wtedy być zależna od pracy programistów wprowadzających poszczególne pytania. Warto też zauważyć, że testowano ConceptNet 4, którego początki sięgają roku 2012. W ciągu ostatnich 3 lat prace nad sztuczną inteligencją znacznie przyspieszyły i obecnie uruchomiono już ConceptNet 5, który m.in. nie skupia się na samym zbieraniu informacji, a na nauce na podstawie zebranych danych. Ten i podobne mu systemy od pewnego czasu przekopują się przez kolosalne bady danych i na ich podstawie uczą się rozumienia języka, obrazów i innych koncepcji świata. Dzięki Ohlssonowi i kolegom wiemy, że potrzeba było 60 lat pracy nad rozwojem sztucznej inteligencji, by w zdroworozsądkowym myśleniu maszyna mogła zbliżyć się do poziomu przeciętnego 4-latka. Biorąc pod uwagę fakt, że postęp IT jest coraz szybszy, w najbliższych latach możemy spodziewać się znacznego przyspieszenia postępów sztucznej inteligencji. « powrót do artykułu
-
Dzbanecznik Nepenthes gracilis wykorzystuje energię spadających kropli deszczu do zasilania ruchu wieczka (klapki przykrywającej dzbanek). W ten sposób mrówki są wrzucane do płynów trawiennych. Jak wyjaśnia zespół dr Ulrike Bauer z Uniwersytetu w Bristolu, wieczko jest wprawiane w bardzo szybkie drgania. Naukowcy porównują to do sprężynowania trampoliny. Szczytowe prędkości opisywanego ruchu przypominają szybkość wybijania się szarańczy. Zjawisko udało się zarejestrować za pomocą szybkich kamer i laserowego pomiaru drgań. Artykuł na ten temat ukazał się w piśmie PNAS. Mamy kroplę uderzającą w powierzchnię [wieczka], która wywołuje szybki ruch w dół. Dzięki sprężystości klapka przemieszcza się do pewnego momentu, a potem się odbija. Pojawiają się drgania, bardzo podobne do obserwowanych w sytuacji, gdy linijkę położy się na biurku i jej koniec potrąci palcem. Zarejestrowany ruch jest unikatowy. Po pierwsze, jego prędkość przewyższa szybkość ruchów pułapkowych innych roślin mięsożernych, a po drugie, roślina wykorzystuje zewnętrzne źródło energii. Bristolczycy podkreślają, że wieczko jest pokryte woskiem, co zmniejsza przyczepność owadów. By określić siłę chwytu na wieczku, w ramach eksperymentu mrówki mocowano do przetworników siły. Okazało się, że z jednej strony powierzchnia jest na tyle śliska, by podczas drgań zdestabilizować mrówkę, a z drugiej na tyle antypoślizgowa, by utrzymać ją w pozostałych warunkach. Biolodzy sądzą, że N. gracilis można zaliczyć do osobnej kategorii mięsożerności; nie jest bowiem ani aktywną rośliną jak muchołówka, ani biernym zjadaczem w rodzaju pozostałych dzbaneczników. Kluczowa wydaje się sztywność wieczka N. gracilis. Kiedy uczeni badali inne gatunki, które chwytają mrówki jedynie dzięki pokrytemu śliską substancją kołnierzykowi, okazało się, że klapka jest o wiele bardziej giętka. Wieczko jest tak przystosowane, że rozprzestrzenia ruch wywołany spadającą kroplą, zwiększając w ten sposób powierzchnię stanowiącą zagrożenie dla owada. « powrót do artykułu
-
Najnowszy raport Ponemon Institute i Hewlett Packard Enterprise podkreśla, że średni roczny światowy koszt cyberprzestępstw wynosi już 7,7 miliona dolarów na ofiarę. Największe koszty działalności przestępców ponoszą przedsiębiorstwa i instytucje w USA. Tam średni koszt to 15 milionów dolarów. Jeszcze w ubiegłym roku było to 12,7 miliona USD. Wśród siedmiu krajów, którym szczegółowo przyjrzeli się analitycy, najwyższe koszty, po USA, stwierdzono w Niemczech i Japonii. Dane, które posłużyły do przygotowania raportu, pochodzą z 252 firm. Specjaliści przeprowadzili ankiety wśród 2128 pracowników odpowiedzialnych za infrastrukturę IT, przepływ informacji i firmowe standardy. Koszty oszacowano biorąc pod uwagę bezpośrednie i pośrednie wydatki związane z cyberatakiem na daną organizację. Bezpośrednie koszty to na przykład wynagrodzenie dla ekspertów prowadzących śledztwo w sprawie włamania czy uruchomienie linii telefonicznych, pod którymi klienci firmy mogą zdobyć informacje o sposobach zabezpieczenia się. Koszty bezpośrednie to "czas, wysiłek i inne zasoby organizacyjne, jakie zaangażowano w naprawę skutków ataku". Eksperci zauważają, że cyberprzestępcy mają coraz więcej możliwości ataku. Atakować mogą bowiem prywatne urządzenia, które pracownicy przynoszą do firmy i podłączają do lokalnej sieci, chmury obliczeniowe czy urządzenia typu Internet of Things. Większe możliwości ataku to wyższe koszty dla atakowanych firm. Tym bardziej, że cyberprzestępcy się profesjonalizują i walka z nimi jest coraz trudniejsza. Na przykład w USA średni czas od przeprowadzenia cyberataku do poradzenia sobie przez ofiarę z jego skutkami to 46 dni. « powrót do artykułu
-
Historia Czarnobyla dowodzi, że ludzie są większym zagrożeniem dla natury niż poważne radioaktywne zanieczyszczenie środowiska. Od katastrofy w elektrowni atomowej minęło niemal 30 lat. Ludzie opuścili obszar o powierzchni 4200 kilometrów kwadratowych, a najnowsze badania wykazały, że kwitnie tam dzikie życie. Czarnobylska Strefa Wykluczenia stała się naturalnym rezerwatem przyrody. Gdy usuwa się ludzi, natura rozkwita - nawet tam, gdzie doszło do najgorszego w historii wypadku atomowego. Bardzo możliwe, że obecnie liczba dzikich zwierząt wokół Czarnobyla jest znacznie większa niż przed wypadkiem - mówi Jim Smith z University of Portsmouth. Smith wraz z kolegami przeprowadzili szczegółowe badania Strefy i wykazali, że po spadku liczebności dzikich zwierząt, spowodowanego przez wypadek, obecnie ich liczba rośnie. Okazuje się, że obecnie liczebność populacji łosia, sarny europejskiej, jelenia szlachetnego oraz dzika są tam podobne jak w nie zanieczyszczonych rezerwatach przyrody. Z kolei liczba wilków jest siedmiokrotnie większa niż w porównywalnej wielkości rezerwatach. Dane pokazują też, że populacja wymienionych roślinożerców zaczęła się odradzać w ciągu 1-10 lat po wypadku. Te unikatowe badania pokazują, że natura jest w stanie rozkwitać nawet w odległości kilku kilometrów od poważnego wypadku atomowego, jeśli tylko zostanie uwolniona od presji człowieka - mówi Jim Beasley z University of Georgia. « powrót do artykułu
-
Holenderscy naukowcy uzyskali najwyższe fale stworzone przez człowieka. Uczeni z kraju, którego większość jest położona poniżej poziomu morza, są ekspertami w dziedzinie badania oceanów. Dla Holendrów to kwestia przetrwania. Nic więc dziwnego, że stworzyli potężne fale, by dokładnie zbadać, jaki mają one wpływ na wybrzeża i infrastrukturę. Tutaj możemy testować to, co dzieje się z groblami, gdy uderzają w nie potężne fale - stwierdziła minister infrastruktury Melanie Schultz van Haegden, otwierając w Delft gigantyczną maszynę do tworzenia fal. Maszyna stoi w instytucie Deltares, a jej budowa trwała trzy lata. Może ona tworzyć fale o wysokości 5 metrów i wysyłać je wzdłuż 300-metrowego kanału o głębokości 9,5 metra. Na jednym końcu mamy mechanizm do tworzenia fal. To po prostu pionowa ściana, która porusza się w przód i w tył, zdolna do tworzenia wysokich fal - wyjaśnia Bas Hofland. Siedmiometrowa metalowa ściana jest poruszana za pomocą czterech potężnych tłoków. Dzięki temu urządzeniu można będzie badać np. wpływ tsunami na nabrzeża. Jako, że bezpieczeństwo Holandii zależy od skutecznej obrony przed morskim żywiołem, konieczne było zbudowanie urządzenia badawczego, w którym można przeprowadzać eksperymenty w rzeczywistej skali. O niezwykłym urządzeniu dowiedzieli się już... miłośnicy surfingu, którzy zasypują instytut Deltares prósbami o pozwolenie na wykorzystanie maszyny w celach rozrywkowych. « powrót do artykułu
-
Jeden z największych fenomenów czytelniczych ostatniego roku. Książka, która zebrała świetne recenzje w najważniejszych światowych mediach, poczynając od "Wall Street Journal" i "Rolling Stone'a", a na "Wired" kończąc. Zadebiutowała na 1. miejscu listy bestsellerów non-fiction "New York Timesa" i utrzymywała się w jej czołówce aż przez pół roku (od września 2014 roku do kwietnia 2015). Jedna z ulubionych lektur Billa Gatesa. W ciągu zaledwie 24 godzin od premiery osiągnęła status bestsellera na Amazonie. "What If?" Randalla Munroe'a ukaże się jesienią w Polsce nakładem wydawnictwa Czarna Owca. Randall Munroe jest legendą internetu. To twórca jednego z najpopularniejszych komiksów internetowych na świecie (dobrze znanego także w Polsce) – XKCD (xkcd.com). Jest byłym naukowcem NASA, który poświęcił karierę twórcy robotów dla tworzenia sytuacyjnych komiksów, a ostatnio także pisania książek. Opłaciło się. Po roku od debiutu jego stronę odwiedzało miesięcznie około 70 milionów użytkowników. Jego Ted Talk (podczas słynnych spotkań TEDx) widziało prawie 2 miliony osób (ted.com/talks/randall_munroe_comics_that_ask_what_if). "What If?" to pierwsza książka Munroe'a, która ukaże się w Polsce. Stanowi zbiór naukowych odpowiedzi na hipotetyczne i absurdalne pytania, ilustrowane przezabawnymi komiksami. Książka pełna jest uszczypliwego humoru, a przy tym naprawdę zaskakująco wiele można się z niej nauczyć. Czytelnicy i krytycy zgodnie nazywają ją jedną z najlepszych naukowych lektur, jakie kiedykolwiek powstały. Zrecenzował i dodał ją do listy swoich ulubionych książek sam Bill Gates. Ale to pozycja dla wszystkich. Dzieci zabierają ją swoim rodzicom, ci kradną ją dzieciom. Bo kto z nas nie zastanawiał się nigdy nad tym, co by się stało gdyby Ziemia nagle przestała się kręcić? Z naukowym zacięciem Munroe odpowiada na najgłupsze nawet pytania, cierpliwie tłumaczy, jaką moc może wygenerować Yoda, czy co by się stało, gdyby każdy z nas miał naprawdę tylko jedną połówkę. Ale czasem jego cierpliwość się kończy. Kiedy dostaje pytanie, jak mielibyśmy odróżnić ludzi od samolotów, gdyby każdy z nas miał kółka i umiał latać, Randall mówi "dość". Komentarze do pytań bez odpowiedzi są jedną z najzabawniejszych części książki. Każde okraszone kultowym komiksem. Polska premiera "What If?" 7 października.
-
Japońska firma planuje testy autonomicznej taksówki z pasażerami
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Tokijska firma Robot Taxi Inc. przygotowuje się do przetestowania w przyszłym roku autonomicznych taksówek. W ramach eksperymentu ok. 50 mieszkańców Fuijsawy w prefekturze Kanagawa będzie mogło pojechać samochodem bez kierowcy z domu do predefiniowanego wcześniej lokalnego sklepu spożywczego. Twórcy projektu twierdzą, że trasa będzie miała długość ok. 3 km i poprowadzi m.in. przez jedną z głównych ulic miasta. Gdyby sytuacja stawała się niebezpieczna i potrzebna byłaby ludzka interwencja, na wszelki wypadek w taksówce ma się znajdować również ktoś z obsługi. Auta będą wyposażone w GPS, radar wykorzystujący fale milimetrowe, kamerę stereowizyjną oraz technologie analizy obrazu. Robot Taxi Inc. zamierza skomercjalizować usługę do 2020 r. Firma twierdzi, że bezzałogowe taksówki będą przeznaczone m.in. dla turystów, także z zagranicy, oraz mieszkańców obszarów pozbawionych komunikacji autobusowej i kolejowej. Władze Kanagawy wspierają projekt i przypominają, że choć autonomiczne samochody przetestowano już na drogach ekspresowych, teraz po raz pierwszy pojawią się one na lokalnych drogach, w dodatku z pasażerami. Tym razem eksperyment z taksówką-robotem będzie przeprowadzony na prawdziwych lokalnych drogach. Myślę, że to niesamowite - zaznacza Yuji Kuroiwa. Prezes Robot Taxi Hiroshi Nakajima ujawnia, że firma planuje przetestowanie innych zastosowań autonomicznego auta, np. podczas katastrof naturalnych. « powrót do artykułu -
Astronomowie z University of Washington stworzyli metodę porównywania i klasyfikowania egzoplanet, która ma pomóc w znalezieniu życia na nich. Już wkrótce będziemy mieli do dyspozycji narzędzia, która pozwolą na dokładne badania atmosfery egzoplanet. Jako, że liczba odkrytych planet pozasłonecznych liczona jest już w tysiącach, konieczne staje się opracowanie metody selekcjonowania najbardziej obiecujących celów badawczych. Nowa metoda, nazwana "habitalibity index for transiting planets" została opracowana przez profesorów Rory'ego Barnesa i Victorię Meadows przy pomocy Nicole Evans. Artykuł na jej temat zaakceptowano do publikacji w Astrophysical Journal. Opracowaliśmy metodę, która na podstawie wszystkich dostępnych danych pozwala nam na określenie priorytetów. Tak więc jeśli będziemy mieli do zbadania setki obiektów, będziemy w stanie powiedzieć, od którego należy zacząć - mówi Barnes. Już w 2018 roku ma rozpocząć pracę Teleskop Kosmiczny Jamesa Webba, instrument, który pozwoli na badanie atmosfery planet pozasłonecznych. Rok wcześniej wystrzelony zostanie satelita TESS (Transiting Exoplanet Survey Satellite), który ma znacząco zwiększyć liczbę odkrywanych egzoplanet. Praca tych wszystkich urządzeń jest bardzo kosztowna, wiele zespołów naukowych chciałoby uzyskać do nich dostęp. Dlatego też poszukiwane są sposoby na uniknięcie marnowania czasu i pieniędzy na badania, które z najmniejszym prawdopodobieństwem mogą przynieść jakieś rezultaty. Zwykle astronomowie skupiają się na egzoplanetach znajdujących się w ekosferze swojej gwiazdy, czyli w takiej odległości od niej, która pozwala na istnienie wody w stanie ciekłym. To jednak za mało. Pokazuje bowiem jedynie, czy planeta jest w odpowiedniej odległości od gwiazdy. Nie pozwala w żaden sposób odróżnić takich planet od siebie. Metoda stworzona przez Barnesa, Meadows i Evans jest bardziej subtelna. Pozwala na określenie prawdopodobieństwa, że planeta jest skalista, bierze pod uwagę zależność albedo planety i jej orbitę, co umożliwia określenie, ile energii zostaje odbite, a ile ogrzewa planetę. To bardzo ważny wskaźnik. Planeta o wyższym albedo bardziej odbija światło gwiazdy, a z kolei im orbita mniej kołowa, tym planeta ma więcej energii gdy zbliża się do swojej gwiazdy. Te czynniki mogą być decydujące w przypadku planet znajdujących się przy granicach ekosfery. Planeta blisko granicy wewnętrznej może być zbyt gorąca, by istniało na niej życie ale jeśli ma wyższe albedo, będzie odbijała więcej energii, więc warunki dla życia będą bardziej przyjazne. W przypadku planety przy granicy zewnętrznej potrzebna będzie prawdopodobnie bardziej eliptyczna orbita, by mogło na niej istnieć życie. Barnes, Meadows i Evans wykorzystali swój ranking do oceny planet odkrytych przez Teleskop Keplera. Z ich analiz wynika, że najprawdopodobniej najlepszymi kandydatkami do poszukiwania życia są planety, które otrzymują 60-90 procent dawki promieniowania, jaką Ziemia otrzymuje od Słońca. « powrót do artykułu
-
Komórki odpornościowe mózgu przyczyniają się do rozwoju alzheimera
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Naukowcy zidentyfikowali mechanizm, za pośrednictwem którego na wczesnych etapach choroby Alzheimera (ChA) mikroglej przenosi do kolejnych neuronów zwyrodnienia włókienkowe typu Alzheimera (neurofibrillary tangles). Zwyrodnienia te są uwarunkowane patologią białka tau. Studium pokazało, że patologiczne białko tau może być przenoszone z neuronu do neuronu przez komórki odpornościowe mózgu. Proces ten może się przyczyniać do rozwoju ChA - wyjaśnia dr Tsuneya Ikezu ze Szkoły Medycznej Uniwersytetu Bostońskiego. Jedną z funkcji mikrogleju (tkankowo specyficznych, rezydentnych makrofagów) jest stałe monitorowanie mikrośrodowiska pod kątem wykrywania i eliminowania uszkodzeń i zakażeń. Wykonując te zadania, mikroglej fagocytuje martwe komórki, nieaktywne synapsy czy nieprawidłowe/umierające neurony. Później, by przetransportować cząsteczki sygnalizacyjne i zaprezentować antygen, uwalnia egzosomy, które mogą zostać wychwycone przez inne komórki. Autorzy publikacji z pisma Nature Neuroscience dywagują, że na wczesnych etapach ChA mikroglej fagocytuje zwyrodnienia włókienkowe i rozprzestrzenia je za pośrednictwem egzosomów. Posługując się modelem eksperymentalnym, Amerykanie wykazali, że farmakologiczne wyeliminowanie mikrogleju hamowało rozprzestrzenianie patologicznego białka tau między różnymi regionami mózgu. Farmakologiczne hamowanie produkcji egzosomów także tłumiło przenoszenie tau. Odkrycia wskazują, że cząsteczki biorące udział w uwalnianiu egzosomów przez mikroglej stanowią obiecujący cel dla nowych leków hamujących patogenezę ChA - podsumowuje Ikezu. « powrót do artykułu -
Na australijskim Uniwersytecie Nowej Południowej Walii (UNSW) powstała pierwsza kwantowa bramka logiczna zbudowana na krzemie. O sukcesie inżynierów poinformowano na łamach Nature. To, co osiągnęliśmy, zmienia zasady gry - mówi profesor Andrew Dzurak. Zaprezentowaliśmy dwukubitową bramkę logiczną, która - co najważniejsze - została zbudowana na krzemie. Jako, że użyliśmy tych samych technologii, jakie są używane we współczesnych chipach komputerowych, sądzimy, że producentom będzie znacznie łatwiej wdrożyć do produkcji naszą technikę niż którąkolwiek z obecnie proponowanych technik opierających się na egzotycznych technologiach. Profesor Dzurak dodaje, że jeśli komputery kwantowe mają rzeczywiście zastąpić tradycyjne maszyny, to dla ich działania zasadnicza będzie możliwość przeprowadzania operacji na jednym i dwóch kubitach. Dzurak ma spore doświadczenie w pracy nad technologiami kwantowymi. W 2012 roku wchodził w skład zespołu, który jako pierwszy uzyskał kubit na krzemie. Skonstruowanie pierwszej dwukubitowej kwantowej bramki logicznej na krzemie oznacza, że mamy już wszystkie elementy potrzebne do zbudowania działającego kwantowego komputera. Mimo, że obliczenia kwantowe cieszą się olbrzymim zainteresowaniem, to komputer kwantowy był jak kot Schrödingera. Teoretycznie możliwy, ale w praktyce nieosiągalny - mówi profesor Mark Hoffman. Postęp dokonany przez zespół z UNSW może to zmienić. Technologia, którą opracowaliśmy i przetestowaliśmy, może pozwolić na przekroczenie granicy pomiędzy teoretycznym a praktycznym zastosowaniem komputerów kwantowych. Zmieniliśmy krzemowe tranzystory w kwantowe upewniając się, że z każdym z nich związany jest tylko jeden elektron. Następnie w spinie elektronu przechowywaliśmy wartości 0 i 1 - wyjaśnia Dzurak. Zespół uczonego zaprojektował i opatentował pełnowymiarowy kwantowy procesor krzemowy. Teraz uczeni szukają w przemyśle partnera, który wyprodukuje taki układ. « powrót do artykułu
-
Niemal 1/3 kaktusów zagraża wyginięcie. Dzieje się tak m.in. przez nielegalny handel okazami czy nasionami i farmy z suchych rejonów. Byliśmy zaskoczeni, że aż tak duży odsetek gatunków kaktusów jest zagrożony. Zdumiała nas także mnogość zagrożeń - podkreśla szefowa międzynarodowego zespołu, dr Barbara Goettsch z Międzynarodowej Unii Ochrony Przyrody (ang. International Union for Conservation of Nature, IUCN). Na łamach pisma Nature Plants naukowcy ujawnili, że ryzyko wyginięcia dotyczy 31% z 1478 wziętych pod uwagę gatunków kaktusów. Warto przypomnieć, że w przypadku ssaków i ptaków narażenie na wymarcie wskutek presji antropogenicznej odnotowano w przypadku, odpowiednio, 25 i 12% gatunków. Najwięcej zagrożonych gatunków kaktusów pochodzi z południa brazylijskiego stanu Rio Grande do Sul i północy departamentu Artigas w Urugwaju. Wśród największych zagrożeń naukowcy wymieniają m.in. przeznaczanie gruntów na uprawy rolne i hydroponikę czy rozwój osadnictwa. Studium wykazało, że habitatom kaktusów w Amerykach - od Chile i Urugwaju po Meksyk i USA - zagraża hodowla bydła na suchych obszarach, rozrost innych rodzajów farm i dróg oraz rejonów miejskich. Specjaliści wskazywali też na wykorzystanie suchych rejonów w Brazylii pod plantacje eukaliptusa. Podsumowując, Goettsch i inni podkreślają, że kaktusy znajdują się na 5. miejscu listy najbardziej zagrożonych grup organizmów po sagowcowych, płazach, koralowcach oraz iglastych. « powrót do artykułu
-
Z raportu przygotowanego przez Lawrence Berkeley National Laboratory (LBNL) dowiadujemy się, że w USA cena energii elektrycznej pozyskiwanej ze Słońca spadła do rekordowo niskiego poziomu. To efekt zarówno spadku cen montażu paneli słonecznych, poprawy ich wydajności jak i skutek wyścigu przedsiębiorstw, które chcą dotrzeć do jak największej liczby klientów przed końcem federalnych ulg podatkowych. Obecnie na rynku hurtowym cena 1 kWh energii ze Słońca kosztuje 5 centów. W tym zawarta jest 30% ulga podatkowa, która w 2017 roku zostanie obniżona do 10%. Dla porównania - hurtowe ceny energii w USA wynoszą, w zależności od regionu, od 3 do 6 centów za kilowatogodzinę. Naukowcy z LBNL informują w swoim raporcie,że od roku 2009 koszty instalacji infrastruktury spadły o ponad 50%. W 2009 roku mediana wynosiła 6,3 USD za każdy zainstalowany wat, a w roku 2014 było to już 3,1 USD. Część instalacji zamontowano w cenie nawet 2 USD za wat. Kolejnym ważnym spostrzeżeniem jest to, że nowsze urządzenie są bardziej efektywne. W roku 2014 efektywność instalacji zbudowanych w roku 2011 wynosiła 24,5%, dla tych zbudowanych w roku 2012 było to 26,3%, a efektywność tych z roku 2013 wzrosła do 29,4%. Zdaniem specjalistów istnieje jeszcze sporo miejsca na dalsze spadki cen energii słonecznej. Spadające ceny hurtowe powodują, że farmy słoneczne stają się coraz bardziej konkurencyjne wobec tradycyjnych metod pozyskiwania energii i zaczynają powstawać też w stanach, których dotychczas było niewiele takich instalacji. Ostatnio podpisano umowy w stanach Arkansas (ok. 5 centów za kWh) i Alabama (ok. 6 centów/kWh). Powstaje coraz więcej farm słonecznych. Pod koniec 2014 roku planowano budowę elektrowni słonecznych o łącznej mocy 45 GW. To pięciokrotnie więcej niż cała moc zainstalowana dotychczas. Farmy zaczynają powstawać poza tradycyjnym regionem południowego-zachodu, coraz więcej ich pojawia się na południowym-wschodzie. « powrót do artykułu
-
NASA wybrała pięć projektów, z których jeden lub dwa zostaną zrealizowane w ramach przyszłej misji naukowej w roku 2020. Autorzy każdego z projektów otrzymają 3 miliony dolarów na rozwój i planowanie swojej koncepcji. We wrześniu przyszłego roku, NASA - po zapoznaniu się ze szczegółami - dokona ostatecznego wyboru misji do realizacji. Każda z misji ma kosztować około 500 milionów dolarów. Kwota ta nie obejmuje kosztów pojazdu oraz kosztów operacyjnych po starcie misji. W listopadzie 2014 roku NASA poprosiła o przysyłanie projektów misji naukowych, które miałyby zostać zrealizowane w ramach Discovery Program. Wpłynęło 27 propozycji, z czego wybrano pięć wspomnianych na wstępie. Są to: - The Venus Emissivity, Radio Science, InSAR, Topograpy, and Spectroscopy (VERITAS). Jego twórcy proponują wykonanie dokładnej mapy powierzchni Wenus, która przedstawiałaby jej wszelkie deformacje oraz skład. To projekt Suzanne Smrekar z należącego do NASA Jet Propulsion Laboratory (JPL). - Psyche. Celem tej misji miałoby być zbadanie asteroidy Psyche. Asteroida ta to prawdopodobnie pozostałość po kolizji, w wyniku której protoplaneta utraciła zewnętrzne warstwy. Przetrwało tylko jej jądro - Psyche. Linda Elkis-Tanton z Arizona State University uważa, że badanie ateroidy dostarczy nam wielu informacji na temat jąder planet. - Near Earth Object Camera (NEOCam), miałaby odkryć 10-krotnie więcej bliskich Ziemi obiektów niż udało się zaobserwować do tej pory. To pomysł autorstwa Amy Mainzer z JPL. - Deep Atmosphere Venus Investigation of Noble gases, Chemistry, and Imaging (DAVINCI) to pomysł autorstwa Lori Glaze z Goddard Space Flight Center. W jego ramach miałaby zostać szczegółowo zbadana atmosfera Wenus. Badania przeprowadziłby pojazd, który powoli przez 63 minuty schodziłby ku powierzchni planety. Dzięki temu naukowcy odpowiedzieliby na wiele trapiących ich od dziesięcioleci pytań, jak na przykład, czy na Wenus znajdują się aktywne wulkany i jak powierzchnia planety wpływa na jej atmosferę. - z kolei zadaniem misji Lucy byłoby przeprowadzenie pierwszych badań planetoid trojańskich Jowisza. Powszechnie uważa się, że ich badanie może ujawnić niezwykle ważne informacje na temat historii Układu Słonecznego. Na czele grupy, która zaproponowała misję Lucy, stoi Harold Levison z Southwest Research Institute. Discovery Program jest prowadzony przez NASA od 1992 roku. Dotychczas w jego ramach odbyło się 12 misji, w tym MESSENGER, Dawn, Stardust, Deep Impact, Genesis (celem było zebranie próbek wiatru kosmicznego i dostarczenie ich na Ziemię) i GRAIL. Obecnie przygotowywana jest misja InSight. « powrót do artykułu
-
Bursztyn sprzed 20 mln lat z przodkami pałeczki dżumy?
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Na zatopionej w bursztynie pchle Atopopsyllus cionus sprzed ok. 20 mln lat znajduje się bakteria, która wg George'a Poinara Juniora z Uniwersytetu Stanowego Oregonu, może być prehistorycznym szczepem pałeczki dżumy (Yersinia pestis). Jeśli jego przypuszczenia się potwierdzą, będzie to oznaczać, że bakteria, która w XIV w. zabiła ponad połowę populacji Europy, istniała miliony lat wcześniej i przemieszczała się po świecie. Nie da się z całą pewnością ustalić, czy bakterie zachowane w zasuszonej kropli na ssawce pchły i ściśnięte w jej odbycie są spokrewnione z Y. pestis, ale specjalista podkreśla, że ich wielkość, pałeczkowaty, ewentualnie sferyczny kształt i cechy fizyczne przypominają współczesne formy. Abstrahując od cech fizycznych, skamieniałe bakterie przypominają dzisiejsze pałeczki dżumy także pod względem umiejscowienia w odbycie pchły. Dodatkowo obecność bakterii w wysuszonej kropli na ssawce odpowiada sposobowi transmisji Y. pestis przez dzisiejsze owady. Ustalenia Poinara pozostają w sprzeczności z wynikami badań genomicznych, które wskazywały, że cykl pchła-patogen-kręgowiec wyewoluował w ciągu ostatnich 20 tys. lat. Amerykanin zauważa jednak, że dziś istnieje kilka szczepów Y. pestis, poza tym zgromadzono dowody, że epidemie dżumy były w przeszłości wywoływane przez różne szczepy bakterii (z których część do dziś wymarła). Niewykluczone więc, że ludzkie szczepy Yersinia wyewoluowały 10-20 tys. lat temu, zaś prehistoryczne szczepy rozwijające się jako pasożyty gryzoni pojawiły się nad długo przed człowiekiem. Skamieniałość z bursztynu z kopalni w Cordillera Septentrional na Dominikanie odzwierciedla złożony sposób transmisji patogenu. Kiedy pchła żeruje na zarażonym zwierzęciu, pobrana z krwią Y. pestis tworzy w przedżołądku owada lepką masę. Przez to pchła nie może pozyskać wystarczająco dużo krwi i gdy zaczyna znowu jeść, zwrócone bakterie dostają się przez ssawkę do rany. Jeśli mamy do czynienia z prehistorycznym szczepem Yersinia, byłoby to niezwykłe, oznaczałoby bowiem, że dżuma jest de facto prehistoryczną chorobą, która atakowała, a może nawet doprowadzała do wyginięcia różnych zwierząt na długo przed pojawieniem się człowieka. Dżuma mogła w przeszłości odegrać ważniejszą rolę, niż nam się wydaje. Pchłopodobne zwierzęta ze skamieniałości datują się na czasy dinozaurów i jako wektory chorób mogły się np. przyczynić do ich zagłady. Ponieważ zasuszona kropla z bakterią jest nadal przyczepiona do ssawki, możliwe, że pchła wpadła w pułapkę żywicy [Hymenaea protera] krótko po żerowaniu na zarażonym zwierzęciu, np. gryzoniu z dominikańskiego lasu bursztynowego. Z bursztynu wydobyto [zresztą] włos gryzonia. « powrót do artykułu -
W ciągu najbliższych dekad reaktory fuzyjne staną się ekonomicznie opłacalnym sposobem pozyskiwania energii. Dlatego też, jak uważają eksperci z Durham University oraz Culham Centre for Fusion Energy, decydenci już teraz powinny kreślić plany zastąpienia elektrowni atomowych elektrowniami fuzyjnymi. Naukowcy przyjrzeli się całej stroni ekonomicznej reaktorów fuzyjnych, poczynając od ich budowę, poprzez czas pracy, po utylizację i porównali je z analogicznymi kosztami energetyki jądrowej. Z ich analiz wynika, że w stosunkowo niedalekiej przyszłości koszt pozyskania energii z reaktora fuzyjnego będzie taki sam jak z reaktora jądrowego. Oczywiście, że musieliśmy dokonać pewnych założeń, jednak przewidujemy, że koszty energii z fuzji jądrowej nie będą znacząco wyższe niż tej z rozpadu atomowego - mówi profesor Damian Hampshire. Reaktory fuzyjne mogą zatem stać się niemal niewyczerpanym źródłem taniej energii, a przy tym nie będą przyczyniały się ani do zwiększonej emisji gazów cieplarnianych, ani nie będą wytwarzały dużej ilości niebezpiecznych odpadów. Reaktory fuzyjne niemal nie produkują odpadów radioaktywnych, nie korzystają z wysoce radioaktywnych materiałów, co oznacza, że nie może dojść do wycieków niebezpiecznych substancji. W reaktorach takich nie można wytwarzać materiałów służących do produkcji broni atomowej. Nie ma też problemu z paliwem, gdyż reaktory korzystają z deuteru pozyskiwanego z wody morskiej oraz trytu, które same produkują. Autorzy analizy mają nadzieję, że przekona ona polityków oraz sektor prywatny do zwiększenia nakładów na badania nad fuzją. Do pokonania zostało jeszcze nieco przeszkód technologicznych, ale mamy teraz mocne argumenty, poparte najlepszymi dostępnymi danymi, że energia fuzyjna może już wkrótce stać się opłacalna. Mamy nadzieję, że dzięki temu znajdą się pieniądze na przezwyciężenie wspomnianych trudności oraz przyspieszenie procesu planowania przejścia na energię fuzyjną - mówi Hampshire. Warto też wspomnieć, że w swojej analizie naukowcy nie brali pod uwagę kosztów związanych z koniecznością odpowiedniego przechowywania przez dziesiątki czy setki lat odpadów z tradycyjnych elektrowni atomowych. W przypadku reaktorów fuzyjnych radioaktywnym (umiarkowanie) elementem jest sam tokamak. « powrót do artykułu
-
Bojownicy z Państwa Islamskiego (PI) wysadzili pochodzący z II-III w. łuk triumfalny z Palmyry. Łuk triumfalny został obrócony w pył. Zniszczyło go Państwo Islamskie - opowiada Mohammad Hassan al-Homsi, lokalny aktywista. Wiadomość potwierdza prof. Maamoun Abdulkarim, dyrektor syryjskiej Dyrekcji Generalnej Starożytności i Muzeów (Directorate General of Antiquities and Museums, DGAM), który powiedział Reuterowi, że Palmyra nadal znajduje się pod kontrolą PI. Wg niego, bojówkarze chcą unicestwić całe starożytne ruiny, obiekt z Listy Światowego Dziedzictwa UNESCO. Pod koniec sierpnia islamiści zniszczyli tu dwa inne obiekty: ruiny starożytnej świątyni Baalszamina (przy okazji wysadzili część kolumn z czasów rzymskich) i świątynię Bela z początku I w. « powrót do artykułu
-
Niezależni badacze stwierdzili, że niektóre telewizory Samsunga zużywają mniej energii w czasie testów niż w czasie normalnego użytkowania. Sytuacja przypomina niedawny głośny skandal z udziałem Volkswagena. Organizacja ComplianTV twierdzi, że podczas testów telewizory Samsunga zmniejszają jasność, dzięki czemu mniejsze jest też zużycie energii. Taka sytuacja ma miejsce wyłącznie w czasie testowania urządzenia. Eksperci ComplianTV nie byli w stanie stwierdzić, czy Samsung używa oprogramowania wykrywającego, że telewizor jest testowany. Jednoznacznie jednak stwierdzono, że w czasie testów zużycie energii spada. Rzeczywiste jej zużycie jest większe. Nie wiadomo, jak podawane przez producenta informacje o zużyciu energii wpływają na decyzje konsumentów o zakupie konkretnego produktu. Także organizacje konsumenckie w USA, Szwecji i Wielkiej Brytanii wykryły anomalie podczas testów i podejrzewają, że producenci telewizorów wbudowują w nie mechanizmy wykrywające, kiedy urządzenie jest testowane i zmniejszające wówczas zużycie energii. Samsung zaprzecza, by wykorzystywał oprogramowanie oszukujące podczas testów. Firma twierdzi, że spadek jasności to odpowiedź na różną wyświetlaną treść, w tym na szybkie zmiany obrazów w filmach akcji i widowiskach sportowych czy powolne zmiany np. w czasie prognozy pogody. « powrót do artykułu
-
Trwają testy protezy mózgowej, przekształcającej krótkotrwałe ślady pamięciowe (ang. short-term memory, STM) w pamięć długotrwałą (ang. long-term memory, LTM). Składa się ona z niewielkiej macierzy elektrod wszczepionych do mózgu. Sprawdziła się dobrze w testach laboratoryjnych na zwierzętach, teraz jej działanie jest oceniane u ludzi. Urządzenie to pokłosie kilkudziesięciu lat badań Teda Bergera. Bazuje ono na nowym algorytmie Donga Songa z Uniwersytetu Południowej Kalifornii (USC). Zbieraniem danych do stworzenia modeli i algorytmów zajmowali się Sam Deadwyler i Robert Hampson z Wake Forest Baptist. Mózg tworzy wspomnienie w postaci złożonego impulsu elektrycznego, który przemieszcza się przez wiele regionów hipokampa. W każdym z nich jest na nowo kodowany, aż dotrze do rejonu końcowego jako zupełnie inny sygnał. Stamtąd jest przesyłany do "magazynu" długotrwałego. Jeśli uszkodzenie któregoś z regionów nie dopuszcza do przekształcania, możliwe, że nie utworzy się pamięć długotrwała. To dlatego osoba ze zniszczonym, np. w wyniku choroby Alzheimera, hipokampem przypomina sobie rzeczy z odległej przeszłości (przełożone na wspomnienia przed uszkodzeniem), ale ma problem ze stworzeniem nowych wspomnień. Song i Berger znaleźli sposób na dokładne odtworzenie przekształcania STM w LTM. Wykorzystywali przy tym dane od Deadwylera i Sampsona, uzyskane najpierw u zwierząt, a później u ludzi. Proteza omija uszkodzoną sekcję hipokampa i dostarcza do kolejnego regionu poprawnie przetłumaczoną informację. Dzieje się tak mimo faktu, że obecnie nie ma sposobu na odczytanie wspomnienia wyłącznie w oparciu o przyjrzenie się sygnałowi elektrycznemu. To jak tłumaczenie z hiszpańskiego na francuski bez możności zrozumienia żadnego z tych języków - wyjaśnia Berger. Uzyskawszy pozwolenie 9 pacjentów, do których hipokampów elektrody wszczepiono z powodu przewlekłych drgawek, Hampson i Deadwyler odczytywali sygnały elektryczne generowane podczas tworzenia wspomnień w 2 regionach. Potem Song i Berger wprowadzili te dane do modelu i patrzyli, jak sygnały generowane przez 1. z obszarów są przekładane na sygnały generowane w 2. regionie. Po setkach prób algorytm potrafił z ok. 90-proc. trafnością przewidzieć sposób przekształcenia sygnału. W dalszej kolejności Amerykanie zamierzają wprowadzić przetłumaczony sygnał do mózgu osoby z uszkodzeniem pewnych regionów hipokampa i sprawdzić, czy uda się je w ten sposób skutecznie obejść. « powrót do artykułu