-
Liczba zawartości
37629 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Badanie tomograficzne odlewów gipsowych ofiar wybuchu Wezuwiusza z Pompejów pokazało, że miały one zęby w świetnym stanie. Popioły, które pokryły starożytne miasto, szybko zastygły, zachowując w środku kształt pogrzebanych ciał (tkanki miękkie rozłożyły się pod wpływem wysokiej temperatury). Od 1861 r. archeolog Giuseppe Fiorelli prowadził na stanowisku usystematyzowane badania. To on opracował metodę wykonywania odlewów. Prze otwory wlewał gips sztukatorski, który wypełniał puste przestrzenie. Później wystarczyło usunąć warstwę popiołu, odsłaniając odlew ciała w momencie śmierci. Niedawno zakończyła się konserwacja 86 takich obiektów. Dziewiętnastowieczny gips jest tak gęsty, że współczesne standardowe metody obrazowe nie potrafią odróżnić grubej warstwy zewnętrznej od szkieletu. Naukowcy posłużyli się jednak ostatnio wielorzędową tomografią komputerową, a następnie za pomocą specjalnego oprogramowania stworzyli trójwymiarowe modele szkieletów i łuków zębowych 16 mężczyzn, kobiet i dziecka. Okazało się, że badani mieszkańcy Pompejów mieli wszystkie zęby, co zespół powiązał ze zdrową dietą z niewielką ilością cukrów oraz wysoką zawartością fluoru w powietrzu i wodzie w okolicach wulkanu. Skany uwidoczniły także pęknięcia czaszki, co wskazuje nie na uduszenie, jak wcześniej sugerowano, ale na śmierć w wyniku urazów głowy wywołanych odłamkami dachu i ścian. Badanie jednego z odlewów pokazało, że ofiara nosiła grubo tkany ubiór, co sugeruje, że erupcja nie miała miejsca latem 24 sierpnia, ale raczej jesienią (postuluje to zresztą od dawna Grete Stefani, dyrektor Soprintendenza Archeologica di Pompei). Wypożyczony przez firmę Philips Spa Healthcare 16-rzędowy skaner wykorzystano również do zbadania odlewów 2 zwierząt, najprawdopodobniej psa i dzika. Szefem prac radiologicznych, które przeprowadzono rano 29 września, był dr Giovanni Babino. Nadzorowaniem badań zębów zajmowała się wyspecjalizowana stomatolog Elisa Vanacore. Stworzywszy protokół badania, akademicy transportowali po kolei odlewy do "szpitala polowego", położonego na terenie niedostępnym dla zwiedzających. Poza radiologami, pracowali tam m.in. archeolodzy, antropolodzy i konserwatorzy. Istnieją plany, by stworzyć dla naukowców bazę danych nt. odlewów. Na razie zbadano 16 ofiar, ale Babino nie zamierza na tym poprzestać. Analizy DNA pozwolą ustalić stopień pokrewieństwa między zmarłymi. « powrót do artykułu
-
W pojedynczym neuronie normalnego dorosłego mózgu występuje nawet ponad 1000 mutacji, których nie ma w sąsiednich komórkach nerwowych. Większość mutacji pojawia się podczas używania genów, już po zakończeniu rozwoju mózgu. Odkryliśmy, że geny najczęściej używane przez mózg są zmutowane z największym prawdopodobieństwem [...] - opowiada Christopher Walsh z Howard Hughes Medical Institute (HHMI). Nie wiadomo, jak te naturalnie występujące mutacje wpływają na funkcjonowanie mózgu lub w jakim stopniu przyczyniają się do choroby. Tak czy siak, śledząc ich rozkład, Amerykanie zdobywają informacje o rozwoju mózgu. Genom pojedynczego neuronu jest jak zapis archeologiczny komórki. Na podstawie wzorca dzielonych mutacji możemy odtworzyć linię pochodzenia. Wiemy obecnie, że jeśli prześledzimy wystarczającą liczbę komórek z wystarczającej liczby mózgów, uda nam się zdekonstruować wzorzec rozwoju ludzkiego mózgu. Naukowcy interesują się zmiennością genomu neuronów, ponieważ wyniki badań wskazują, że mutacje niewielkiej części komórek mózgu mogą wywołać poważne choroby neurologiczne. Dotąd jednak specjalistów chcących badać tę zmienność hamowała niewielka ilość DNA wewnątrz neuronów. Nie wystarczała ona do sekwencjonowania, a więc i dokonywania porównań. Walsh i inni zastosowali jednak amplifikację całego genomu wyizolowanego z komórki. Naukowcy zsekwencjonowali genomy 36 neuronów ze zdrowych dorosłych mózgów (przekazano je do badań pośmiertnych). Dla porównania zespół z HHMI zsekwencjonował DNA komórek pobranych z serc zmarłych. W analizie danych pomogli Peter Park, biolog obliczeniowy z Harvardzkiej Szkoły Medycznej, i Semin Lee z jego laboratorium. Amerykanie odkryli, że genomy wszystkich neuronów były unikatowe. Każdy miał ponad 1000 mutacji punktowych i tylko kilka mutacji wystąpiło w więcej niż 1 komórce. Spodziewaliśmy się, że mutacje te będą wyglądać jak mutacje nowotworowe [powstające w czasie niedokładnego kopiowania DNA w przygotowaniu do podziału], ale miały one wyjątkową sygnaturę. Mutacje występujące w mózgu wydają się w większości zachodzić podczas ekspresji genów przez komórkę. Neurony się nie dzielą i przez gros czasu ich DNA pozostaje ciasno upakowane. Kiedy neuron chce uaktywnić gen, rozwija DNA, odsłaniając gen, tak że może on być skopiowany na RNA. W oparciu o rodzaj i umiejscowienie mutacji naukowcy stwierdzili, że większość uszkodzeń DNA następuje w ramach procesu rozwijania i kopiowania. Niewielki odsetek mutacji występował w więcej niż jednej komórce. To oznacza, że mutacje te powstały, gdy przyszłe komórki mózgu nadal się dzieliły, a proces ten kończy się jeszcze przed narodzinami. Później zostały one przekazane, gdy komórki się dzieliły i migrowały. Analizując wzorce ich rozkładu, naukowcy byli w stanie odtworzyć część historii rozwoju mózgu. Mapowanie ujawniło, że w dorosłym mózgu blisko spokrewnione komórki mogą się znajdować w dość dużej odległości od siebie. Bywa, że pojedynczy obszar mózgu zawiera komórki z 5 różnych linii, które oddzieliły się, nim rozwijający się mózg odseparował się od innych tkanek płodu. Potrafimy zidentyfikować mutacje, które zaszły naprawdę wcześnie, zanim mózg w ogóle się pojawił. Stwierdziliśmy, że komórki, w których one występują, są posadowione obok komórek, które mają zupełnie inne mutacje - wyjaśnia dr Mollie Woodworth. Co więcej, konkretny neuron może być bliżej spokrewniony z komórką serca niż z sąsiednim neuronem. Amerykanie sądzą, że przeplatanie komórek o innym pochodzeniu chroni mózg przez wczesnymi, potencjalnie szkodliwymi mutacjami. Dzięki powstaniu bardzo mieszanych populacji, komórki ulokowane obok siebie i realizujące te same zadania nie są ze sobą blisko spokrewnione, dlatego z mniejszym prawdopodobieństwem dzielą identyczną zgubną mutację - dodaje Michael Lodato. « powrót do artykułu
-
Komputery osiągnęły już taką moc, że przewyższają możliwości człowieka w niektórych zastosowaniach. Potrafią znacznie lepiej od nas przeprowadzać operacje arytmetyczne, z łatwością pokonują ludzi w szachach. Powstaje jednak pytanie, czy te możliwości sumują się w jakiś rodzaj sztucznej inteligencji? Odpowiedzieć na nie postanowił Stellan Ohlsson z University of Illinois. Uczony przeprowadził test IQ na jednej z najbardziej rozwiniętych sztucznych inteligencji (AI). Od wielu lat tworzone są systemy AI, a jednym z najbardziej znanych jest rozwijany przez MIT ConceptNet. Ohlsonn poddał ConceptNet 4 standardowemu testowi WPPSI-III VIQ. To test badający inteligencję dzieci w wieku przedszkolnym i na początku szkoły. Sprawdza on zdolności dzieci w pięciu kategoriach: posiadanych informacji, słownictwa, rozpoznawania koncepcji, rozumienia i znajdowania podobieństw. Na przykład w teście dotyczącym posiadanych informacji może pojawić się pytanie "Gdzie żyją pingwiny?". W kategorii słownikowej będziemy mieli np. za zadanie odpowiedzi na pytanie w rodzaju "Co to jest dom?". W kategorii rozpoznawania koncepcji pojawiają się trzy wskazówki, na podstawie których należy rozpoznać, o czym mowa, na przykład: "możesz przez to patrzyć", "jest to kwadratowe", "możesz to otworzyć". W kategorii rozumienia padają pytania w rodzaju "Dlaczego ludzie ściskają sobie dłonie?", a w kategorii znajdowania podobieństw pada prośba o dokończenie zdań w rodzaju: "Pióro i ołówek służą do....". Ohlsson i jego współpracownicy nieco przetworzyli pytania, by można było je zadać komputerowi. Test dał zaskakujące wyniki. ConceptNet dobrze radzi sobie ze słownictwem i podobieństwami, średnio z informacją i słabo z rozpoznawaniem koncepcji oraz rozumieniem - stwierdzili uczeni. Gdy komputer zapytano "dlaczego ludzie ściskają sobie dłonie" (ang. shake hands), maszyna rozbiła problem na trzy jednostki. Dwie jednowyrazowe "ściskać", "dłonie" oraz na "ściskać dłonie" i odpowiedziała "atak epilepsji". Jednak gdy została zmuszona do przetworzenia jedynie jednowyrazowych jednostek "ściskać", "dłonie" jej odpowiedź była już znacznie bardziej trafna "podziękowanie", "flirt", "spotkanie przyjaciela". Jednak metoda ta nie zawsze działała. Na pytanie "gdzie można spotkać nauczyciela" padła prawidłowa odpowiedź, gdy maszyna osobno rozważyła "spotkać", "nauczyciel" oraz "spotkać nauczyciela". Jednak gdy zmuszono ją do przeanalizowania tylko "spotkać" oraz "nauczyciel", odpowiedź brzmiała "zespół muzyczny", "fortepian". Eksperci nie wiedzą, dlaczego ConceptNet miał problem w przypadku tego rodzaju zadań. Zauważono też, że sztuczna inteligencja potrafi dać odpowiedzi, jakich raczej nie usłyszelibyśmy od dziecka. W kategorii rozpoznawania koncepcji przed AI postawiono zadanie odgadnięcia czym jest "zwierzę, którego samiec ma grzywę", "to zwierzę żyje w Afryce", "to wielki brązowo-żółty kot". Pięć pierwszych odpowiedzi AI to "pies", "farma", "stworzenie", "dom", "kot". To zaskoczyło naukowców. Zdrowy rozsądek podpowiada, że odpowiedzi powinny być zawężone do zwierząt, a skoro w pytaniach mamy zawartą informację, że chodzi o kota, to należy rozważać tylko koty - mówi Ohlsson. Po ocenie pracy ConceptNet 4 naukowcy doszli do wniosku, że na obecnym etapie rozwoju AI znajduje się na poziomie przeciętnego 4-letniego dziecka, jednak poniżej poziomu 5- czy 7-latka. Oczywiście mowa tutaj o tych aspektach inteligencji, które bada konkretny wspomniany test. Naukowcy uważają, że jednym ze sposobów na poprawę pracy ConceptNet jest zaimplementowanie mu algorytmów przetwarzania języków naturalnych, z jakich korzystają Siri, Cortana czy Google Now. AI nie musiałaby wtedy być zależna od pracy programistów wprowadzających poszczególne pytania. Warto też zauważyć, że testowano ConceptNet 4, którego początki sięgają roku 2012. W ciągu ostatnich 3 lat prace nad sztuczną inteligencją znacznie przyspieszyły i obecnie uruchomiono już ConceptNet 5, który m.in. nie skupia się na samym zbieraniu informacji, a na nauce na podstawie zebranych danych. Ten i podobne mu systemy od pewnego czasu przekopują się przez kolosalne bady danych i na ich podstawie uczą się rozumienia języka, obrazów i innych koncepcji świata. Dzięki Ohlssonowi i kolegom wiemy, że potrzeba było 60 lat pracy nad rozwojem sztucznej inteligencji, by w zdroworozsądkowym myśleniu maszyna mogła zbliżyć się do poziomu przeciętnego 4-latka. Biorąc pod uwagę fakt, że postęp IT jest coraz szybszy, w najbliższych latach możemy spodziewać się znacznego przyspieszenia postępów sztucznej inteligencji. « powrót do artykułu
-
Dzbanecznik Nepenthes gracilis wykorzystuje energię spadających kropli deszczu do zasilania ruchu wieczka (klapki przykrywającej dzbanek). W ten sposób mrówki są wrzucane do płynów trawiennych. Jak wyjaśnia zespół dr Ulrike Bauer z Uniwersytetu w Bristolu, wieczko jest wprawiane w bardzo szybkie drgania. Naukowcy porównują to do sprężynowania trampoliny. Szczytowe prędkości opisywanego ruchu przypominają szybkość wybijania się szarańczy. Zjawisko udało się zarejestrować za pomocą szybkich kamer i laserowego pomiaru drgań. Artykuł na ten temat ukazał się w piśmie PNAS. Mamy kroplę uderzającą w powierzchnię [wieczka], która wywołuje szybki ruch w dół. Dzięki sprężystości klapka przemieszcza się do pewnego momentu, a potem się odbija. Pojawiają się drgania, bardzo podobne do obserwowanych w sytuacji, gdy linijkę położy się na biurku i jej koniec potrąci palcem. Zarejestrowany ruch jest unikatowy. Po pierwsze, jego prędkość przewyższa szybkość ruchów pułapkowych innych roślin mięsożernych, a po drugie, roślina wykorzystuje zewnętrzne źródło energii. Bristolczycy podkreślają, że wieczko jest pokryte woskiem, co zmniejsza przyczepność owadów. By określić siłę chwytu na wieczku, w ramach eksperymentu mrówki mocowano do przetworników siły. Okazało się, że z jednej strony powierzchnia jest na tyle śliska, by podczas drgań zdestabilizować mrówkę, a z drugiej na tyle antypoślizgowa, by utrzymać ją w pozostałych warunkach. Biolodzy sądzą, że N. gracilis można zaliczyć do osobnej kategorii mięsożerności; nie jest bowiem ani aktywną rośliną jak muchołówka, ani biernym zjadaczem w rodzaju pozostałych dzbaneczników. Kluczowa wydaje się sztywność wieczka N. gracilis. Kiedy uczeni badali inne gatunki, które chwytają mrówki jedynie dzięki pokrytemu śliską substancją kołnierzykowi, okazało się, że klapka jest o wiele bardziej giętka. Wieczko jest tak przystosowane, że rozprzestrzenia ruch wywołany spadającą kroplą, zwiększając w ten sposób powierzchnię stanowiącą zagrożenie dla owada. « powrót do artykułu
-
Najnowszy raport Ponemon Institute i Hewlett Packard Enterprise podkreśla, że średni roczny światowy koszt cyberprzestępstw wynosi już 7,7 miliona dolarów na ofiarę. Największe koszty działalności przestępców ponoszą przedsiębiorstwa i instytucje w USA. Tam średni koszt to 15 milionów dolarów. Jeszcze w ubiegłym roku było to 12,7 miliona USD. Wśród siedmiu krajów, którym szczegółowo przyjrzeli się analitycy, najwyższe koszty, po USA, stwierdzono w Niemczech i Japonii. Dane, które posłużyły do przygotowania raportu, pochodzą z 252 firm. Specjaliści przeprowadzili ankiety wśród 2128 pracowników odpowiedzialnych za infrastrukturę IT, przepływ informacji i firmowe standardy. Koszty oszacowano biorąc pod uwagę bezpośrednie i pośrednie wydatki związane z cyberatakiem na daną organizację. Bezpośrednie koszty to na przykład wynagrodzenie dla ekspertów prowadzących śledztwo w sprawie włamania czy uruchomienie linii telefonicznych, pod którymi klienci firmy mogą zdobyć informacje o sposobach zabezpieczenia się. Koszty bezpośrednie to "czas, wysiłek i inne zasoby organizacyjne, jakie zaangażowano w naprawę skutków ataku". Eksperci zauważają, że cyberprzestępcy mają coraz więcej możliwości ataku. Atakować mogą bowiem prywatne urządzenia, które pracownicy przynoszą do firmy i podłączają do lokalnej sieci, chmury obliczeniowe czy urządzenia typu Internet of Things. Większe możliwości ataku to wyższe koszty dla atakowanych firm. Tym bardziej, że cyberprzestępcy się profesjonalizują i walka z nimi jest coraz trudniejsza. Na przykład w USA średni czas od przeprowadzenia cyberataku do poradzenia sobie przez ofiarę z jego skutkami to 46 dni. « powrót do artykułu
-
Historia Czarnobyla dowodzi, że ludzie są większym zagrożeniem dla natury niż poważne radioaktywne zanieczyszczenie środowiska. Od katastrofy w elektrowni atomowej minęło niemal 30 lat. Ludzie opuścili obszar o powierzchni 4200 kilometrów kwadratowych, a najnowsze badania wykazały, że kwitnie tam dzikie życie. Czarnobylska Strefa Wykluczenia stała się naturalnym rezerwatem przyrody. Gdy usuwa się ludzi, natura rozkwita - nawet tam, gdzie doszło do najgorszego w historii wypadku atomowego. Bardzo możliwe, że obecnie liczba dzikich zwierząt wokół Czarnobyla jest znacznie większa niż przed wypadkiem - mówi Jim Smith z University of Portsmouth. Smith wraz z kolegami przeprowadzili szczegółowe badania Strefy i wykazali, że po spadku liczebności dzikich zwierząt, spowodowanego przez wypadek, obecnie ich liczba rośnie. Okazuje się, że obecnie liczebność populacji łosia, sarny europejskiej, jelenia szlachetnego oraz dzika są tam podobne jak w nie zanieczyszczonych rezerwatach przyrody. Z kolei liczba wilków jest siedmiokrotnie większa niż w porównywalnej wielkości rezerwatach. Dane pokazują też, że populacja wymienionych roślinożerców zaczęła się odradzać w ciągu 1-10 lat po wypadku. Te unikatowe badania pokazują, że natura jest w stanie rozkwitać nawet w odległości kilku kilometrów od poważnego wypadku atomowego, jeśli tylko zostanie uwolniona od presji człowieka - mówi Jim Beasley z University of Georgia. « powrót do artykułu
-
Holenderscy naukowcy uzyskali najwyższe fale stworzone przez człowieka. Uczeni z kraju, którego większość jest położona poniżej poziomu morza, są ekspertami w dziedzinie badania oceanów. Dla Holendrów to kwestia przetrwania. Nic więc dziwnego, że stworzyli potężne fale, by dokładnie zbadać, jaki mają one wpływ na wybrzeża i infrastrukturę. Tutaj możemy testować to, co dzieje się z groblami, gdy uderzają w nie potężne fale - stwierdziła minister infrastruktury Melanie Schultz van Haegden, otwierając w Delft gigantyczną maszynę do tworzenia fal. Maszyna stoi w instytucie Deltares, a jej budowa trwała trzy lata. Może ona tworzyć fale o wysokości 5 metrów i wysyłać je wzdłuż 300-metrowego kanału o głębokości 9,5 metra. Na jednym końcu mamy mechanizm do tworzenia fal. To po prostu pionowa ściana, która porusza się w przód i w tył, zdolna do tworzenia wysokich fal - wyjaśnia Bas Hofland. Siedmiometrowa metalowa ściana jest poruszana za pomocą czterech potężnych tłoków. Dzięki temu urządzeniu można będzie badać np. wpływ tsunami na nabrzeża. Jako, że bezpieczeństwo Holandii zależy od skutecznej obrony przed morskim żywiołem, konieczne było zbudowanie urządzenia badawczego, w którym można przeprowadzać eksperymenty w rzeczywistej skali. O niezwykłym urządzeniu dowiedzieli się już... miłośnicy surfingu, którzy zasypują instytut Deltares prósbami o pozwolenie na wykorzystanie maszyny w celach rozrywkowych. « powrót do artykułu
-
Jeden z największych fenomenów czytelniczych ostatniego roku. Książka, która zebrała świetne recenzje w najważniejszych światowych mediach, poczynając od "Wall Street Journal" i "Rolling Stone'a", a na "Wired" kończąc. Zadebiutowała na 1. miejscu listy bestsellerów non-fiction "New York Timesa" i utrzymywała się w jej czołówce aż przez pół roku (od września 2014 roku do kwietnia 2015). Jedna z ulubionych lektur Billa Gatesa. W ciągu zaledwie 24 godzin od premiery osiągnęła status bestsellera na Amazonie. "What If?" Randalla Munroe'a ukaże się jesienią w Polsce nakładem wydawnictwa Czarna Owca. Randall Munroe jest legendą internetu. To twórca jednego z najpopularniejszych komiksów internetowych na świecie (dobrze znanego także w Polsce) – XKCD (xkcd.com). Jest byłym naukowcem NASA, który poświęcił karierę twórcy robotów dla tworzenia sytuacyjnych komiksów, a ostatnio także pisania książek. Opłaciło się. Po roku od debiutu jego stronę odwiedzało miesięcznie około 70 milionów użytkowników. Jego Ted Talk (podczas słynnych spotkań TEDx) widziało prawie 2 miliony osób (ted.com/talks/randall_munroe_comics_that_ask_what_if). "What If?" to pierwsza książka Munroe'a, która ukaże się w Polsce. Stanowi zbiór naukowych odpowiedzi na hipotetyczne i absurdalne pytania, ilustrowane przezabawnymi komiksami. Książka pełna jest uszczypliwego humoru, a przy tym naprawdę zaskakująco wiele można się z niej nauczyć. Czytelnicy i krytycy zgodnie nazywają ją jedną z najlepszych naukowych lektur, jakie kiedykolwiek powstały. Zrecenzował i dodał ją do listy swoich ulubionych książek sam Bill Gates. Ale to pozycja dla wszystkich. Dzieci zabierają ją swoim rodzicom, ci kradną ją dzieciom. Bo kto z nas nie zastanawiał się nigdy nad tym, co by się stało gdyby Ziemia nagle przestała się kręcić? Z naukowym zacięciem Munroe odpowiada na najgłupsze nawet pytania, cierpliwie tłumaczy, jaką moc może wygenerować Yoda, czy co by się stało, gdyby każdy z nas miał naprawdę tylko jedną połówkę. Ale czasem jego cierpliwość się kończy. Kiedy dostaje pytanie, jak mielibyśmy odróżnić ludzi od samolotów, gdyby każdy z nas miał kółka i umiał latać, Randall mówi "dość". Komentarze do pytań bez odpowiedzi są jedną z najzabawniejszych części książki. Każde okraszone kultowym komiksem. Polska premiera "What If?" 7 października.
-
Japońska firma planuje testy autonomicznej taksówki z pasażerami
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Tokijska firma Robot Taxi Inc. przygotowuje się do przetestowania w przyszłym roku autonomicznych taksówek. W ramach eksperymentu ok. 50 mieszkańców Fuijsawy w prefekturze Kanagawa będzie mogło pojechać samochodem bez kierowcy z domu do predefiniowanego wcześniej lokalnego sklepu spożywczego. Twórcy projektu twierdzą, że trasa będzie miała długość ok. 3 km i poprowadzi m.in. przez jedną z głównych ulic miasta. Gdyby sytuacja stawała się niebezpieczna i potrzebna byłaby ludzka interwencja, na wszelki wypadek w taksówce ma się znajdować również ktoś z obsługi. Auta będą wyposażone w GPS, radar wykorzystujący fale milimetrowe, kamerę stereowizyjną oraz technologie analizy obrazu. Robot Taxi Inc. zamierza skomercjalizować usługę do 2020 r. Firma twierdzi, że bezzałogowe taksówki będą przeznaczone m.in. dla turystów, także z zagranicy, oraz mieszkańców obszarów pozbawionych komunikacji autobusowej i kolejowej. Władze Kanagawy wspierają projekt i przypominają, że choć autonomiczne samochody przetestowano już na drogach ekspresowych, teraz po raz pierwszy pojawią się one na lokalnych drogach, w dodatku z pasażerami. Tym razem eksperyment z taksówką-robotem będzie przeprowadzony na prawdziwych lokalnych drogach. Myślę, że to niesamowite - zaznacza Yuji Kuroiwa. Prezes Robot Taxi Hiroshi Nakajima ujawnia, że firma planuje przetestowanie innych zastosowań autonomicznego auta, np. podczas katastrof naturalnych. « powrót do artykułu -
Astronomowie z University of Washington stworzyli metodę porównywania i klasyfikowania egzoplanet, która ma pomóc w znalezieniu życia na nich. Już wkrótce będziemy mieli do dyspozycji narzędzia, która pozwolą na dokładne badania atmosfery egzoplanet. Jako, że liczba odkrytych planet pozasłonecznych liczona jest już w tysiącach, konieczne staje się opracowanie metody selekcjonowania najbardziej obiecujących celów badawczych. Nowa metoda, nazwana "habitalibity index for transiting planets" została opracowana przez profesorów Rory'ego Barnesa i Victorię Meadows przy pomocy Nicole Evans. Artykuł na jej temat zaakceptowano do publikacji w Astrophysical Journal. Opracowaliśmy metodę, która na podstawie wszystkich dostępnych danych pozwala nam na określenie priorytetów. Tak więc jeśli będziemy mieli do zbadania setki obiektów, będziemy w stanie powiedzieć, od którego należy zacząć - mówi Barnes. Już w 2018 roku ma rozpocząć pracę Teleskop Kosmiczny Jamesa Webba, instrument, który pozwoli na badanie atmosfery planet pozasłonecznych. Rok wcześniej wystrzelony zostanie satelita TESS (Transiting Exoplanet Survey Satellite), który ma znacząco zwiększyć liczbę odkrywanych egzoplanet. Praca tych wszystkich urządzeń jest bardzo kosztowna, wiele zespołów naukowych chciałoby uzyskać do nich dostęp. Dlatego też poszukiwane są sposoby na uniknięcie marnowania czasu i pieniędzy na badania, które z najmniejszym prawdopodobieństwem mogą przynieść jakieś rezultaty. Zwykle astronomowie skupiają się na egzoplanetach znajdujących się w ekosferze swojej gwiazdy, czyli w takiej odległości od niej, która pozwala na istnienie wody w stanie ciekłym. To jednak za mało. Pokazuje bowiem jedynie, czy planeta jest w odpowiedniej odległości od gwiazdy. Nie pozwala w żaden sposób odróżnić takich planet od siebie. Metoda stworzona przez Barnesa, Meadows i Evans jest bardziej subtelna. Pozwala na określenie prawdopodobieństwa, że planeta jest skalista, bierze pod uwagę zależność albedo planety i jej orbitę, co umożliwia określenie, ile energii zostaje odbite, a ile ogrzewa planetę. To bardzo ważny wskaźnik. Planeta o wyższym albedo bardziej odbija światło gwiazdy, a z kolei im orbita mniej kołowa, tym planeta ma więcej energii gdy zbliża się do swojej gwiazdy. Te czynniki mogą być decydujące w przypadku planet znajdujących się przy granicach ekosfery. Planeta blisko granicy wewnętrznej może być zbyt gorąca, by istniało na niej życie ale jeśli ma wyższe albedo, będzie odbijała więcej energii, więc warunki dla życia będą bardziej przyjazne. W przypadku planety przy granicy zewnętrznej potrzebna będzie prawdopodobnie bardziej eliptyczna orbita, by mogło na niej istnieć życie. Barnes, Meadows i Evans wykorzystali swój ranking do oceny planet odkrytych przez Teleskop Keplera. Z ich analiz wynika, że najprawdopodobniej najlepszymi kandydatkami do poszukiwania życia są planety, które otrzymują 60-90 procent dawki promieniowania, jaką Ziemia otrzymuje od Słońca. « powrót do artykułu
-
Komórki odpornościowe mózgu przyczyniają się do rozwoju alzheimera
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Naukowcy zidentyfikowali mechanizm, za pośrednictwem którego na wczesnych etapach choroby Alzheimera (ChA) mikroglej przenosi do kolejnych neuronów zwyrodnienia włókienkowe typu Alzheimera (neurofibrillary tangles). Zwyrodnienia te są uwarunkowane patologią białka tau. Studium pokazało, że patologiczne białko tau może być przenoszone z neuronu do neuronu przez komórki odpornościowe mózgu. Proces ten może się przyczyniać do rozwoju ChA - wyjaśnia dr Tsuneya Ikezu ze Szkoły Medycznej Uniwersytetu Bostońskiego. Jedną z funkcji mikrogleju (tkankowo specyficznych, rezydentnych makrofagów) jest stałe monitorowanie mikrośrodowiska pod kątem wykrywania i eliminowania uszkodzeń i zakażeń. Wykonując te zadania, mikroglej fagocytuje martwe komórki, nieaktywne synapsy czy nieprawidłowe/umierające neurony. Później, by przetransportować cząsteczki sygnalizacyjne i zaprezentować antygen, uwalnia egzosomy, które mogą zostać wychwycone przez inne komórki. Autorzy publikacji z pisma Nature Neuroscience dywagują, że na wczesnych etapach ChA mikroglej fagocytuje zwyrodnienia włókienkowe i rozprzestrzenia je za pośrednictwem egzosomów. Posługując się modelem eksperymentalnym, Amerykanie wykazali, że farmakologiczne wyeliminowanie mikrogleju hamowało rozprzestrzenianie patologicznego białka tau między różnymi regionami mózgu. Farmakologiczne hamowanie produkcji egzosomów także tłumiło przenoszenie tau. Odkrycia wskazują, że cząsteczki biorące udział w uwalnianiu egzosomów przez mikroglej stanowią obiecujący cel dla nowych leków hamujących patogenezę ChA - podsumowuje Ikezu. « powrót do artykułu -
Na australijskim Uniwersytecie Nowej Południowej Walii (UNSW) powstała pierwsza kwantowa bramka logiczna zbudowana na krzemie. O sukcesie inżynierów poinformowano na łamach Nature. To, co osiągnęliśmy, zmienia zasady gry - mówi profesor Andrew Dzurak. Zaprezentowaliśmy dwukubitową bramkę logiczną, która - co najważniejsze - została zbudowana na krzemie. Jako, że użyliśmy tych samych technologii, jakie są używane we współczesnych chipach komputerowych, sądzimy, że producentom będzie znacznie łatwiej wdrożyć do produkcji naszą technikę niż którąkolwiek z obecnie proponowanych technik opierających się na egzotycznych technologiach. Profesor Dzurak dodaje, że jeśli komputery kwantowe mają rzeczywiście zastąpić tradycyjne maszyny, to dla ich działania zasadnicza będzie możliwość przeprowadzania operacji na jednym i dwóch kubitach. Dzurak ma spore doświadczenie w pracy nad technologiami kwantowymi. W 2012 roku wchodził w skład zespołu, który jako pierwszy uzyskał kubit na krzemie. Skonstruowanie pierwszej dwukubitowej kwantowej bramki logicznej na krzemie oznacza, że mamy już wszystkie elementy potrzebne do zbudowania działającego kwantowego komputera. Mimo, że obliczenia kwantowe cieszą się olbrzymim zainteresowaniem, to komputer kwantowy był jak kot Schrödingera. Teoretycznie możliwy, ale w praktyce nieosiągalny - mówi profesor Mark Hoffman. Postęp dokonany przez zespół z UNSW może to zmienić. Technologia, którą opracowaliśmy i przetestowaliśmy, może pozwolić na przekroczenie granicy pomiędzy teoretycznym a praktycznym zastosowaniem komputerów kwantowych. Zmieniliśmy krzemowe tranzystory w kwantowe upewniając się, że z każdym z nich związany jest tylko jeden elektron. Następnie w spinie elektronu przechowywaliśmy wartości 0 i 1 - wyjaśnia Dzurak. Zespół uczonego zaprojektował i opatentował pełnowymiarowy kwantowy procesor krzemowy. Teraz uczeni szukają w przemyśle partnera, który wyprodukuje taki układ. « powrót do artykułu
-
Niemal 1/3 kaktusów zagraża wyginięcie. Dzieje się tak m.in. przez nielegalny handel okazami czy nasionami i farmy z suchych rejonów. Byliśmy zaskoczeni, że aż tak duży odsetek gatunków kaktusów jest zagrożony. Zdumiała nas także mnogość zagrożeń - podkreśla szefowa międzynarodowego zespołu, dr Barbara Goettsch z Międzynarodowej Unii Ochrony Przyrody (ang. International Union for Conservation of Nature, IUCN). Na łamach pisma Nature Plants naukowcy ujawnili, że ryzyko wyginięcia dotyczy 31% z 1478 wziętych pod uwagę gatunków kaktusów. Warto przypomnieć, że w przypadku ssaków i ptaków narażenie na wymarcie wskutek presji antropogenicznej odnotowano w przypadku, odpowiednio, 25 i 12% gatunków. Najwięcej zagrożonych gatunków kaktusów pochodzi z południa brazylijskiego stanu Rio Grande do Sul i północy departamentu Artigas w Urugwaju. Wśród największych zagrożeń naukowcy wymieniają m.in. przeznaczanie gruntów na uprawy rolne i hydroponikę czy rozwój osadnictwa. Studium wykazało, że habitatom kaktusów w Amerykach - od Chile i Urugwaju po Meksyk i USA - zagraża hodowla bydła na suchych obszarach, rozrost innych rodzajów farm i dróg oraz rejonów miejskich. Specjaliści wskazywali też na wykorzystanie suchych rejonów w Brazylii pod plantacje eukaliptusa. Podsumowując, Goettsch i inni podkreślają, że kaktusy znajdują się na 5. miejscu listy najbardziej zagrożonych grup organizmów po sagowcowych, płazach, koralowcach oraz iglastych. « powrót do artykułu
-
Z raportu przygotowanego przez Lawrence Berkeley National Laboratory (LBNL) dowiadujemy się, że w USA cena energii elektrycznej pozyskiwanej ze Słońca spadła do rekordowo niskiego poziomu. To efekt zarówno spadku cen montażu paneli słonecznych, poprawy ich wydajności jak i skutek wyścigu przedsiębiorstw, które chcą dotrzeć do jak największej liczby klientów przed końcem federalnych ulg podatkowych. Obecnie na rynku hurtowym cena 1 kWh energii ze Słońca kosztuje 5 centów. W tym zawarta jest 30% ulga podatkowa, która w 2017 roku zostanie obniżona do 10%. Dla porównania - hurtowe ceny energii w USA wynoszą, w zależności od regionu, od 3 do 6 centów za kilowatogodzinę. Naukowcy z LBNL informują w swoim raporcie,że od roku 2009 koszty instalacji infrastruktury spadły o ponad 50%. W 2009 roku mediana wynosiła 6,3 USD za każdy zainstalowany wat, a w roku 2014 było to już 3,1 USD. Część instalacji zamontowano w cenie nawet 2 USD za wat. Kolejnym ważnym spostrzeżeniem jest to, że nowsze urządzenie są bardziej efektywne. W roku 2014 efektywność instalacji zbudowanych w roku 2011 wynosiła 24,5%, dla tych zbudowanych w roku 2012 było to 26,3%, a efektywność tych z roku 2013 wzrosła do 29,4%. Zdaniem specjalistów istnieje jeszcze sporo miejsca na dalsze spadki cen energii słonecznej. Spadające ceny hurtowe powodują, że farmy słoneczne stają się coraz bardziej konkurencyjne wobec tradycyjnych metod pozyskiwania energii i zaczynają powstawać też w stanach, których dotychczas było niewiele takich instalacji. Ostatnio podpisano umowy w stanach Arkansas (ok. 5 centów za kWh) i Alabama (ok. 6 centów/kWh). Powstaje coraz więcej farm słonecznych. Pod koniec 2014 roku planowano budowę elektrowni słonecznych o łącznej mocy 45 GW. To pięciokrotnie więcej niż cała moc zainstalowana dotychczas. Farmy zaczynają powstawać poza tradycyjnym regionem południowego-zachodu, coraz więcej ich pojawia się na południowym-wschodzie. « powrót do artykułu
-
NASA wybrała pięć projektów, z których jeden lub dwa zostaną zrealizowane w ramach przyszłej misji naukowej w roku 2020. Autorzy każdego z projektów otrzymają 3 miliony dolarów na rozwój i planowanie swojej koncepcji. We wrześniu przyszłego roku, NASA - po zapoznaniu się ze szczegółami - dokona ostatecznego wyboru misji do realizacji. Każda z misji ma kosztować około 500 milionów dolarów. Kwota ta nie obejmuje kosztów pojazdu oraz kosztów operacyjnych po starcie misji. W listopadzie 2014 roku NASA poprosiła o przysyłanie projektów misji naukowych, które miałyby zostać zrealizowane w ramach Discovery Program. Wpłynęło 27 propozycji, z czego wybrano pięć wspomnianych na wstępie. Są to: - The Venus Emissivity, Radio Science, InSAR, Topograpy, and Spectroscopy (VERITAS). Jego twórcy proponują wykonanie dokładnej mapy powierzchni Wenus, która przedstawiałaby jej wszelkie deformacje oraz skład. To projekt Suzanne Smrekar z należącego do NASA Jet Propulsion Laboratory (JPL). - Psyche. Celem tej misji miałoby być zbadanie asteroidy Psyche. Asteroida ta to prawdopodobnie pozostałość po kolizji, w wyniku której protoplaneta utraciła zewnętrzne warstwy. Przetrwało tylko jej jądro - Psyche. Linda Elkis-Tanton z Arizona State University uważa, że badanie ateroidy dostarczy nam wielu informacji na temat jąder planet. - Near Earth Object Camera (NEOCam), miałaby odkryć 10-krotnie więcej bliskich Ziemi obiektów niż udało się zaobserwować do tej pory. To pomysł autorstwa Amy Mainzer z JPL. - Deep Atmosphere Venus Investigation of Noble gases, Chemistry, and Imaging (DAVINCI) to pomysł autorstwa Lori Glaze z Goddard Space Flight Center. W jego ramach miałaby zostać szczegółowo zbadana atmosfera Wenus. Badania przeprowadziłby pojazd, który powoli przez 63 minuty schodziłby ku powierzchni planety. Dzięki temu naukowcy odpowiedzieliby na wiele trapiących ich od dziesięcioleci pytań, jak na przykład, czy na Wenus znajdują się aktywne wulkany i jak powierzchnia planety wpływa na jej atmosferę. - z kolei zadaniem misji Lucy byłoby przeprowadzenie pierwszych badań planetoid trojańskich Jowisza. Powszechnie uważa się, że ich badanie może ujawnić niezwykle ważne informacje na temat historii Układu Słonecznego. Na czele grupy, która zaproponowała misję Lucy, stoi Harold Levison z Southwest Research Institute. Discovery Program jest prowadzony przez NASA od 1992 roku. Dotychczas w jego ramach odbyło się 12 misji, w tym MESSENGER, Dawn, Stardust, Deep Impact, Genesis (celem było zebranie próbek wiatru kosmicznego i dostarczenie ich na Ziemię) i GRAIL. Obecnie przygotowywana jest misja InSight. « powrót do artykułu
-
Bursztyn sprzed 20 mln lat z przodkami pałeczki dżumy?
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Na zatopionej w bursztynie pchle Atopopsyllus cionus sprzed ok. 20 mln lat znajduje się bakteria, która wg George'a Poinara Juniora z Uniwersytetu Stanowego Oregonu, może być prehistorycznym szczepem pałeczki dżumy (Yersinia pestis). Jeśli jego przypuszczenia się potwierdzą, będzie to oznaczać, że bakteria, która w XIV w. zabiła ponad połowę populacji Europy, istniała miliony lat wcześniej i przemieszczała się po świecie. Nie da się z całą pewnością ustalić, czy bakterie zachowane w zasuszonej kropli na ssawce pchły i ściśnięte w jej odbycie są spokrewnione z Y. pestis, ale specjalista podkreśla, że ich wielkość, pałeczkowaty, ewentualnie sferyczny kształt i cechy fizyczne przypominają współczesne formy. Abstrahując od cech fizycznych, skamieniałe bakterie przypominają dzisiejsze pałeczki dżumy także pod względem umiejscowienia w odbycie pchły. Dodatkowo obecność bakterii w wysuszonej kropli na ssawce odpowiada sposobowi transmisji Y. pestis przez dzisiejsze owady. Ustalenia Poinara pozostają w sprzeczności z wynikami badań genomicznych, które wskazywały, że cykl pchła-patogen-kręgowiec wyewoluował w ciągu ostatnich 20 tys. lat. Amerykanin zauważa jednak, że dziś istnieje kilka szczepów Y. pestis, poza tym zgromadzono dowody, że epidemie dżumy były w przeszłości wywoływane przez różne szczepy bakterii (z których część do dziś wymarła). Niewykluczone więc, że ludzkie szczepy Yersinia wyewoluowały 10-20 tys. lat temu, zaś prehistoryczne szczepy rozwijające się jako pasożyty gryzoni pojawiły się nad długo przed człowiekiem. Skamieniałość z bursztynu z kopalni w Cordillera Septentrional na Dominikanie odzwierciedla złożony sposób transmisji patogenu. Kiedy pchła żeruje na zarażonym zwierzęciu, pobrana z krwią Y. pestis tworzy w przedżołądku owada lepką masę. Przez to pchła nie może pozyskać wystarczająco dużo krwi i gdy zaczyna znowu jeść, zwrócone bakterie dostają się przez ssawkę do rany. Jeśli mamy do czynienia z prehistorycznym szczepem Yersinia, byłoby to niezwykłe, oznaczałoby bowiem, że dżuma jest de facto prehistoryczną chorobą, która atakowała, a może nawet doprowadzała do wyginięcia różnych zwierząt na długo przed pojawieniem się człowieka. Dżuma mogła w przeszłości odegrać ważniejszą rolę, niż nam się wydaje. Pchłopodobne zwierzęta ze skamieniałości datują się na czasy dinozaurów i jako wektory chorób mogły się np. przyczynić do ich zagłady. Ponieważ zasuszona kropla z bakterią jest nadal przyczepiona do ssawki, możliwe, że pchła wpadła w pułapkę żywicy [Hymenaea protera] krótko po żerowaniu na zarażonym zwierzęciu, np. gryzoniu z dominikańskiego lasu bursztynowego. Z bursztynu wydobyto [zresztą] włos gryzonia. « powrót do artykułu -
W ciągu najbliższych dekad reaktory fuzyjne staną się ekonomicznie opłacalnym sposobem pozyskiwania energii. Dlatego też, jak uważają eksperci z Durham University oraz Culham Centre for Fusion Energy, decydenci już teraz powinny kreślić plany zastąpienia elektrowni atomowych elektrowniami fuzyjnymi. Naukowcy przyjrzeli się całej stroni ekonomicznej reaktorów fuzyjnych, poczynając od ich budowę, poprzez czas pracy, po utylizację i porównali je z analogicznymi kosztami energetyki jądrowej. Z ich analiz wynika, że w stosunkowo niedalekiej przyszłości koszt pozyskania energii z reaktora fuzyjnego będzie taki sam jak z reaktora jądrowego. Oczywiście, że musieliśmy dokonać pewnych założeń, jednak przewidujemy, że koszty energii z fuzji jądrowej nie będą znacząco wyższe niż tej z rozpadu atomowego - mówi profesor Damian Hampshire. Reaktory fuzyjne mogą zatem stać się niemal niewyczerpanym źródłem taniej energii, a przy tym nie będą przyczyniały się ani do zwiększonej emisji gazów cieplarnianych, ani nie będą wytwarzały dużej ilości niebezpiecznych odpadów. Reaktory fuzyjne niemal nie produkują odpadów radioaktywnych, nie korzystają z wysoce radioaktywnych materiałów, co oznacza, że nie może dojść do wycieków niebezpiecznych substancji. W reaktorach takich nie można wytwarzać materiałów służących do produkcji broni atomowej. Nie ma też problemu z paliwem, gdyż reaktory korzystają z deuteru pozyskiwanego z wody morskiej oraz trytu, które same produkują. Autorzy analizy mają nadzieję, że przekona ona polityków oraz sektor prywatny do zwiększenia nakładów na badania nad fuzją. Do pokonania zostało jeszcze nieco przeszkód technologicznych, ale mamy teraz mocne argumenty, poparte najlepszymi dostępnymi danymi, że energia fuzyjna może już wkrótce stać się opłacalna. Mamy nadzieję, że dzięki temu znajdą się pieniądze na przezwyciężenie wspomnianych trudności oraz przyspieszenie procesu planowania przejścia na energię fuzyjną - mówi Hampshire. Warto też wspomnieć, że w swojej analizie naukowcy nie brali pod uwagę kosztów związanych z koniecznością odpowiedniego przechowywania przez dziesiątki czy setki lat odpadów z tradycyjnych elektrowni atomowych. W przypadku reaktorów fuzyjnych radioaktywnym (umiarkowanie) elementem jest sam tokamak. « powrót do artykułu
-
Bojownicy z Państwa Islamskiego (PI) wysadzili pochodzący z II-III w. łuk triumfalny z Palmyry. Łuk triumfalny został obrócony w pył. Zniszczyło go Państwo Islamskie - opowiada Mohammad Hassan al-Homsi, lokalny aktywista. Wiadomość potwierdza prof. Maamoun Abdulkarim, dyrektor syryjskiej Dyrekcji Generalnej Starożytności i Muzeów (Directorate General of Antiquities and Museums, DGAM), który powiedział Reuterowi, że Palmyra nadal znajduje się pod kontrolą PI. Wg niego, bojówkarze chcą unicestwić całe starożytne ruiny, obiekt z Listy Światowego Dziedzictwa UNESCO. Pod koniec sierpnia islamiści zniszczyli tu dwa inne obiekty: ruiny starożytnej świątyni Baalszamina (przy okazji wysadzili część kolumn z czasów rzymskich) i świątynię Bela z początku I w. « powrót do artykułu
-
Niezależni badacze stwierdzili, że niektóre telewizory Samsunga zużywają mniej energii w czasie testów niż w czasie normalnego użytkowania. Sytuacja przypomina niedawny głośny skandal z udziałem Volkswagena. Organizacja ComplianTV twierdzi, że podczas testów telewizory Samsunga zmniejszają jasność, dzięki czemu mniejsze jest też zużycie energii. Taka sytuacja ma miejsce wyłącznie w czasie testowania urządzenia. Eksperci ComplianTV nie byli w stanie stwierdzić, czy Samsung używa oprogramowania wykrywającego, że telewizor jest testowany. Jednoznacznie jednak stwierdzono, że w czasie testów zużycie energii spada. Rzeczywiste jej zużycie jest większe. Nie wiadomo, jak podawane przez producenta informacje o zużyciu energii wpływają na decyzje konsumentów o zakupie konkretnego produktu. Także organizacje konsumenckie w USA, Szwecji i Wielkiej Brytanii wykryły anomalie podczas testów i podejrzewają, że producenci telewizorów wbudowują w nie mechanizmy wykrywające, kiedy urządzenie jest testowane i zmniejszające wówczas zużycie energii. Samsung zaprzecza, by wykorzystywał oprogramowanie oszukujące podczas testów. Firma twierdzi, że spadek jasności to odpowiedź na różną wyświetlaną treść, w tym na szybkie zmiany obrazów w filmach akcji i widowiskach sportowych czy powolne zmiany np. w czasie prognozy pogody. « powrót do artykułu
-
Trwają testy protezy mózgowej, przekształcającej krótkotrwałe ślady pamięciowe (ang. short-term memory, STM) w pamięć długotrwałą (ang. long-term memory, LTM). Składa się ona z niewielkiej macierzy elektrod wszczepionych do mózgu. Sprawdziła się dobrze w testach laboratoryjnych na zwierzętach, teraz jej działanie jest oceniane u ludzi. Urządzenie to pokłosie kilkudziesięciu lat badań Teda Bergera. Bazuje ono na nowym algorytmie Donga Songa z Uniwersytetu Południowej Kalifornii (USC). Zbieraniem danych do stworzenia modeli i algorytmów zajmowali się Sam Deadwyler i Robert Hampson z Wake Forest Baptist. Mózg tworzy wspomnienie w postaci złożonego impulsu elektrycznego, który przemieszcza się przez wiele regionów hipokampa. W każdym z nich jest na nowo kodowany, aż dotrze do rejonu końcowego jako zupełnie inny sygnał. Stamtąd jest przesyłany do "magazynu" długotrwałego. Jeśli uszkodzenie któregoś z regionów nie dopuszcza do przekształcania, możliwe, że nie utworzy się pamięć długotrwała. To dlatego osoba ze zniszczonym, np. w wyniku choroby Alzheimera, hipokampem przypomina sobie rzeczy z odległej przeszłości (przełożone na wspomnienia przed uszkodzeniem), ale ma problem ze stworzeniem nowych wspomnień. Song i Berger znaleźli sposób na dokładne odtworzenie przekształcania STM w LTM. Wykorzystywali przy tym dane od Deadwylera i Sampsona, uzyskane najpierw u zwierząt, a później u ludzi. Proteza omija uszkodzoną sekcję hipokampa i dostarcza do kolejnego regionu poprawnie przetłumaczoną informację. Dzieje się tak mimo faktu, że obecnie nie ma sposobu na odczytanie wspomnienia wyłącznie w oparciu o przyjrzenie się sygnałowi elektrycznemu. To jak tłumaczenie z hiszpańskiego na francuski bez możności zrozumienia żadnego z tych języków - wyjaśnia Berger. Uzyskawszy pozwolenie 9 pacjentów, do których hipokampów elektrody wszczepiono z powodu przewlekłych drgawek, Hampson i Deadwyler odczytywali sygnały elektryczne generowane podczas tworzenia wspomnień w 2 regionach. Potem Song i Berger wprowadzili te dane do modelu i patrzyli, jak sygnały generowane przez 1. z obszarów są przekładane na sygnały generowane w 2. regionie. Po setkach prób algorytm potrafił z ok. 90-proc. trafnością przewidzieć sposób przekształcenia sygnału. W dalszej kolejności Amerykanie zamierzają wprowadzić przetłumaczony sygnał do mózgu osoby z uszkodzeniem pewnych regionów hipokampa i sprawdzić, czy uda się je w ten sposób skutecznie obejść. « powrót do artykułu
-
Symantec poinformował o wirusie, który, przynajmniej na obecnym etapie rozprzestrzeniania się, nie czyni szkody, a... pomaga. Wirus Wifatch infekuje rutery i urządzenia typu IoT (internet of things) i tworzy z nich sieć P2P. Okazało się, że zainfekowane urządzenia są... bardziej odporne na kolejne ataki hakerskie. Autorzy wirusa nie wykorzystali żadnej techniki utrudniającej analizę jego kodu, więc specjaliści Symanteka są absolutnie pewni, że w obecnej postaci jest on całkowicie nieszkodliwy. Jednak najbardziej uderzający jest fakt, że Wifatch próbuje zwalczać szkodliwy kod na napotkanych urządzeniach oraz łata dziurę w demonie Telnetu, pozostawia użytkownikowi urządzenia informację o wyłączeniu Telnetu oraz radzi, by zaktualizował firmware lub zmienił hasło. Autorzy Wifatcha mogą go potencjalnie wykorzystać do wrogich działań, jednak analitycy Symanteka przez kilka ostatnich miesięcy nie zauważyli, by takie działanie miało miejsce. W kodzie wirusa umieszczono odezwę do NSA i FBI. Jej autor prosi pracowników tych agencji, by zastanowili się, czy obrona Konstytucji USA nie wymaga, by brali oni przykład ze Snowdena. « powrót do artykułu
-
Od dzisiaj z giełdy znika Google a pojawia się na niej Alphabet jako spółka akcyjna. Jak już informowaliśmy, Alphabet będzie holdingiem skupiającym pod sobą niezależne firmy, z których największą i najważniejszą będzie Google. Dzięki takiej zmianie cała struktura stanie się bardziej przejrzysta. Co prawda firmy wchodzące w skład Alphabet stracą ochronę i finansowanie ze strony firmy-matki, jednak inwestorzy będą mieli jaśniejszy ogląd sytuacji niż obecnie, gdy pod marką Google'a oferowane są zarówno usługi internetowe, trwają prace nad soczewkami kontaktowymi monitorującymi poziom glukozy czy autonomicznym samochodem. Na czele Alphabet stanie Larry Page, a każda z firm wchodzących w skład holdingu będzie miała własnego dyrektora wykonawczego. « powrót do artykułu
-
Naukowcy z Uniwersytetu Kolumbii Brytyjskiej stworzyli pierwsze na świecie samonapędzające się cząsteczki, które potrafią dostarczać czynnik krzepnięcia, poruszając się pod prąd przepływu krwi. W ten sposób będzie można hamować masywne krwotoki. Krwawienie to zabójca nr 1 młodych osób, a w biednych rejonach zgon z powodu krwawienia poporodowego może zabijać aż 1 na 50 kobiet. Jak widać, to poważny problem - podkreśla prof. Christian Kastrup. Tradycyjne metody hamowania krwawienia są nieskuteczne, gdy jego źródło znajduje się wewnątrz organizmu, np. w macicy, zatokach czy jamie brzusznej. Opracowano setki czynników krzepnięcia, lecz problemem jest ich przemieszczenie w kierunku przeciwnym do silnego prądu krwi, a zwłaszcza na tyle daleko, by dotrzeć do przeciekającego naczynia. My jako pierwsi zademonstrowaliśmy takie rozwiązanie. Kanadyjczycy stworzyli tworzące gaz mikrocząsteczki węglanu wapnia, które można aplikować w postaci proszku. Jak musujące tabletki, cząsteczki uwalniają dwutlenek węgla, napędzający je w kierunku miejsca krwawienia. Porowate mikrocząsteczki wiążą się z przeciwkrwotocznym kwasem traneksamowym i transportują go w głąb uszkodzonych tkanek. Początkowo autorzy publikacji z pisma Science Advances modelowali zachowanie cząsteczek in vitro, potem potwierdzili swoje spostrzeżenia w badaniu 2 modeli zwierzęcych. Okazało się, że metoda doskonale sprawdza nawet w sytuacji imitującej postrzał uszkadzający tętnicę udową. Cząsteczki muszą jeszcze zostać udoskonalone i przejść rygorystyczne testy, ale już teraz wiadomo, że będą miały wiele zastosowań, np. w czasie operowania zatok czy leczenia ran bojowych. « powrót do artykułu
-
Naukowcy zbudowali prototyp optycznego układu scalonego mogącego służyć jako pamięć trwała. Pierwsze próby tworzenia hybrydowych układów scalonych (optyczno-elektrycznych) wykonane przez IBM wypadały obiecująco. Jednym z brakujących elementów niezbędnych do budowy komputera optycznego jest pamięć nieulotna. Naukowcom udało się przekroczyć tą barierę poprzez użycie specjalnego materiału zwanego w skrócie GST. GeSbTe jest stopem germanu, antymonu i telluru, wykorzystywanym w produkcji coraz mniej już popularnych dysków optycznych CD/DVD-RW oraz pamięci PCRAM (phase-change random-access memory). Materiał ten przy użyciu impulsu lasera jest w stanie trwale zmienić swoją strukturę z krystalicznej (uporządkowaną) na amorficzną (nieregularną) a w rezultacie sposób, w jaki odbija światło. Używając wiązki o większej mocy można zapisać informację, która jest dostępna do wielokrotnego odczytu za pomocą lasera o niskiej mocy. Zespół naukowców z Oksfordu oraz Karlsruher Institut für Technologie skonstruował układ zawierający falowody wydrążone w azotku krzemu, na które naniesiono "łatkę" ze stopu GST o grubości 10 nm. Układ pozbawiony jest jakichkolwiek elementów elektrycznych, odczyt i zapis odbywa się za pomocą światła. Zapis informacji polega na wysłaniu impulsu z lasera wysokoenergetycznego do falowodu. Warstwa GST zmienia wówczas strukturę z krystalicznej na amorficzną, bądź na odwrót, w zależności od mocy impulsu. Odczyt tak zapisanej informacji wykonuje się laserem niskoenergetycznym, wykorzystując fakt, że amorficzny GST w tak zbudowanym układzie pochłania znacząco mniej światła. Uczeni poszli również o krok dalej. Możliwe jest zwiększenie przepustowości takiej pamięci poprzez wysłanie kilku wiązek światła o różnej długości fali jednocześnie. Co ciekawe, układ pozwala nie tylko na zapisanie informacji typu "0" lub "1". Poprzez modulację mocy lasera, uczeni byli w stanie kontrolować stopień krystaliczności GST. W ten sposób jedna komórka pamięci może przechowywać kilka bitów danych. Dla przykładu - przy 100% krystaliczności informacja zapisana ma wartość "zero", przy 90% krystaliczności "jeden”, przy 80% "dwa” itd. Naukowcy zaznaczają, że stopień miniaturyzacji takich układów musi wzrosnąć jeszcze o przynajmniej jeden rząd wielkości, aby dorównały one wydajnością swoim flash-owym odpowiednikom. Jak zapewnia prof. Harish Bashkaran: Docelowo pamięć fotoniczna ma potencjał by pracować 50 do 100 razy szybciej niż obecne układy elektroniczne. « powrót do artykułu
-
Badanie pożytecznych grzybów (endofitów) z cisów może pozwolić na produkcję tańszego leku przeciwnowotworowego paklitakselu. Paklitaksel pozyskiwano z kory cisów zachodnich, ale ponieważ leczenie jednego pacjenta wymagało wycięcia co najmniej sześciu 100-letnich drzew, usilnie pracowano nad metodami syntezy cytostatyku w laboratorium. Na razie z ograniczonymi sukcesami. Prof. Manish Raizada z Uniwersytetu w Guelph podkreśla, że może pewnego dnia firmom farmaceutycznym uda się okiełznać pożyteczne grzyby, tak by paklitaksel wytwarzać taniej i być w stanie sprostać zapotrzebowaniu. Kanadyjczycy opowiadają, że tajemnicą pozostawało, czemu paklitaksel produkują zarówno cisy, jak i żyjące w nich grzyby (to w końcu redundantny proces, zużywający energię i składniki odżywcze). Odpowiedź leży w sposobie, w jaki cisy tworzą nowe gałęzie. Cisy silnie rozgałęziają się z pączków ukrytych pod korą. Skutkuje to uporczywymi pęknięciami i głębokimi kieszeniami powietrznymi, które wpuszczają patogeny (m.in. wywołujące butwienie drewna grzyby) do wiązek przewodzących. Paklitaksel chroni przed patogennymi grzybami, ale jest także, niestety, toksyczny dla młodych pączków cisa. Kanadyjczycy stwierdzili, że występujące w układzie naczyniowym drzewa pożyteczne grzyby (Paraconiothyrium SSM001) zachowują się jak komórki zwierzęcego układu odpornościowego, gromadzą się bowiem w miejscu pęknięcia kory. Paklitaksel jest przechowywany w wewnątrzkomórkowych ciałach hydrofobowych, ale patogenne grzyby powodują jego uwalnianie na drodze egzocytozy. Ciała mogą się łączyć, by stworzyć wysyconą fungicydem zewnątrzkomórkową barierę. Dzięki temu w walce z wrogiem nie ucierpią wrażliwe pączki. Ciała hydrofobowe gromadzą się, by utworzyć ścianę i zasklepić ranę. To naprawdę piękne [...]. Autorzy publikacji z Current Biology przypominają, że cisy są spokrewnione z miłorzębem czy wolemią szlachetną (Wallemi nobilis), które podobnie się rozgałęziają, a w układzie naczyniowym mają podobne gatunki grzybów. Raizada chce się dowiedzieć, jakie geny i szlaki chemiczne są zaangażowane w produkcję paklitakselu u drzew i grzybów. Kanadyjczyk wspomina także, że odkrycia jego zespołu można by wykorzystać do ochrony roślin uprawnych czy lasów. « powrót do artykułu