Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Doktor Emmanuel Vincent z University of California, który specjalizuje się w badaniu tropikalnych cyklonów, wpadł na pomysł interesującego narzędzia, które pomaga naukowcom korygować nieprawdziwe i niedokładne informacje rozpowszechniane przez media. Narzędzie o nazwie Climate Feedback pozwala specjalistom na nanoszenie notatek przy artykułach prasowych, dzięki czemu zainteresowane redakcje mogą skorygować swoje teksty. Artykuły zyskują też od środowiska naukowego ocenę wiarygodności wyrażoną liczbami. Dzięki Climate Feedback teksty umieszczane w ogólnodostępnych źródłach przechodzą - po opublikowaniu - proces krytycznej analizy naukowej. Mamy więc do czynienia z działaniem nieco podobnym jak recenzowanie tekstów ukazujących się w recenzowanych pismach naukowych. Naukowcy ostatnio ocenili teksty opublikowane przez CNN, The Guardian, The Telegraph, The Wall Street Journal oraz The New York Times. Teksty są oceniane przez około 40 ekspertów z MIT-u, University of New South Wales, Harvard University, Princeton University, Columbia University, Poczdamskiego Instytutu Badań nad Klimatem, amerykańskiej Narodowej Administracji Oceanicznej i Atmosferycznej, US National Snow and Ice Data Center i wielu innych ośrodków naukowych z USA, Australii i Wielkiej Brytanii. Autorzy projektu zachęcają innych naukowców do dołączenia. A autorzy ocenianych tekstów mogą je następnie poprawić, uwzględniając uwagi specjalistów. Projekt Climat Feedback korzysta z online'owej platformy Hypotesis, używanej przez naukowców do wstawiania notatek do online'owych tekstów. O tym, jak fałszywe informacje mogą podawać media niech świadczy ostatni głośny, także i w Polsce, przykład. Niedawno wiele mediów na całym świecie pisało, że z badań profesor Walentyny Żarkowej z Northumbria University wynika, iż w latach 30. czeka nas mała epoka lodowa. Problem w tym, że profesor Żarkowa nigdy tak nie stwierdziła. Jej zespół stworzył nowy model aktywności słonecznej, który - jak twierdzą uczeni - jest wyjątkowo dokładny. Model ten wykazał, że w latach 30. czeka nas spadek aktywności słonecznej tak duży, jak miał miejsce podczas Minimum Maundera. Jako, że wówczas spadek aktywności słonecznej zbiegł się z największym ochłodzeniem podczas tzw. małej epoki lodowej, wielu dziennikarzy stwierdziło, że z badań zespołu Żarkowej wynika, iż za kilkanaście lat czeka nas mała epoka lodowa. Sześciu uczonych, którzy ocenili umieszczony w The Telegraph artykuł na ten temat, uznali, że wiarygodność tekstu jest "niska" lub "bardzo niska". Projekt Climate Feedback ma służyć właśnie korygowaniu tego typu sensacyjnych informacji, które nie mają nic wspólnego z rzeczywistością. Projekt jest finansowany przez University of California w Merced, Center for Information Technology Research in the Interest of Society (CITRIS) oraz prywatnych sponsorów. « powrót do artykułu
  2. Australijskie badania wykazały, że wysokotłuszczowa dieta niekorzystnie wpływa na zlokalizowane w żołądku receptory waniloidowe TRPV1 (kanały kationowe aktywowane przez temperaturę i kapsaicynę), które sygnalizują sytość. Pełny żołądek się rozciąga. Następuje aktywacja nerwów, które przekazują organizmowi informację, że pobrał już wystarczającą ilość jedzenia. Odkryliśmy, że ta aktywacja jest regulowana właśnie przez TRPV1. Z wcześniejszych badań wiadomo, że występująca w papryczkach chilli kapsaicyna zmniejsza u ludzi spożycie pokarmów. Odkryliśmy, że delecja receptorów TRPV1 tłumi [aferentną] reakcję nerwu błędnego na rozciąganie, skutkując odroczonym uczuciem sytości i zjadaniem większej ilości pożywienia. To oznacza, że wpływ kapsaicyny na jedzenie może być pośredniczony przez żołądek. Ustaliśmy także, że działanie TRPV1 może być zaburzone w otyłości wywołanej wysokotłuszczową dietą - wyjaśnia prof. Amanda Page z Uniwersytetu w Adelajdzie. Dr Stephen Kentish cieszy się, że uzyskane wyniki zainspirują kolejne badania i rozwój nowych terapii, w ramach których można by zapobiegać przejadaniu za pomocą kapsaicyny. By opracować smaczniejszą wersję terapii, trzeba będzie zbadać mechanizmy aktywacji TRPV1. Chcielibyśmy także określić, czemu wysokotłuszczowa dieta odwrażliwia receptory TRPV1 i sprawdzić, czy można odwrócić te zmiany. « powrót do artykułu
  3. Podczas IDF 2015, odbywających się w San Francisco, firma G.Skill zaprezentowała swoje najszybsze kości DDR4. W ramach serii TridentZ powstały zestawy DDR4 4266MHz 8GB (2x4GB) oraz DDR4 4133MHz 8GB (2x4GB). G.Skill to jeden z czołowych producentów wysoko wydajnych układów pamięci, dysków SSD, zasilaczy i peryferiów dla graczy. Jego najnowsze dwukanałowe kości DDR4 mają współpracować z układami Intela i płytami głównymi Z170. W czasie pokazu zestaw taktowany zegarem 4266MHz współpracował z procesorem Core i7-6700K oraz płytą ASRock Z170 OC Formula, a zestaw taktowany 4133MHz pracował z tym samym procesorem i płytą ASUS ROG Maximus VIII Hero. Oferta G.Skilla to najszybsze jak dotychczas chłodzone powietrzem układy pamięci do zastosowań domowych. « powrót do artykułu
  4. Być może już wkrótce będzie można wykrywać raka wątrobowokomórkowego (ang. hepatocellular carcinoma, HCC) za pomocą metod podobnych do używanych do badania składu izotopowego skał i minerałów. Choć rak wątrobowokomórkowy zazwyczaj rozwija się na podłożu przewlekłej choroby wątroby, np. marskości lub zapalenia wątroby, nawet w grupach ryzyka właściwie nie da się go wychwycić przed wystąpieniem objawów (początkowo rak rozwija się skąpoobjawowo, a symptomy trudno odróżnić od marskości). Wiedząc, że patogeneza nowotworu ma związek z miedzią, naukowcy postanowili sprawdzić, czy i ewentualnie jak się to przekłada na proporcje izotopów tego i innych pierwiastków. Porównywano 23 mężczyzn z HCC z 20 osobami zdrowymi. Okazało się, że we krwi chorych występowało 0,4 części na tysiąc (ppt) więcej 63Cu w stosunku do 65Cu. Różnicę zaobserwowano także w przypadku izotopów siarki; krew mężczyzn z rakiem wątrobowokomórkowym była o ok. 1,5 ppt bogatsza w izotop 32S niż 34S. Ustalenia są interesujące i potencjalnie znaczące. Odkryliśmy, że proporcja 65Cu do 63Cu była wyższa we krwi osób z HCC. Wstępne wyniki pokazują, że w samym guzie proporcje są odwrócone, co wskazuje, że istnieje rozdział izotopów między krwią i zmianą nowotworową - wyjaśnia geochemik z Vincent Balter. Coraz więcej dowodów świadczy o tym, że metabolizm miedzi ma znaczenie dla wielu nowotworów, a ostatnio odkryto, że czynniki chelatujące miedź, które wymiatają Cu z organizmu, mogą spowolnić, a nawet zatrzymać wzrost pewnych guzów. To, co ustaliliśmy, może wyjaśnić mechanizmy wzrostu tych guzów. Akademicy już myślą o walidacji wyników oraz wydajnych, tanich i przyjaznych do użytkownika testach do wykrywania HCC. Najpierw jednak zespół Baltera będzie musiał przezwyciężyć kilka przeszkód, w tym zmienność pomiarów izotopów w próbkach biologicznych. « powrót do artykułu
  5. Krążyły plotki o masowym grobie - mówi inspektor Bob Rescorla z Wydziału Transportu stanu Pensylwania (PennDOT). Archeolodzy śledczy rozpoczęli wykopaliska w pobliżu autostrady w miejscu, w którym znaleziono liczne kości. Przed laty w Schuylkill Haven, 100 mil na północny zachód od Filadelfii, znajdował się przytułek dla ubogich. Rescorla sądzi, że wzdłuż obecnej autostrady stanowej nr 61 pochowano ofiary epidemii hiszpanki pochodzące właśnie z tego przytułku. Jak wówczas informował Pottsville Republican-Herald w hrabstwie Schuylkill na grypę zachorowało 17 000 osób, a tysiące z nich zmarły. Po przejściu epidemii pozostało 3000 osieroconych dzieci. Pracownicy PennDOT wycięli roślinność wzdłuż autostrady. a silne deszcze odsłoniły kości. Archeolog Kevin Mock mówi, że widać m.in. kości nogi i szczękę. Nie ma natomiast żadnych śladów trumien. Zdaniem Mocka w glebie i kościach nie powinno być już wirusa H1N1, który wywołał hiszpankę. Minęło bowiem sporo czasu, ponadto zwyczajowo tam, gdzie ludzi chowano bez trumien na glebę wylewano ług. W pracach biorą udział również studenci Mercyhurst University. Lokalny koroner, doktor David Moylan mówi, że celem prac nie jest wydobycie wszystkich ofiar. Oczyszczony zostanie teren w pobliżu autostrady. Kości zostaną następnie przewiezione na uniwersytet, gdzie zajmą się nimi naukowcy. Spróbują m.in. zidentyfikować DNA ofiar, by krewni mogli je pochować. Te szczątki, które nie zostaną zidentyfikowane lub po które nie zgłoszą się krewni, zostaną skremowane i pochowane na koszt hrabstwa. « powrót do artykułu
  6. Do polskich sklepów trafił smartfon Philips S308R. Urządzenie powstało z myślą o młodych użytkownikach – projektanci postawili na zachowanie odpowiedniego balansu pomiędzy młodzieżowym wyglądem, funkcjonalnością oraz ceną. Ta sztuka się udała, powstał niedrogi, atrakcyjny wizualnie smartfon w niepowtarzalnym, czerwonym kolorze, wyposażony we wszystkie niezbędne funkcje. Urządzenie jest dostępne w sieciach RTV Euro AGD oraz Media Expert, rekomendowana cena sprzedaży wynosi 349 zł. Smartfon wyposażony jest w 4-calowy wyświetlacz pojemnościowy WVGA TFT o rozdzielczości 480x800. Dwurdzeniowy procesor taktowany zegarem 1 GHz zapewnia płynne działanie systemu Android 4.4. Zdjęcia wykonamy korzystając z 5-megapikselowego aparatu fotograficznego. Philips S308R przypadnie do gustu wszystkim, którzy szukają prostego w obsłudze smartfona o atrakcyjnym wyglądzie i w atrakcyjnej cenie, służącego do komunikowania się z przyjaciółmi, uwieczniania niepowtarzalnych chwil oraz korzystania z najnowszych aplikacji dostępnych w sklepie Google Play. Specyfikacja Philips S308R: 4-calowy wyświetlacz pojemnościowy WVGA TFT (480x800) Dwurdzeniowy procesor MTK 1 GHz Android 4.4. 5-megapikselowy aparat, flesz LED Dual SIM Obsługa kart pamięci MicroSD – do 32 GB Wbudowana pamięć: 4 GB ROM, 512 MB RAM 3G: WCDMA 900/2100MHz 2G: GSM 850/900/1800/1900MHz Bateria 1400 mAh, czas rozmów do 9.5 godziny, czas czuwania do 700 godzin (dwie karty SIM) Wymiary: 126 x 64.5 x 9.7 mm Waga: 125 g « powrót do artykułu
  7. Liczba wypalanych dziennie papierosów i wskaźnik masy ciała (BMI) to prognostyki zmian wagi po rzuceniu palenia - twierdzą naukowcy z College'u Medycyny Uniwersytetu Stanowego Pensylwanii. Rzucenie palenia może prowadzić do wzrostu wagi, a jego wielkość to kwestia indywidualna. Dotąd słabo poznano czynniki, które pozwoliłyby przewidzieć, o ile ktoś przytyje. Wielu palaczy obawia się wzrostu wagi po rzuceniu palenia i zjawisko to może stanowić barierę w sytuacji, gdy ktoś zastanawia się, czy podjąć próbę zerwania z nałogiem, czy nie - podkreśla Susan Veldheer, dodając, że wiedząc, kto jest bardziej zagrożony tyciem, można by lepiej dostosować plan leczenia. Próbując lepiej zrozumieć to zjawisko, Amerykanie przeanalizowali dane 12.204 uczestników National Health and Nutrition Examination Survey. Przyjrzeli się liczbie wypalanych dziennie papierosów i BMI przed rzuceniem palenia oraz zmianom wagi na przestrzeni 10 lat. Porównywali zmiany wagi niepalących, nadal palących i osób, które zerwały z nałogiem. Ludzie mają tendencję do tycia w miarę upływu lat i wszystkim badanym się to przydarzyło. Przez 10 lat niepalący przybierali ok. funta [0,45 kg] rocznie. W przypadku palących mniej niż 15 papierosów dziennie nie było znaczącej różnicy w tyciu na przestrzeni 10 lat między tymi, którzy rzucili nałóg i tymi, którzy nadal palili. To dobra wiadomość dla palących mało i umiarkowanie, którzy obawiają się tycia związanego z walką z nałogiem. [...] W dłuższej perspektywie czasowej rzucenie palenia nie wpłynie w dużym stopniu na ich wagę. W przypadku osób wypalających 25 i więcej papierosów dziennie i otyłych przed rzuceniem nałogu (z w BMI równym bądź wyższym od 30) przyrost wagi, który można bezpośrednio przypisać zakończeniu palenia, był jednak znaczny. Jeśli chodzi o tych pierwszych, wynosił 23 funty (ok. 10,4 kg), a tych drugich 16 funtów (ok. 7,2 kg). Choć może się to wydawać dużo, ważne, by wszyscy palacze pamiętali, że rzucenie to najważniejsza rzecz, jaką mogą zrobić dla swojego zdrowia. [...] Dla palących dużo i otyłych dobrym pomysłem wydaje się połączenie walki z nałogiem z wprowadzaniem zmian dot. stylu życia, by w ten sposób kontrolować wagę. « powrót do artykułu
  8. BBC rozpoczyna fascynującą serię dokumentalną o rekinach i płaszczkach. Poznamy w niej ponad 30 różnych gatunków tych niezwykłych zwierząt - od znanych żarłaczy białych czy rekinów młotów, po nigdy wcześniej nie filmowane gatunki brodatkowatych czy rekina polarnego. BBC zapewnia nawet, że zobaczymy też rekina wędrującego po lądzie. Pierwszy odcinek opowiada o metodach adaptacji rekinów do różnych środowisk, dzięki czemu ryby te stały się tak skutecznymi myśliwymi. Poznamy prawdziwego demona prędkości, rekina ostronosego, który żeruje na całych ławicach i przyjrzymy się życiu rekina grenlandzkiego, zdolnego do przeżycia w mroźnych wodach tylko dzięki rozwiniętemu węchowi. Zwieńczeniem odcinka będzie historia polowania żarłacza białego na foki, filmowa spod wody i z powietrza. Premierowy odcinek będziemy mogli oglądać na BBC już 23 sierpnia o 11:00. Na kolejne odcinki stacja zaprasza co tydzień. « powrót do artykułu
  9. Sproszkowana żurawina wielkooowocowa (Vaccinium macrocarpon) zwalcza u myszy raka jelita grubego. Gdy naukowcy z USA podawali ekstrakty z żurawiny myszom z rakiem jelita grubego, zmniejszyła się zarówno liczba, jak i wielkość guzów. Wyciągi z żurawiny mogą także zapewniać ochronę przed innymi typami nowotworów, ale wydaje się, że skupienie na raku jelita grubego ma sens [z jednego prostego powodu - anatomii trawienia]. W miarę postępów trawienia składniki i metabolity żurawiny powinny być biodostępne w jelicie grubym - wyjaśnia dr Catherine Neto z Uniwersytetu Massachusetts w Dartmouth. W ramach wcześniejszych badań laboratoryjnych Neto i inni wykazali, że związki z ekstraktów z żurawiny mogą wybiórczo zabijać komórki raka jelita grubego. Na przestrzeni lat zidentyfikowaliśmy kilka obiecujących substancji [które zmniejszały namnażanie komórek guza HCT116 i HT-29, słabiej wpływając na wzrost prawidłowych komórek jelita grubego CCD-18], ale zawsze chcieliśmy sprawdzić, co się z nimi stanie w zwierzęcych modelach raka. Neto nawiązała współpracę z dr. Hangiem Xiao z Uniwersytetu Massachusetts w Amherst. Jego zespół opracował mysi model raka jelita grubego, naśladujący karcinogenezę związaną z zapaleniem okrężnicy. Wkładem Neto były 3 wyciągi z żurawiny w postaci proszku: proszek pełny (ang. whole cranberry powder, WCP), polarny ekstrakt zawierający wyłącznie polifenole i niepolarny ekstrakt zawierający wyłącznie niepolifenolowe (lipidowe) składowe owoców. Jako że pewne dowody wskazują na przeciwzapalne działanie polifenoli, Neto chciała określić ich udział w całościowym działaniu żurawiny. W studium wykorzystano myszy, u których stan zapalny jelita i proces nowotworowy wywołano za pomocą azoksymetanu i soli sodowej siarczanu dekstranu (ang. dextran sodium sulfate, DSS). Wyciągi z żurawiny mieszano z posiłkami. Po 20 tygodniach u zwierząt jedzących WCP liczba i objętość guzów na mysz znacząco spadła (w porównaniu do grupy kontrolnej o ponad 50%). Towarzyszyło temu zmniejszenie poziomu tkankowych markerów zapalnych IL-1 oraz IL-6. Znaczące spadki liczby i wielkości guzów oraz stanu zapalnego obserwowano również w przypadku pozostałych 2 ekstraktów. To, co odkryliśmy, jest zasadniczo zachęcające. Wszystkie ekstrakty były do pewnego stopnia skuteczne, jednak najlepsze rezultaty uzyskiwano za pomocą WCP. Może chodzić o synergiczne działanie składników polifenolowych i niepolifenolowych - uważa studentka Sarah Frade. Podczas studium naukowcy zadbali, by ilość podawanej myszom żurawiny stanowiła dla człowieka odpowiednik kubka żurawiny dziennie. Nie wiadomo, czy podobne efekty da się uzyskać, pijąc sok żurawinowy, bo brakuje w nim związków występujących w skórkach owoców. Obecnie Amerykanie pracują nad wyizolowaniem składników odpowiedzialnych za właściwości przeciwrakowe. Ukończono już badania nad wpływem ekstraktów i pewnych głównych składników, w tym proantycyjanidyn i kwasu ursolowego, na ekspresję IL-6. Neto analizuje też metabolity powstające w przewodzie pokarmowym myszy po zjedzeniu wyciągów. « powrót do artykułu
  10. Satelita LADEE (Lunar Atmosphere and Dust Environment Explorer) zakończył trwającą od kilkudziesięciu lat debatę na temat obecności neonu w atmosferze Księżyca. NASA poinformowała, że satelita wykrył ten gaz. Od czasów misji Apollo spekulowano o obecności neonu w egzosferze Księżyca, dotychczas jednak nie wykryto tego gazu. Mam przyjemność ogłosić, że w końcu nie tylko udało się potwierdzić jego odkrycie, ale że jest go całkiem sporo - mówi Mehdi Benna z Goddard Space Flight Center i University of Maryland. Neonu nie jest jednak na tyle, byśmy obserwowali świecenie atmosfery Księżyca. Sama atmosfera jest bowiem aż 100-krotnie rzadsza od ziemskiej na poziomie morza. W gęstych atmosferach, takich jak ziemska, niezwykle ważnym czynnikiem są zderzenia pomiędzy atomami i molekułami. Atmosfera Księżyca zwana jest egzosferą, gdyż jest bardzo rzadka i cienka. Rzadko dochodzi w niej też do zderzeń atomów. Egzosfera to najczęstszy typ atmosfery w Układzie Słonecznym, dlatego też naukowców bardzo ona interesuje. Jest bardzo ważne, byśmy dowiedzieli się o egzosferze Księżyca jak najwięcej zanim zmieni ją eksploracja prowadzona przez człowieka - dodaje Benna. Jeśli na Księżycu powstanie stała baza to jego cienka atmosfera może zostać z łatwością zmieniona przez spaliny z silników rakietowych i innych pojazdów. Satelita LADEE potwierdził, że egzosfera Księżyca składa się głownie z helu, argonu i neonu. Jej relatywny skład zależy od pory dnia. Argonu najwięcej jest podczas wschodu Słońca, neon największe stężenie osiąga o 4 rano, a hel o 1 rano. Większość atmosfery Księżyca pochodzi z wiatru słonecznego, jednak prowadzone od siedmiu miesięcy badania pozwoliły stwierdzić, że część tworzących ją gazów uwalnia się z powierzchni ziemskiego satelity. Na przykład argon-40 to produkt radioaktywnego rozpadu potasu-40, który znajduje się w skałach wszystkich planet typu ziemskiego. Zaskoczyło nas też, że argon-40 tworzy lokalny bąbel nad tą częścią Księżyca gdzie znajdują się Morze Deszczów (Mare Imbirium) i Ocean Burz (Oceanus Procellarum). Wydaje się zatem, że jest to region, na którego powierzchni występują duże ilości potasu-40. Może więc istnieć związek pomiędzy atmosferycznym argonem, potasem na powierzchni i jego źródłami we wnętrzu Księżyca - mówi Benna. Kolejną niespodzianką był fakt, że ilość argonu znacznie się waha. Od czasu, gdy LADEE bada egzosferę Księżyca zawartość tego gazu najpierw wzrosła a następnie spadła o około 25%. Benna spekuluje, że przyczyną takich zmian mogą być działające na Księżyc siły pływowe, które wymuszają większą emisję gazu. O misji LADEE szczegółowo pisaliśmy przed dwoma laty. « powrót do artykułu
  11. Część ekspertów ostrzega, że łata na dziurę Stagefright w Androidzie nie działa. Jordan Gruskovnjak i Aaron Portnoy z Exodus Intelligence mówią, że odpowiednio spreparowany plik MP4 wciąż pozwala na wywołanie błędu przepełnienia bufora. Można to wykorzystać do przeprowadzenia ataku na Androida. Zagrożonych jest 950 milionów urządzeń. Funkcja w libStagefright odczytuje dwie wartości z nagłówka pliku MP4 - chunk_size i chunk_type. Wartości te to 32-bitowe liczby całkowite. Jesli jednak w chunk_size napastnik umieści wartość 0x01, wówczas odczytywana jest wartość 64-bitowa. W takiej sytuacji może dojść do przepełnienia bufora. Eksperci z Exodus twierdzą, że 7 sierpnia poinformowali Google'a o problemie i poprosili o informację, kiedy dziura zostanie załatana. Nie doczekali się odpowiedzi. Jako, że Google po raz pierwszy dowiedział się o dziurze w kwietniu, a zatem minęło już 90 dni, Exodus zdecydował się na ujawnienie szczegółów luki. « powrót do artykułu
  12. Naukowcy z University of Texas odkryli, że roboty ewoluują znacznie szybciej i efektywniej po wirtualnym masowym wymieraniu spowodowanym katastrofą naturalną, jak np. wymieranie dinozaurów. Risto Miikkulainen i Joel Lehman opisali w PLOS One jak symulowane masowe wymieranie przyczynia się do powstania nowych cech i coraz bardziej odpornych linii robotów. Masowe wymieranie jest w biologii zjawiskiem destrukcyjnym, usuwa z przyrody olbrzymie ilości materiału genetycznego. Niektórzy biolodzy ewolucyjni twierdzą jednak, że masowe wymieranie przyspiesza ewolucję, gdyż promuje te gatunki, które łatwiej potrafią się przystosować, a zatem te, które szybciej rozwijają nowe cechy. Miikkulainen i Lehman odkryli, że stwierdzenie takie jest prawdziwe przynajmniej w odniesieniu do robotów. Wzbogacili one prowadzone od lat badania nad ewolucją robotów o przypadki zagłady. Dotychczas naukowcy wykorzystywali bazujące na biologii sieci neuronowe, by uczyć komputery nowych rzeczy. Uczeni z Teksasu podłączyli sieć neuronową do symulowanych nóg robota, chcąc nauczyć je płynnego stabilnego chodu. Do algorytmu wprowadzano przypadkowe mutacje, tak jak ma to miejsce podczas ewolucji. Naukowcy stworzyli wiele nisz ekologicznych, w których mogły pojawiać się nowe funkcje. Po setkach generacji pojawiło się wiele zachowań, które wypełniły te nisze. Znaczna część z tych zachowań nie była przydatna w procesie chodzenia. Wówczas naukowcy doprowadzili do masowej zagłady, zabijając roboty w 90% przypadkowo wybranych nisz. Po wielu cyklach ewolucji i wymierania uczeni odkryli, że przetrwały tylko najbardziej elastyczne roboty, te, które miały największy potencjał tworzenia nowych cech. Porównanie ze scenariuszami bez zagłady wykazało, że pojawiły się roboty lepiej dostosowane do chodzenia niż tam, gdzie wymierania nie było. « powrót do artykułu
  13. Nowe studium biologów z Case Western Reserve University sugeruje, że kontakt z solą drogową, która spływa do bajorek czy na mokradła i ulega stężeniu, zwiększa rozmiary żab leśnych (Lithobates sylvaticus), ale jednocześnie skraca ich życie. Jak odkryli Amerykanie, w porównaniu do płazów niestykających się z tym rodzajem zanieczyszczeń, kijanki wystawione na oddziaływanie soli rosną większe i przekształcają się w większe żaby. Choć mogłoby się wydawać, że większa masa ciała wiąże się z większą przeżywalnością, tak jednak nie jest. Z większości badań wynikało, że ekspozycja na sól drogową zmniejsza rozmiary kijanek, lecz prowadzono je w laboratorium, gdzie kijanki są regularnie karmione, a klimat kontrolowany - wyjaśnia prof. Michael Benard. Zespół z Case Western podszedł więc do tematu inaczej i sprawdzał, czy istnieją zależności między skażeniem solą drogową na 30 mokradłach w północno-wschodnim Ohio a występowaniem, liczebnością, rozmiarami czy stadium rozwoju żab. Płazy odławiano za pomocą sieci i mierzono oraz określano etap rozwoju. Biolodzy oceniali przewodnictwo wody, które pozwalało oszacować stopień skażenia solą, a także powierzchnię okrywy leśnej, która jeśli jest większa, prowadzi do zmniejszonego wzrostu larw. Kolejną z uwzględnionych zmiennych była odległość od najbliższej drogi. Okazało się, że na mokradłach z wyższym stężeniem soli liczebność L. sylvaticus była mniejsza, za to żaby były cięższe. Zaintrygowani wynikami Benard i doktorantka Kacey Dananay przeprowadzili eksperymenty w 2 sztucznych zbiornikach. By sprawdzić, czy i jak sól wpływa na rozwój larwalny L. sylvaticus, biolodzy zastosowali 4 warianty: wodę bez soli, a także ze 100, 500 i 900 mg soli na litr (z takimi stężeniami zetknęli się w czasie badań terenowych). Zebrano skrzek i 4-5 dni po wylęgu kijanki umieszczono w bajorkach. Autorzy publikacji z pisma Environmental Toxicology and Chemistry zauważyli, że sól ograniczała wzrost zooplanktonu, który podobnie jak kijanki żeruje na glonach. Skutkowało to większą obfitością alg, a więc i większą ilością pokarmu dla larw płazów. W drugim eksperymencie połowę kijanek hodowano w czystej wodzie, a połowę w wodzie z 500 mg soli na litr. Kijanki z 2. grupy rosły większe i przekształcały się w większe żaby. Później wszystkie młode L. sylvaticus losowano do różnych "zagród". W sumie w 20 przedziałach płazy umieszczano parami bądź w grupach złożonych z 5 osobników. W przedziałach z 5 płazami wskaźnik przeżycia żab był taki sam, bez względu na to, czy jako kijanki zetknęły się z solą, czy nie. W zagrodach z 2 osobnikami żaby wystawione jako larwy na oddziaływanie soli miały jednak znacząco niższy wskaźnik przeżywalności. Wydawałoby się, że więksi powinni sobie radzić lepiej (większa masa jest zazwyczaj wskazówką dobrej formy), ale w tym przypadku tak się nie działo, co wg naukowców, może np. świadczyć o większej podatności na choroby lub zmianach fizjologicznych, których nie dostrzegamy. Niewykluczone także, że wczesna ekspozycja na sól wpłynęła na sposób, w jaki młode osobniki rozdzielają energię na wzrost i metabolizm w środowisku lądowym, które różni się od wodnego pod względem ilości pokarmu dostępnego na osobnika. W przyszłości naukowcy zamierzają umieszczać kijanki i żaby w bardziej złożonych środowiskach, chcą też zbadać fizjologiczne skutki ekspozycji na sól drogową. « powrót do artykułu
  14. Specjaliści z uniwersytetów w Exeter, Cambridge, Reading i Bristol twierdzą, że ich najnowsze badania ostatecznie rozstrzygają spór o to, co było przyczyną zagłady megafauny - ludzie czy zmiany klimatyczne. Większość z największych żyjących kiedykolwiek ssaków wyginęła ponad 80 000 lat temu. Wszystkie gatunki megafauny zniknęły 10 000 lat temu. Główny autor badań, Lewis Bartlett z University of Exeter, mówi, że dzięki najnowszym osiągnięciom analizy statystycznej udało się jednoznacznie stwierdzić, że główną przyczyną zagłady megafauny (mamutów, tygrysów szablozębnych czy gliptodonów był człowiek. Zmiany klimatyczne odegrały mniejszą rolę niż działalność gatunku Homo. Naukowcy przeanalizowali tysiące różnych scenariuszy, podczas których wykorzystywali dane dotyczące zanikania wielu gatunków w różnych regionach świata. Brali też pod uwagę daty przybycia ludzi na dane tereny. Analizy porównali z rekonstrukcjami klimatu z ostatnich 90 000 lat. Z analiz wynika, że w niemal wszystkich regionach pojawienie się człowieka jest związane z gwałtownym zanikaniem megafauny. Jedynie w niektórych regionach świata, głównie w Azji, nie udało się określić, który czynnik - ludzie czy zmiany klimatu - był decydujący. Regiony te powinny stać się przedmiotem bardziej szczegółowych badań. Te badania kończą 50-letnią debatę i jasno dowodzą, że to ludzie byli główną przyczyną wyginięcia megafauny. Nie wiemy natomiast, jakie konkretnie zachowanie człowieka to spowodowało. Czy były to polowania w celu zdobycia pożywienia, czy użycie ognia czy też wyparcie zwierząt z ich siedzib. Nie rozróżnialiśmy tutaj przyczyn, jednak możemy stwierdzić, że to działalność człowieka, a nie klimat przyczyniły się do zaniku megafauny. To przeczy tezie jakoby wcześni ludzie żyli w harmonii z przyrodą - mówi Bartlett. Nasze modele bardzo dobrze pokazują zależność pomiędzy pojawieniem się ludzi a zanikaniem megafauny na większości obszaru planety. Azja pozostaje jednak tajemnicą. Badania skamieniałości dowodzą, że wymieranie przebiegało tam bardzo powoli. Następne pytanie, na jakie nauka musi odpowiedzieć brzmi: dlaczego azjatycka megafauna była tak odporna, stwierdza doktor Andrea Manica z Cambridge University. « powrót do artykułu
  15. W wątrobie myszy, a potem ludzi odkryto komórki, które regenerują narząd bez ryzyka nowotworu. Dotąd mechanizm naprawy pozostawał owiany tajemnicą, lecz wspierani przez Narodowe Instytuty Zdrowia badacze z Uniwersytetu Kalifornijskiego w San Diego odkryli, że gdy liczba zdrowych komórek spada w wyniku wystawienia na działanie toksycznych związków, hybrydowe hepatocyty (HybHP) z triad wątrobowych tworzą nową tkankę znacznie skuteczniej od zwykłych komórek wątroby. Co ważne, namnażają się i rosną, nie powodując nowotworu, co zazwyczaj wiąże się z szybkimi podziałami komórek. To pierwszy raz, kiedy wykazano, jak komórki wątroby przeprowadzają bezpieczną regenerację - zaznacza dr William Suk z Narodowego Instytutu Środowiskowych Nauk o Zdrowiu (National Institute of Environmental Health Sciences, NIEHS). Naukowcy obserwowali działanie mysiej wątroby, na którą działano czterochlorkiem węgla. Po zregenerowaniu tkanki udało się wyizolować hybrydowe hepatocyty. W trzech niezależnych mysich modelach raka wątrobowokomórkowego, mimo intensywnych podziałów, HybHP nigdy nie dawały początku nowotworowi. « powrót do artykułu
  16. Kanadyjska firma Thoth Technology uzyskała w USA patent na kosmiczną windę. Patent opisuje wieżę o wysokości 20 kilometrów, która ma służyć do wysyłania w przestrzeń kosmiczną ludzi i ładunków. Taka wieża, jak twierdzą pomysłodawcy, pozwoli na wysłanie nawet 10 ton ładunku i pozwoli zaoszczędzić do 30% energii potrzebnej konwencjonalnej rakiecie. Start odbywałby się z platformy na szczycie wieży, zatem startujący pojazd miałby do czynienia ze słabszą grawitacją i rozrzedzoną atmosferą. Wieża byłaby stabilizowana za pomocą sprężonego gazu. Patent przewiduje możliwość jej podwyższenia do ponad 200 kilometrów. W dokumentach patentowych czytamy, że wynalazek to samodzielnie stojąca wieża windy kosmicznej, służąca dostarczaniu ładunków na co najmniej jedną platformę nad powierzchnią Ziemi, w celu wystrzelenia ich w przestrzeń kosmiczną. Winda kosmiczna może być również wykorzystana do dostarczania wyposażenia, personalu i innych obiektów na przynajmniej jedną platformę w celu badań naukowych, komunikacji i w celach turystycznych. Winda kosmiczna to pierwsza znacząca modyfikacja podróży w kosmos. Od kilkudziesięciu lat koncepcja takich podróży nie uległa zmianie. Wciąż używamy pełnych paliwa rakiet i zmagamy się w związku z tym z olbrzymimi wyzwaniami technicznymi powodowanymi przez gęstą atmosferę i grawitację planety. Start z platformy umieszczonej kilkadziesiąt kilometrów nad Ziemią pozwoliłby na użycie znacznie prostszych i tańszych technologii. Eksperci z Thoth Technology przewidują, że winda zostanie zbudowana z rur kevlarowo-polietylenowych i zostanie wypełniona helem, który utrzyma całość w pionie. Pomysłodawca projektu profesor Brendan Quine z York University mówi, że pojazdy startujące z umieszczonej na szczycie platformy także by na nim lądowały, tankowały, brały nowy ładunek i wracały na orbitę. Thoth Technology to istniejąca od 2001 roku kanadyjska firma działająca na rynku przemysłu obronnego i kosmicznego. Z dokumentacją patentu można zapoznać się na stronach USPTO wpisując numer patentu 9085897. « powrót do artykułu
  17. Naukowcy z Narodowej Administracji Oceanicznej i Atmosferycznej ostrzegają, że El Niño, które rozpoczęło się w marcu bieżącego roku, może być najsilniejsze od 65 lat. El Niño to nieregularna anomalia pogodowa, podczas której w strefie równikowej Pacyfiku temperatury na powierzchni wody są ponadprzeciętnie wysokie. Jego pojawienie się oznacza występowanie wyjątkowo silnych opadów w jednych częściach świata i susz w innych. Już na początku roku, gdy ostatecznie uznano, że rozpoczęło się El Niño, specjaliści obawiali się, że może być ono wyjątkowo silne. Obecnie przewidujemy, że może być to jedne z najsilniejszych El Niño w historii śledzenia tego zjawiska od 1950 roku - mówi Mike Halpert, wicedyrektor Climate Prediction Center. Temperatury na powierzchni równikowych obszarów Pacyfiku będą być o dwa lub więcej stopni Celsjusza powyżej normy. W ciągu ostatnich 65 lat zanotowaliśmy jedynie trzy takie przypadki, dodaje uczony. Tak wysokie temperatury notowano w sezonach 1972/73, 1982/83 i 1997/98. Halpert mówi, że mieszkańcy południa USA, od Florydy do centralnej Kalifornii oraz Wschodniego Wybrzeża, aż do Nowej Anglii, mogą spodziewać się większych niż zwykle opadów deszczu. Z kolei północ Gór Skalistych, obszar Wielkich Jezior, Hawaje oraz zachodnia część Alaskim mogą być bardziej suche i cieplejsze niż przeciętnie. Co prawda dotkniętej suszą Kalifornii przydadzą się dodatkowe opady, jednak jeden sezon ponadprzeciętnych opadów deszczu i śniegu prawdopodobnie nie zrekompensuje czteroletniej suszy, stwierdza Harper. Ostatnie El Niño, które miało miejsce pięć lat temu, miało wpływ na pojawienie się monsunów w Azji Południowo-Wschodniej, susz w południowej Australii, Ekwadorze i na Filipinach, burz śnieżnych w USA, fal upałów w Brazylii i potężnych powodzi w Meksyku. « powrót do artykułu
  18. Osoby po przeszczepie 2-krotnie częściej zapadają na czerniaka złośliwego i 3-krotnie częściej umierają na ten nowotwór. Wyniki uzyskane przez Hilary A. Robbins z Bloomberg School of Medicine Uniwersytetu Johnsa Hopkinsa sugerują, że leki immunosupresyjne zapobiegające odrzuceniu organów, a zwłaszcza wysokie dawki administrowane w okresie okołoprzeszczepowym, mogą zwiększać podatność na bardziej zaawansowane i przez to trudniejsze do leczenia nowotwory. Amerykanie stwierdzili, że u biorców przeszczepów 4-krotnie częściej diagnozowano wyższy stopień zaawansowania regionalnego czerniaka (nowotwór zaczął się już rozprzestrzeniać). Wiedzieliśmy, że czerniak był częściej stwierdzany u biorców przeszczepów, ale myśleliśmy, że to pokłosie intensywnego skryningu; ponieważ częściej występują u nich mniej śmiertelne postaci nowotworów skóry, są regularnie badani przez dermatologów. Ku swojemu zaskoczeniu stwierdziliśmy jednak, że osoby po przeszczepach były szczególnie zagrożone rozwojem czerniaków, których nie wykrywano przed początkiem metastazji. Ryzyko agresywnych czerniaków było szczególnie podwyższone w ciągu 4 pierwszych lat od przeszczepu (wcześniej naukowcy sądzili, że immunosupresanty działają kumulatywnie, więc takie nowotwory będą bardziej prawdopodobne po wielu latach farmakoterapii). W ramach najnowszego studium zespół Robbins analizował przypadki 139.991 białych biorców z Transplant Cancer Match Study (dane z rejestru przeszczepów są tu zestawiane z danymi z 15 populacyjnych rejestrów nowotworów). W grupie tej odkryto 519 czerniaków. Amerykanie porównali przebieg choroby u 182 biorców przeszczepu i ponad 130 tys. innych pacjentów z czerniakiem. Okazało się, że na przestrzeni 15 lat umarło 27% osób po przeszczepie i 12% ludzi, którzy nie przeszli przeszczepu. Co więcej, pacjenci z czerniakiem po przeszczepie umierali 3-krotnie częściej nawet wtedy, gdy czerniaki były diagnozowane na wczesnym etapie albo były bardzo małe. Autorzy publikacji z Journal of Investigative Dermatology odkryli, że zaawansowane czerniaki wiązały się z lekami podawanymi w okresie okołoprzeszczepowym, zaś wczesny czerniak był częściej stwierdzany u biorców długoterminowo przyjmujących azatioprynę (lek ten nasila wpływ ultrafioletu, co może prowadzić do rozwoju czerniaka). Robbins podkreśla, że potencjalni biorcy przeszczepów powinni przechodzić drobiazgowy skryning pod kątem nowotworów skóry. Wg niej, niewykluczone, że niektóre czerniaki istnieją już w czasie przeszczepu, a leki immunosupresyjne umożliwiają im niekontrolowany rozwój. Amerykanka dodaje, że dokładniejsze monitorowanie po transplantacji pozwoliłoby wcześniej wykrywać czerniaki. « powrót do artykułu
  19. Najnowsze dokumenty ujawnione przez Edwarda Snowdena wskazują, że AT&T miała znacznie bliższe związki z NSA niż się dotychczas wydawało. Współpraca z tym operatorem była kluczowa dla programu inwigilacji prowadzonego przez Agencję. W najnowszych dokumentach czytamy, że AT&T wykazywała "niezwykle dużą chęć do współpracy", współpracy, którą określano jako "partnerstwo". Można zatem przypuszczać, że pomoc, jakiej NSA udzielała AT&T wykraczała poza narzucane jej przez prawo obowiązki. Nie udzielamy władzom żadnych informacji bez nakazu sądu lub w innych okolicznościach wymaganych prawem, gdy np. czyjeś życie jest w niebezpieczeństwie i czas odgrywa kluczową rolę. Na przykład gdy dochodzi do porwania, zapewniamy organom ścigania możliwość śledzenia telefonu - zapewniają przedstawiciele AT&T. Z ujawnionych dokumentów dowiadujemy się np., że AT&T było kluczowym parterem NSA przy programie masowej inwigilacji "Fairview". W 2011 roku Agencja wydała na ten program 188,9 miliona dolarów, czyli dwukrotnie więcej niż na program "Stormbrew", w ramach którego współpracuje z Verizonem. Z dokumentów wynika też, że w 2012 roku AT&T pomagała, na żądanie sądu, w przechwytywaniu całego ruchu internetowego z siedziby ONZ w Nowym Jorku. ONZ jest klientem AT&T. Z kolei w 2013 AT&T umieściła sprzęt szpiegujący w co najmniej 17 swoich hubach na terenie USA, a inżynierowie tej firmy byli pierwszymi, którzy testowali nową technologię NSA. « powrót do artykułu
  20. Najnowsze duńskie badanie ujawniło związek między męską inteligencją we wczesnej dorosłości a sprawnością fizyczną w wieku średnim: im wyższy iloraz inteligencji, tym lepsze funkcjonowanie fizyczne. Zespół z Centrum Zdrowego Starzenia i Wydziału Zdrowia Publicznego Uniwersytetu Kopenhaskiego badał związek między inteligencją mężczyzn we wczesnej dorosłości i późniejszym funkcjonowaniem fizycznym w wieku 48-56 lat. Studium objęło 2848 Duńczyków, urodzonych w 1953 i między 1959 a 1961 r. Nasze studium jasno pokazuje, że im wyższy II we wczesnej dorosłości, tym silniejsze plecy, nogi i ręce w wieku średnim. Lepsza jest także równowaga. Wcześniejsze badania uświadomiły nam [zaś], że im lepsze wyniki testów połowy życia, tym większe szanse na uniknięcie spadku formy w wieku senioralnym - podkreśla doktorantka Rikke Hodal Meincke. Przy 10-punktowym wzroście ilorazu inteligencji obserwowano 0,5-kg wzrost siły nośnej (wytrzymałości) lędźwiowej części kręgosłupa, 1-cm wzrost wysokości wyskoku (co wyrażało moc mięśni nóg), 0,7-kg wzrost siły chwytu, a także 3,7% poprawę równowagi (o 3,69% mniejsze pole podparcia). Polepszały się też wyniki uzyskiwane w czasie czynnościowego testu wstawania z krzesła w ciągu 30 s (Functional Strength Test) - badani wstawali o ponad 1 (1,1) raz więcej. Realne wytłumaczenie dla stwierdzonej korelacji jest takie, że osobom z większą inteligencją łatwiej jest zrozumieć i zinterpretować informacje zdrowotne, dlatego prowadzą one zdrowszy tryb życia, np. bardziej regularnie ćwiczą. Ćwiczenia mogą więc być postrzegane jako łącznik między inteligencją a sprawnością fizyczną. « powrót do artykułu
  21. Jednemu z mieszkańców Kentucky grozi więzienie za zestrzelenie drona, który pojawił się nad jego domem i filmował mieszkańców. Zdarzenie miało miejsce przed trzema tygodniami, gdy 47-letni William Herbert Meredith zauważył drona z przyczepioną kamerą, który zawisł nad jego domem i najwyraźniej filmował przebywające w ogrodzie dzieci. Mężczyzna wziął strzelbę i trzema strzałami strącił pojazd. Dron wisiał dokładnie nad moim ogrodem. Strzeliłem w niebo. Nie strzelałem w poprzek drogi czy nad płotami sąsiadów, strzelałem w powietrze. Po tym ruszyło na mnie czterech mężczyzn, ale gdy zobaczyli że jestem uzbrojony, zmienili zdanie. Zapytali mnie "to ty jesteś tym sk...., który zestrzelił naszego drona?". Odpowiedziałem "Tak". Miałem przy sobie strzelbę i gdy ruszyli na mnie powiedziałem, że jeśli wejdą na mój teren to będziemy mieli kolejną strzelaninę. Po jakimś czasie zjawiła się policja i... ku zdumieniu strzelca, oddała resztki drona właścicielowi. Policjanci nie obejrzeli nawet wykonanych nagrań. Zatrzymali za to Mereditha, który spędził pięć godzin w areszcie. Mężczyzna wyszedł za kaucją jednak grozi mu kilkuletnie więzienie. Co prawda policjanci prywatnie pochwalili jego akcję ale postawili mu zarzuty. Jeden z nich mówi o narażeniu zdrowia i życia osób postronnych, inny to zarzut wandalizmu. Za oba grozi od 1 do 5 lat więzienia. Jako, że zgodnie z prawem stanowym są to zarzuty mniejszej wagi (Class D), wyrok w obu sprawach może być odbywany jednocześnie, zatem nawet jeśli mężczyzna zostanie skazany na dwa wyroki po pięć lat wiezienia, spędzi za kratami nie więcej niż 5 lat. Do przestępstw kwalifikowanych jako Class D należą w Kentucky m.in. jazda pod wpływem alkoholu, przypadkowe zabójstwo czy użycie skradzionej karty kredytowej i kradzież w ten sposób kwoty od 500 do 1000 USD. Sędzia, by skazać Mereditha za narażenie osób postronnych będzie musiał uznać, że do takiego narażenia doszło, mężczyzna miał tego świadomość i zlekceważył niebezpieczeństwo. Z kolei oskarżenie o wandalizm jest wnoszone, gdy oskarżony nie mając prawa ani poważnych podstaw, by uważać, że ma prawo, celowo niszczy własność o wartości co najmniej 1000 dolarów. Meredith i jego prawnik mają zamiar nie tylko obalić oskarżenie, ale chcą też wnieść pozew cywilny przeciwko właścicielowi drona. Jest nim niejaki David Boggs, który zaprzecza by filmował ubraną w bikini nastoletnią córkę Mereditha. Twierdzi, że filmował dom przyjaciela. Sprawa może być precedensowa. Sąsiedzi twierdzą, że dron filmował też ich dzieci, że leciał znacznie niżej niż twierdzi jego właściciel. Z jednej strony lokalna policja wyraźnie zaznacza, że lokalne prawo zabrania strzelania w mieście, że Meredith złamał prawo stanowe i dlatego został oskarżony. Z drugiej jednak strony Federalna Agencja Lotnictwa Cywilnego przyznaje, że drony latające zbyt nisko i zbyt blisko budynków stwarzają zagrożenie. Działanie Mereditha można więc uznać za obronę rodziny i własności. To pierwszy w USA przypadek postawienie zarzutów kryminalnych w związku z zestrzeleniem drona. Co prawda w ubiegłym roku pewien mężczyzna w Kalifornii zestrzelił drona sąsiada i tłumaczył się, że myślał, iż to dron rządowy, jednak zarzuty nie zostały mu postawione. Sąsiad wniósł jedynie sprawę o odszkodowanie i otrzymał od strzelca 850 USD. « powrót do artykułu
  22. Grafen to materiał, z którym naukowcy wiążą ogromne nadzieje. Dzięki jego dwuwymiarowej strukturze wykazuje on właściwości pozwalające w teorii ominąć w wielu dziedzinach bariery narzucone przez dotychczas stosowane tam materiały. Niestety, grafen ma też swoje wady, w znaczący sposób utrudniające jego masowe wykorzystanie. Jeszcze kilka lat temu wydawało się, że grafen będzie wspaniałym materiałem przyszłości, który pozwoli rozwiązać szereg bolączek współczesnej technologii. Największe nadzieje z szybkim upowszechnieniem grafenu wiązał przemysł półprzewodnikowy. Grafen może bowiem zastąpić dotychczas powszechnie wykorzystywany krzem. Jego właściwości pozwalają na zbudowanie znacznie szybszych i bardziej energooszczędnych procesorów do naszych komputerów i smartfonów. Duże nadzieje wiąże się również z możliwością wykorzystania grafenu do produkcji elastycznych ekranów dotykowych przeznaczonych do kolejnej generacji urządzeń mobilnych oraz elektroniki ubieralnej. Elastyczny, grafenowy ekran bez problemu mógłby być np. wmontowany bezpośrednio w ubranie sportowca. Antyseptyczne właściwości grafenu pozwalają z kolei myśleć o jego zastosowaniach w medycynie, np. przy tworzeniu elastycznych i wytrzymałych materiałów opatrunkowych, a zdolność grafenowych membran do mikrofiltracji można wykorzystać do usuwania niekorzystnych substancji z organizmu. Wykorzystując grafenowe membrany da się również oczyszczać wodę, w tym uzdatniać do picia wodę morską, tanio i ekologicznie destylować mocne alkohole czy pozbywać się bakterii z mleka w procesach jego przeróbki. Wszystko to dzięki odpowiednim, chemicznym modyfikacjom grafenu. Do jego powierzchni bez przeszkód można doczepić dowolną grupę organiczną lub organiczny związek chemiczny. Co ciekawe, duże nadzieje dotyczące filtracji wiąże się z tlenkiem grafenu, który jest całkowicie nieprzepuszczalny dla wielu substancji, nawet dla atomów helu, przy czym sam doskonale przepuszcza parę wodną. Właściwości mechaniczne grafenu, związane z jego płaską, heksagonalną, przypominającą plaster miodu strukturą, dają nadzieję na budowę lżejszych i bardziej wytrzymałych konstrukcji. Na przykład przemysł zbrojeniowy planuje wykorzystać go w produkcji lekkich i bardzo mocnych pancerzy czołgów czy wytrzymałych kuloodpornych kamizelek dla żołnierzy. Materiałem tym zainteresowany jest też przemysł samochodowy, lotniczy i kosmiczny. Twardszy od stali, lekki niczym piórko, przezroczysty jak szkło Właściwości grafenu są naprawdę niezwykłe. Doskonale przewodzi on prąd elektryczny i ciepło – jest jednym z najlepszych znanych na świecie przewodników ciepła i prądu. Jego rezystywność to ok. 10-8 Ω⋅m, jest więc ona lepsza od najlepszych przewodników wśród metali, takich jak np. srebro (1,59x10−8 Ω⋅m) czy miedź (1,72x10−8 Ω⋅m). Wystarczy jednak prosta obróbka chemiczna, aby z idealnego przewodnika stał się on idealnym izolatorem – np. dołączając do niego atomy wodoru (powstaje wówczas tzw. grafan) lub poddając grafen działaniu fluoru. W reakcji tej powstaje fluorografen. Co więcej, kontrolując procesy uwodornienia czy fluorowania można uzyskać stany pośrednie przewodzenia prądu, niezbędne do zastosowania grafenu w roli półprzewodnika zastępującego krzem. Grafan jest też punktem wyjścia do otrzymywania nadprzewodników. Warto też wspomnieć o tym, że prędkość przepływu elektronów w grafenie jest gigantyczna i wynosi 1/300 prędkości światła (1000 km/s), a zmierzona ruchliwość elektronów w temperaturze pokojowej to około 200 000 cm2/Vs, podczas gdy dla krzemu jest to „zaledwie” 1500 cm2/Vs. Z kolei przewodność cieplna grafenu to ok. 5000 W/mK. Dla porównania srebro może się pochwalić przewodnością cieplną na poziomie „jedynie” 429 W/mK. Grafen jest też wyjątkowo wytrzymały mechanicznie – ponad dwieście razy wytrzymalszy od stali i jednocześnie bardzo lekki. Można go bez problemu rozciągnąć o ponad 20%. Jego wytrzymałość na rozciąganie wynosi 130 GPa, w porównaniu do ok. 0,4 GPa dla stali konstrukcyjnej, czy 0,37 dla aramidu (kevlaru). Mimo tego, że grubość grafenowej foli to zaledwie grubość pojedynczej warstwy atomów węgla (0,345 nm), która jest milion razy cieńsza od kartki papieru, to bardzo trudno jest ją przebić. Jednym z najlepiej przemawiających do wyobraźni przykładów, jest ten w którym naukowcy mówią o tym, że gdybyśmy grafenową płachtę naciągnęli na szklankę, nie bylibyśmy w stanie jej przebić nawet zaostrzonym ołówkiem, na którym postawilibyśmy… słonia (sic!). Sam grafen jest też wyjątkowo lekki, a jego gęstość (masa właściwa) to około 1,8 g/cm3 (2,2 g/cm3 dla grafitu). Jeden kilometr kwadratowy grafenowej foli waży zaledwie 757 gramów, a więc mniej więcej tyle ile ultrabooki. Pojedyncza warstwa grafenu zatrzymuje zaledwie 2,3% padającego na niego światła. Materiał ten, jak już wspomnieliśmy, może więc stanowić doskonałe tworzywo służące do budowy giętkich wyświetlaczy. Jak się szacuje, 20 kg tego materiału wystarczyłoby, aby pokryć wszystkie wyprodukowane do tej pory ekrany urządzeń dotykowych ochronna warstwą. Co więcej, grafen wykazuje tendencje do samoistnego usuwania uszkodzeń (tzw. samoleczenia) swojej heksagonalnej struktury. Wystarczy wystawić uszkodzoną, grafenową folię na działanie węglowodorów lub poddać bombardowaniu atomami węgla. « powrót do artykułu
  23. KopalniaWiedzy.pl

    Blackout

    Pewnego zimowego dnia w całej Europie następuje przerwa w dostawie prądu – pełne zaciemnienie. Włoski informatyk i były haker Piero Manzano podejrzewa, że może to być zmasowany elektroniczny atak terrorystyczny. Bezskutecznie próbując ostrzec władze, sam zostaje uznany za podejrzanego. W próbie rozwiązania zagadki stara się mu pomóc dziennikarka Lauren Shannon. Im bliżej będą prawdy, tym większe będzie ich zaskoczenie oraz niebezpieczeństwo, na jakie się narażają. Tymczasem Europa pogrąża się w ciemności. Ludzie muszą zmagać się z brakiem podstawowych środków do życia: wody, jedzenia i ogrzewania. Wystarczy kilka dni, by zapanował chaos na niespotykaną skalę. Ta pasjonująca powieść przedstawia prawdziwie czarny scenariusz wydarzeń, których prawdopodobieństwo jest tym większe, im bardziej nasze codzienne życie uzależnia się od elektroniki. Czy jesteśmy przygotowani na blackout? O autorze: MARC ELSBERG (1967) – pseudonim artystyczny austriackiego pisarza Marcusa Rafelsbergera. Współpracował z austriacką gazetą Der Standard, jako pisarz zadebiutował w 2004 roku powieścią „Das Prinzip Terz”. Sukces przyniosła mu druga powieść, „Menschenteufel”, która przez rok znajdowała się w pierwszej dziesiątce thrillerów na listach Amazon. Kolejna książka, „Blackout”, będąca połączeniem powieści sensacyjnej i thrillera naukowego, ukazała się w 2012 roku, trafiła na listy bestsellerów magazynu Der Spiegel i dostała nagrodę Wissensbuch des Jahres 2012.
  24. Wczoraj, 13 sierpnia, miał miejsce tegoroczny Earth Overshoot Day. To dzień, w którym dla danego roku ludzkość skonsumowała więcej, niż wynosi roczna produktywność planety. Doktor Mathis Wackernagel z think tanku Global Footprint Network, wyjaśnia, jak wyznaczany jest ten dzień. Patrzymy, ile cała ludzkość skonsumowała takich zasobów jak żywność, włókna, drewno itp., następnie sprawdzamy, jaka powierzchnia jest potrzebna, by konsumpcję tę zaspokoić i ile mamy produktywnej powierzchni. Earth Overshood Day to, inaczej mówiąc, dzień w którym konsumpcja zasobów naturalnych przekroczyła zdolność produkcyjną Ziemi na dany rok. Idealnie by było, gdyby dzień ten wypadał 31 grudnia każdego roku. W 1970 roku wypadł on 23 grudnia. Od tamtej pory wciąż przesuwa się ku początkowi roku i w roku bieżącym wypadł o 4 dni wcześniej, niż w roku ubiegłym. Kontynuowanie konsumpcji poza wspomnianym dniem oznacza, że musimy sięgnąć do rezerw. Konsekwencje takiego postępowania to np. nadmierny połów ryb, wylesianie, erozja gleby spowodowana nadmierną eksploatacją itp. itd. Organizacja Wackernagela przygotowała też informacje o Earth Overshoot Day na poziomie poszczególnych krajów. Pokazują one, jak złożona jest sytuacja. Krajem, dla którego Overshoot Day nadchodzi najszybciej jest... Singapur. Już 2 stycznia tamtejsza konsumpcja przekracza krajową produkcję z zasobów naturalnych. Oczywiście Singapur to tylko jedno miasto i w jego przypadku taka konsumpcja nie jest groźna dla całej planety, w przeciwieństwie do większych krajów. Wackernagel nie spodziewa się, że w przyszłości wszystkie kraje będą żyły skromniej i nie będą konsumowały więcej niż są w stanie wytworzyć należące do nich zasoby przyrodnicze. W przypadku wielu krajów, jak np. Singapuru, taka sytuacja jest wręcz niemożliwa. Uczony uważa jednak, że wcześniej czy później będziemy musieli mądrzej korzystać z zasobów. Do podobnych wniosków doszli też - o czym informowaliśmy przed miesiącem - badacze z University of Georgia, którzy ostrzegli, że obecne tempo eksploatacji Ziemi przez człowieka zagraża podstawom naszej cywilizacji. Wracając do Earth Overshoot Day warto wspomnieć, że jest wiele krajów, które nie przekraczają zdolności produkcyjnych swojego środowiska. Należą do nich m.in. Kanada, Brazylia, Boliwia, Australia, Surinam, Gujana, Rosja, Gabon, Namibia, Mongolia, Finlandia, Szwecja czy Norwegia. Z kolei obok Singapuru Earth Overshoot Day przypada bardzo wcześnie dla takich krajów jak Barbados (15 stycznia), Izrael (26 stycznia) czy Korea Południowa (23 lutego). W przypadku Chin jest to 5 maja, dla Niemiec jest to 21 czerwca, dla Polski - 7 lipca. Obecnie ludzkość konsumuje tyle ile w ciągu roku można by zebrać niemal z 1,5 Ziemi. Jeśli nic się nie zmieni, to do roku 2050 dla zaspokojenia naszych potrzeb będziemy potrzebowali niemal 3 takich planet jak Ziemia. « powrót do artykułu
  25. Na Liverpool Street, podczas budowy nowej stacji kolei Crossrail odkryto masowy grób. Znalezione w nim 30 ciał to prawdopodobnie ofiary Wielkiej Zarazy z roku 1665. Była to ostatnia w Europie tak wielka epidemia dżumy. Przyniesiona do miasta na holenderskich statkach handlowych choroba zabiła w ciągu roku 75-100 tysięcy osób. Obok masowego grobu znaleziono nagrobek z datą 1665. Na tej podstawie uważa się, że wszystkie ofiary zostały pochowane tego samego dnia, zmarły więc z powodu zarazy. Zmarli byli prawdopodobnie chowani w drewnianych trumnach, jednak te zdążyły się już rozłożyć. Naukowcy chcą teraz szczegółowo zbadać kości, by upewnić się co do przyczyny śmierci ofiar. To nie pierwsze tego typu znalezisko na placach budowy Crossrail. Przed dwoma laty informowaliśmy o znalezieniu ofiar średniowiecznej dżumy. Wykopaliska są obecnie toczone w miejscu znanym jako New Churchyard. Dla ekspertów jest to najważniejszych londyński cmentarz z XVI i XVII wieku. Był on używany w latach 1569-1738. Uczeni uważają, że pochowano tam w tym czasie około 30 000 mieszkańców Londynu. Znajdowały się wśród nich zarówno ofiary różnych epidemii jak i niewielka liczba pacjentów szpitala dla umysłowo chorych Bethlem Royal Hospital. Dotychczas odkopano około 3500 szkieletów. « powrót do artykułu
×
×
  • Dodaj nową pozycję...