Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36971
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    227

Zawartość dodana przez KopalniaWiedzy.pl

  1. Kiedy słuchamy nudnej, pozbawionej wyraźniejszych akcentów opowieści, mózg uruchamia proces, który przeciwdziała zasypianiu. Pojawia się wewnętrzny głos, przerabiający czyjąś bezbarwną artykulację. Naukowcy z Instytutu Neuronauk i Psychologii Uniwersytetu w Glasgow odtwarzali ochotnikom monotonnie wypowiadane cytaty z mowy niezależnej. Okazało się, że mózg szybko przejmował inicjatywę i wykonywał zadanie nieudolnego mówcy. Można sądzić, że mózg nie tworzy własnej mowy, gdy słucha innej, już gotowej. Najwyraźniej jednak jest bardzo wybredny. Kiedy słyszy monotonnie wypowiadane cytaty z mowy niezależnej, które wg jego oczekiwań powinny być żywsze, generuje barwniejszą wersję oryginalnej wypowiedzi - opowiada dr Bo Yao. Podczas eksperymentu 18 osób słuchało nagrań z krótkimi opowieściami, w których pojawiały się cytaty mowy zależnej i niezależnej. Te ostatnie (np. Mary powiedziała podekscytowana: "Ostatni film o Sherlocku Holmesie był fantastyczny!") wypowiadano monotonnie lub ze swadą. Okazało się, że w przypadku niewielkiej zmienności prozodii mowy wzrastała aktywność wybiórczych głosowo obszarów mózgu. Zostały one odkryte przez jednego z autorów opisywanego studium, prof. Pascala Belina, i stanowią wrażliwą na ludzki głos część kory słuchowej. Oczekuje się, że cytaty z mowy niezależnej będą bardziej żywe i angażujące percepcyjnie niż cytaty z mowy zależnej, ponieważ częściej wiążą się one z naśladowaniem głosów, mimiki i gestów. Kiedy podczas cichego czytania do mózgu nie docierają rzeczywiste bodźce w postaci dźwięków mowy, wytwarza swój własny głos, by ożywić cytaty z czyichś wypowiedzi [...]. Teraz wydaje się, że postępuje identycznie, gdy słyszy monotonnie wypowiadane cytaty z mowy niezależnej - tłumaczy prof. Christoph Scheepers. Badanie pokazuje, że przetwarzanie ludzkiej mowy to aktywny proces, podczas którego by przewidzieć rzeczywiste dane wejściowe, mózg generuje modele wypowiedzi. Działając w ten sposób, optymalizuje przetwarzanie mowy, bo może reagować szybciej i bardziej adekwatnie. Przewidywania bazują prawdopodobnie na wcześniejszych doświadczeniach, gdzie mowa niezależna jest często skojarzona z sugestywnym oddawaniem czyichś słów, podczas gdy mowa zależna to relacjonowanie tego, co ktoś powiedział, w bardziej stałej i płaskiej tonacji - dodaje Yao. Kiedy pojawia się rozbieżność między oczekiwaniami mózgu a rzeczywistym wykonaniem, następuje swego rodzaju uzgadnianie wersji.
  2. Z okazji rozpoczętego właśnie European e-Skills 2012 Eurostat opublikował dane dotyczące umiejętności komputerowych wśród mieszkańców 27 krajów członkowskich UE. Polska wypada często poniżej średniej unijnej. W roku 2005 w całej UE średnio 4% studentów kończyło studia informatyczne, a w roku 2009 odsetek ten zmniejszył się do 3,4%. W Polsce absolwentów kierunków informatycznych było 3,8%, a pięć lat później - 3,2% ogólnej liczby studentów. W zestawieniu osób, które kiedykolwiek używały komputera średnia dla całej UE wynosi 78% dla grupy wiekowej 16-74 lata oraz 96% dla grupy 16-24 lata. W Polsce odsetek ten to - odpowiednio - 70 i 99 procent. Badano również konkretne umiejętności. Kopiowanie lub przenoszenie pliku lub folderu średnio dla UE wynosi 63% w grupie 16-74 lata i 89% w grupie 16-24 lata. W Polsce jest to 52% (16-74 lata) oraz 94% (16-24 lata). Podstawowych formuł matematycznych w arkuszu kalkulacyjnym używało średnio w UE 43% (16-74 lata) i 67% (16-24 lata) ludności. Dla naszego kraju odsetek ten wynosi 33% i 70%. Z kolei elektroniczną prezentację przygotowywało 31% mieszkańców UE, którzy mają pomiędzy 16-74 lata oraz 59% w grupie wiekowej 16-24 lata. W naszym kraju było to 16% (16-74 lata) oraz 47% (16-24 lata). Ostatnie pytanie dotyczyło programowania. Odsetek osób, które napisały w życiu program komputerowy wynosił dla UE 10% w grupie 16-74 lata oraz 20% w grupie 16-24 lata. Dane z Polski to 6% i 16%.
  3. Eksperci z Międzynarodowej Agencji Energii Atomowej informują, że elektrownie atomowe mogą być idealnym źródłem produkcji wodoru. Obecnie większość wodoru pozyskuje się z naturalnego gazu i węgla, co skutkuje emisją do atmosfery dwutlenku węgla. Bardzo dobrą metodą produkcji wodoru jest elektroliza, podczas której przez wodę przepuszcza się prąd elektryczny rozbijający molekuły na tlen i wodór. Cały proces jest znacznie tańszy i bardziej efektywny gdy zamiast wody wykorzystamy parę wodną. Dlatego też, zdaniem ekspertów, idealnym miejscem do produkcji wodoru są elektrownie atomowe. Produkują one bowiem zarówno prąd jak i parę wodną. Mogą więc użyć taniej energii, którą dysponują poza szczytem i jej nadmiar wykorzystać do produkcji pary wodnej. Obecna generacja elektrowni produkuje parę o niskiej temperaturze. Jednak przyszłą generację można by zaprojektować pod kątem produkcji wodoru, wykorzystując znacznie cieplejsza parę i ewentualnie połączyć całość z procesem termoelektrochemicznym. Już teraz można w elektrowniach jądrowych pozyskiwać wodór, ale cały proces należy ulepszyć pod kątem ekonomii. Na świecie rośnie zainteresowanie wodoru w elektrowniach atomowych. Pozwoli to zmniejszyć uzależnienie od ropy naftowej i węgla - mówi Ibrahim Khamis z MAEA. Wykorzystywanie wodoru miałby pozytywny wpływ na globalne ocieplenie, gdyż podczas jego spalania uwalnia się tylko para wodna, a nie dwutlenek węgla - dodaje.
  4. Naukowcy z Queen Mary, University of London zidentyfikowali nowe białko S100PBP, które sprawia, że komórki raka trzustki są mniej lepkie. Przez to nie są w stanie przylegać do siebie i tworzyć przerzutów w okolicznych tkankach. S100PBP doprowadza do takiej sytuacji, hamując kolejne białko - katepsynę Z. Zespół dr Tatjany Crnogorac-Jurcevic wykazał, że S100PBP reguluje produkcję katepsyny Z. Przy dużych stężeniach S100PBP komórki rakowe wytwarzają mniej katepsyny Z, co ogranicza ich zdolność przerzutowania. W przyszłości akademicy chcieliby odtworzyć dokładny mechanizm działania S100PBP. Dzięki temu sami mogliby zapobiegać wzrostowi poziomu katepsyny Z w komórkach guza. Średnie 5-letnie przeżycie w przypadku raka trzustki wynosi zaledwie 2-3%. Nie istnieją testy do wczesnego wykrywania, a objawy są często mylone z lżejszymi chorobami, dlatego niejednokrotnie diagnoza jest stawiana zbyt późno, by przeprowadzić operację inną niż paliatywna.
  5. W zeszły piątek (23 marca) powietrzny patrol monitorujący wody Kolumbii Brytyjskiej dostrzegł w odległości 275 km od Wysp Królowej Charlotty dryfującą japońską jednostkę. Łódź rybacka została porwana przez tsunami i po roku wędrówki dotarła do zachodnich wybrzeży Kanady. Jak szacują naukowcy z Uniwersytetu Hawajskiego, tsunami z marca 2011 r. wytworzyło ponad 25 mln ton odpadów. Do oceanu trafiło od 4 do 8 mln ton, przy czym 1-2 mln t nadal unoszą się na powierzchni wody. Zarejestrowana na wyspie Hokkaido ok. 50-metrowa łódź jest pierwszym dużym obiektem, który pokonał Ocean Spokojny. Najprawdopodobniej główna masa odłamków dotrze do Ameryki Północnej dopiero w marcu 2014 r. Kanadyjski minister transportu Denis Lebel podkreśla, że japońska jednostka znajduje się pod obserwacją. Chodzi o to, by uniknąć skażenia oraz zapobiec zderzeniu z innym statkiem.
  6. Australijskie władze nie dopuściły chińskiego giganta telekomunikacyjnego Huawei do przetargu na budowę ogólnokrajowej sieci o wysokiej przepustowości. Decyzję taką podjęto w związku z obawą o bezpieczeństwo sieci. Australijczycy obawiają się ataków organizowanych przez chińskie władze oraz pytają o rolę, jaką odgrywają podczas nich takie firmy jak Huawei. Chiński koncern to jeden z największych na świecie producentów sprzętu dla sieci telekomunikacyjnych. Firma odrzuca sugestie, jakoby jej sprzęt narażał kogoś na niebezpieczeństwo ataku i przypomina, że zdobyła zaufanie największych światowych firm. Huawei ma kłopoty nie tylko w Australii. W USA specjalna komisja Kongresu będzie badała, czy należy pozwolić chińskim producentom sprzętu telekomunikacyjnego na udział w budowie sieci oraz czy taka zgoda wiązałaby się ze zwiększonym zagrożeniem szpiegostwem ze strony Chin. Kilka miesięcy temu USA i Australia postanowiły opracować wspólne zasady cyberbezpieczeństwa. Australia jest więc pierwszym krajem spoza NATO, któremu USA zaproponowały tego typu współpracę. Stany Zjednoczone zapowiedziały też wysłanie ku północnym wybrzeżom Australii lotniskowca z 2500 marines na pokładzie. Zarówno działania Australii jak i USA mają związek z szybko rozbudowywanym przez Chiny potencjałem militarnym oraz z coraz bardziej twardą polityką Państwa Środka w Azji.
  7. Umieszczając próbki lodów w mikrotomografie, naukowcy sprawdzali, w jaki sposób ich struktura zmienia się podczas przechowywania w domowej zamrażarce. Zwykle maszynę tę wykorzystuje się do badania procesów doprowadzających do zejścia lawiny. Tomograf z Instytutu Badań nad Śniegiem i Lawinami w Davos jest jednym z nielicznych urządzeń, które mogą wykonywać zdjęcia niewielkich obiektów przy temperaturze poniżej zera. Wcześniej nie potrafiliśmy zajrzeć do wnętrza lodów bez niszczenia próbki - opowiada dr Cedric Dubois z Nestle. Jego firma ma nadzieję, że wyniki, które opublikowano w piśmie Soft Matter, pomogą spowolnić stopniową degradację smaku lodów. Biały szron, który tworzy się na lodach, jest skutkiem zmian temperatury podczas transportu czy przechowywania. Większość domowych zamrażarek ustawia się na minus 18 stopni Celsjusza, ale temperatura rzadko pozostaje stała. Waha się ona w obu kierunkach, przez co fragmenty masy roztapiają się i ponownie zamarzają. Podczas cyklicznych zmian temperatury w niewielkim zakresie wykonano zdjęcia poklatkowe, na których widać, jak tworzą się kryształy o średnicy kilku mikronów. Studium ujawniło cykl życiowy takich kryształów oraz warunki, w jakich powstają i rosną, w znaczącym stopniu zmieniając teksturę (a więc i smak) lodów. Akademicy podkreślają, że lody są materiałem wielofazowym. Złożone interakcje między fazami i fizyczne mechanizmy, które odpowiadają za ewolucję mikrostruktury tych słodyczy, długo pozostawały nieznane. Winą za to obarczano tradycyjne badania mikroskopowe, które jak wspomniano wcześniej, nie pozwalały na badanie nietkniętych próbek. Na szczęście z odsieczą przyszła mikrotomografia komputerowa. Jako czynnik kontrastowy Szwajcarzy wykorzystali jodynę. Określano trójwymiarowy rozkład 3 głównych faz lodów: powietrza, niezamarzniętego roztworu cukru oraz kryształów lodu. Rozmiar pojedynczego woksela wynosił 6 μm. Ostatecznie akademicy wyliczyli, jak wygląda czasowa ewolucja bąbli powietrza i kryształów lodu w czasie cyklicznych zmian temperatury. Ustalono, że dla powiększania kryształów lodu kluczowym mechanizmem jest ciągłe topienie i zamarzanie, tymczasem w przypadku bąbli powietrza chodzi o ich zlewanie.
  8. Prehistoryczna megafauna Australii wyginęła najprawdopodobniej przez człowieka, stwierdzają autorzy badań opublikowanych w najnowszym numerze Science. Zniknięcie wielkich australijskich ssaków od dawna budziło spory. Teraz naukowcy z 6 uniwersytetów twierdzą, że to nie zmiany klimatu ani żadne inne przyczyny naturalne spowodowały zagładę gigantycznych kangurów, Diprotodonów - czyli największych w historii Ziemi torbaczy osiągających wielkość nosorożca białego, czy też warana większego od smoka z Komodo. Zniknięcie wielkich ssaków skutkowało dramatycznymi zmianami w wegetacji roślin. Lasy deszczowe poprzedzielane sawannami zostały szybko zaduszone przez lasy eukaliptusowe i suchy busz. Zespół pracujący pod kierunkiem profesora Chrisa Johnsona z University of Tasmania postanowił sprawdzić, co stało się z megafauną licząc spory grzybów w ich odchodach. Spory mogą się zachować w osadach bagien i jezior. W miarę jak się akumulują w czasie, tworzą historyczne zapiski na temat obecności wielkich roślinożerców. W tych samych osadach uwięzione są pyłki i cząsteczki węgla, co pozwala nam połączyć obecność roślinożerców z wegetacją i pożarami. A za pomocą datowania węgla radioaktywnego możemy umiejscowić wszystko w czasie - mówi Johnson. Naukowcy skupili się przede wszystkim z danych z bagien Lynch’s Crater w Queensland. Zachowane tam osady można datować 130 000 lat wstecz. Pokazują one obfitość wielkich ssaków i ich gwałtowne zniknięcie około 40 000 lat temu. To wyklucza zmiany klimatyczne jako przyczynę wyginięcie, gdyż przed tym wydarzeniem było kilka okresów suchego klimatu, co nie miało wpływu na liczebność zwierząt. A w czasie, gdy one wyginęły, klimat był stabilny - mówi profesor Johnson. Przyczyną nie mogły być też wielkie pożary czy zmiany w wegetacji roślinności, gdyż ta zaczęła się zmieniać po wyginięciu ssaków. Do zagłady doszło wkrótce po tym, jak w tym regionie pojawili się ludzie. Wydaje się, że to oni wytępili zwierzęta. Nasze badania nie określiły, w jaki sposób się to stało, ale najbardziej prawdopodobną przyczyną jest polowanie - dodaje uczony. Dowody z Queensland to kolejny argument za tym, że podobny mechanizm zagłady megafauny miał też miejsce w innych regionach Australii. Z poglądem takim zgadza się doktor John Alroy z Macquarie University. Kluczowymi danymi są spory i w połączeniu z węglem drzewnym oraz pyłkami otrzymujemy obraz całości. Tego rozumowania nie sposób obalić. Jednak Judith Field z University of New South Wales stwierdza, że metoda zespołu Johnsona obarczona jest poważnymi błędami. Przede wszystkim nieprawdą jest, jak twierdzi, że klimat był w owym czasie stabilny. Ponadto nie zgadza się z poglądem, jakoby megafauna była tak obfita, iż jej zniknięcie skutkowało drastycznymi zmianami w wegetacji roślinnej. Fakty są takie, że większość megafauny zniknęła niemal 100 000 lat przed pojawieniem się na tych terenach człowieka i nie ma żadnego dowodu na to, że doszło do jakiegoś szczególnego okresu jej wymierania - mówi.
  9. Sportowcy stosujący doping w postaci testosteronu mogą zamaskować swoje nieuczciwe praktyki, pijąc zieloną albo białą herbatę. Androgeny są metabolizowane m.in. przez przyłączanie do nich reszty glukuronylowej. Proces ten jest katalizowany przez 3 enzymy (transferazy), w tym UGT2B17. Ponieważ uglukuronylowane związki mają silniejszą polaryzację, są łatwiej rozpuszczalne w wodzie i usuwalne z organizmu. Nielegalne stosowanie testosteronu powoduje, że w moczu rośnie stężenie metabolitów testosteronu, ale nie pochodnych epitestosteronu (epitestosteron to 17-α epimer testosteronu; od testosteronu różni się jedynie przestrzennym ukształtowaniem cząsteczki). Część zawodników próbowała temu zaradzić, stosując nie tylko testosteron, ale i epitestosteron. Podczas kontroli antydopingowej nie oznacza się samej pochodnej testosteronu (uglukuronylowanego testosteronu, ang. testosterone glucuronide, TG), ponieważ całkowite stężenie tego hormonu jest zmienne osobniczo. Zamiast tego specjaliści badają stosunek uglukuronylowanego testosteronu do uglukuronylowanego epitestosteronu (ang. epitestosterone glucuronide, EG). W literaturze specjalistycznej można przeczytać, że wartość progowa wskaźnika TG/EG wynosi 4. Po jej przekroczeniu można podejrzewać doping. Inhibitory glukuronidacji testosteronu wpływają na stężenie hormonu w krwioobiegu, (czytaj osiągnięcia sportowe), a także na wskaźnik TG/EG. Wcześniej wykazano, że leki przeciwzapalne, takie jak dikofenak i ibuprofen, hamują działanie enzymu UGT2B17. Celem najnowszego studium Declana Naughtona i zespołu z Kingston University London było sprawdzenie, jak w tej roli sprawdzi się herbata. Okazało się, że glukuronidację testosteronu hamowały ekstrakty zarówno zielonej, jak i białej herbaty, a także konkretne katechiny (przeciwutleniacze): epikatechina, galusan epigallokatechiny (EGCG) oraz galusan katechiny. W przypadku EGCG IC50 (stężenie inhibitora niezbędne do połowicznego zahamowania aktywności enzymu) wyniosło 64 μM, zrównując się z wartością wyznaczoną dla najsilniejszego inhibitora diklofenaku. Stężenia [katechin] w mocnym naparze zielonej herbaty są takie, jak te, którymi posłużyliśmy się w czasie eksperymentów - twierdzi Naughton. Brytyjczycy poinformowali o swoim odkryciu Światową Agencję Antydopingową. Jeśli uzyskają podobne wyniki w czasie badań na ludziach, w czasie testów trzeba będzie badać krew, a nie mocz.
  10. Laghat to 9-letni włoski ogier, który już 19 razy triumfował w różnego rodzaju wyścigach. Nie byłoby w tym niczego dziwnego, gdyby nie fakt, że koń jest niewidomy. W takiej sytuacji trudno się dziwić, że dżokej Federico De Paola wierzy w szósty zmysł swojego pupila. Zwierzę urodziło się z infekcją grzybiczą obojga oczu, dlatego teraz widzi co najwyżej zarysy obiektów w postaci cieni. De Paola przyznaje, że nie ma pojęcia, w jaki sposób Laghat (dosłownie "kopnięcie") omija przeszkody, przede wszystkim biegnące obok po torze inne konie. Zdecydowałem się na udział w wyścigach [De Paola jest również właścicielem Laghata], by koń miał okazję do ćwiczeń. Byłem zaskoczony, kiedy wygrał i później, gdy jego dobra passa się utrzymywała. Wygrał 19 wyścigów. Niektóre z nich były naprawdę ważne. Włoch podkreśla, że Laghat skądś wie, gdzie postawić nogę. Nigdy nie mieliśmy kolizji, chociaż czasem w wyścigu brało udział 16 koni.
  11. Redaktorzy serwisu PC World przeprowadzili testy porównujące wydajność Windows 7 i Windows 8 beta. Wynika z nich, że najnowszy system Microsoftu jest generalnie szybszy, a w niektórych przypadkach znacznie szybszy od swojego poprzednika. Oczywiście przeprowadzone obecnie testy nie stanowią definitywnej odpowiedzi na pytanie o wydajność ostatecznej wersji Windows 8. Można się jednak spodziewać, że gotowa wersja nowego OS-u będzie miała jeszcze większą przewagę nad Windows 7, gdyż podczas testów używano sterowników, które nie zostały zoptymalizowane pod Windows 8. Oba systemy przetestowano na tym samym komputerze, którzy wyposażono w procesor Core i5-2500K taktowany 3,3-gigahercowym zegarem, 8 gigabajtów pamięci DDR3 (1333MHz), 1-terabajtowy dysk twardy oraz kartę graficzną GeForce GTX 560 Ti. Najpierw oba systemy porównano w programie WorldBench 7. Wykazał on, że Windows 8 jest o 14% bardziej wydajny. To zauważalna różnica. Jak zapewnia PC World w podczas używania komputera widoczna jest już 5-procentowa różnica wykazana przez WorldBench. Osoby, które nie lubią czekać na uruchomienie komputera powinny zdecydowanie zainteresować się Windows 8. Średni czas startu maszyny z Windows 7 wynosił 56,2 sekundy, a w przypadku Windows 8 było to 36,8 sekundy. Różnica spora, a warto tutaj wspomnieć, że Windows 7 miał pewne fory. Czas startu liczono bowiem od momentu włączenia komputera do chwili otwarcia pliku tekstowego ze wskazanego folderu. Windows 8 domyślnie startuje do interfejsu Metro, zatem musiał załadować następnie interfejs desktopowy, a później dopiero otworzyć plik. Sam start do gotowego do pracy interfejsu Metro trwał 23,91 sekundy. Redaktorzy PC Worlda wykorzystali też benchmark WebVizBench, który mierzy prędkość renderowania dynamicznych treści w sieci, takich jak np. JavaScript czy HTML 5. Testy wykonano przy użyciu domyślnych przeglądarek dla obu systemów - IE 9 (Windows 7) oraz IE 10 (Windows 8). Najnowszy OS Microsoftu renderował zawartość z prędkością 28,6 klatek na sekundę, podczas gdy dla Windows 7 wynik wyniósł 18,9 fps. Widoczna jest tutaj duża praca, jaką inżynierowie włożyli w techniki akceleracji sprzętowej i optymalizacji pracy przeglądarki. Windows 8 przegrał nieznacznie ze swoim poprzednikiem w dwóch testach. Pierwszy z nich mierzył prędkość kodowania dźwięku, filmów oraz edytowania grafiki. Kodowanie dźwięku zajęło starszemu systemowi 114,1 sekundy, a młodszemu - 115,9 sek. Praca z wideo trwała w przypadku Siódemki 141 sekund, podczas gdy Ósemce zajęła 154,7 sekundy. Różnica w edytowaniu obrazka wynosiła 167,1:170,3 na rzecz Windows 7. Sytuacja powinna jednak ulec zmianie, gdy Microsoft zaktualizuje sterowniki dla Windows 8. Wersja beta przegrała też w teście PCMark Office Productivity, który mierzy typowe zadania biurowe - edycję tekstu, otwieranie aplikacji czy skanowanie antywirusowe. Windows 8 był o około 8% wolniejszy. Testy były jednak wykonywane przy użyciu starszej wersji benchmarka, który nie jest gotowy pod kątem Windows 8, dlatego też gdy przygotowywana właśnie aktualizacja PCMark trafi na rynek, rezultaty mogą być inne. O tym, czy i w jakim stopniu Windows 8 będzie bardziej wydajny od swojego poprzednika przekonamy się, gdy zadebiutuje ostateczna wersja systemu.
  12. Na pytania o zmiany klimatu i globalne ocieplenie odpowiadają profesor Szymon Malinowski kierownik Zakładu Fizyki Atmosfery Instytutu Geofizyki Uniwersytetu Warszawskiego oraz PrefectGreyBody, autor bloga doskonaleszare.blox.pl 1. Obaj Panowie uważacie, że globalne ocieplenie ma miejsce, a jego przyczyną jest działalność przemysłowa człowieka. Na ile pogląd ten jest udowodniony? Czy jest możliwe, by okazało się, że nie mamy do czynienia z trwałym ociepleniem, bądź że nie ma ono antropogenicznego charakteru? prof. Szymon Malinowski (SM): Poglądy można mieć różne. Natomiast w naukach przyrodniczych stawia się hipotezy, a gdy zostaną one doświadczalnie udowodnione stają się teoriami. Teoria w nauce to coś, co w powszechnym języku rozumiemy pod słowami „prawda naukowa”. Hipotezę, że istnieje w atmosferze czynnik wpływający na ucieczkę ciepła w kosmos postawił Joseph Fourier w 1824 roku, on wprowadził nazwę „efekt cieplarniany”. Tyndall 40 lat później pokazał, że gazami cieplarnianymi są CO2 i para wodna. Na przełomie XIX i XX wieku „Ojciec chemii fizycznej” Arrhenius obliczył, jak temperatura powierzchni Ziemi może się zmieniać z zawartością atmosferycznego CO2, a geolog – pionier biogeochemii Hogbom pokazał, że spalanie paliw kopalnych jest istotne dla zawartości CO2 w atmosferze. Hipotezę, że to przede wszystkim antropogeniczne emisje CO2 odpowiadają za globalnym ocieplenie, a więc za wzrost temperatury powierzchni ziemi od początku XX wieku postawił Callendar w latach 30. Hipoteza ta została udowodniona na podstawie wielu niezależnych pomiarów i obserwacji obejmujących różne aspekty działania „maszyny klimatycznej”, czyli stała się teorią w latach sześćdziesiątych ubiegłego stulecia. Od tego czasu wielokrotnie próbowano obalić te teorię, ale każda próba, paradoksalnie, przyczyniała się do jej umocnienia – eliminowała z grona możliwości kolejny mechanizm fizyczny. W tej chwili teoria antropogenicznego globalnego ocieplenia jest tak mocno udokumentowana i osadzona w wiedzy naukowej, że jej obalenie wywalałoby przewrót w wielu dziedzinach fizyki i chemii. Okazałoby się na przykład, że nie rozumiemy na jakiej podstawie działają satelity meteorologiczne, z których obrazy oglądamy w cowieczornej prognozie pogody. Do zaprojektowania radiometrów, które dostarczają nam „zdjęcia satelitarne” używamy tych samych równań transferu radiacyjnego co do obliczania efektu cieplarnianego... PerfectGreyBody (PGB): Jest udowodnione "ponad wszelką wątpliwość", że za wzrost stężenia gazów cieplarnianych (przede wszystkim CO2, ale nie tylko) odpowiada działalność przemysłowa człowieka. Wiemy ile wydobywamy i spalamy węgla, ropy i gazu ziemnego; oraz potrafimy z dużą dokładnością zmierzyć, o ile wzrasta zawartość dwutlenku węgla w atmosferze. Ponieważ ta pierwsza wartość jest większa (mniej więcej dwukrotnie) od drugiej, więc nawet z tego jednego faktu powinno wynikać, że to właśnie nasza cywilizacja odpowiada za obserwowany wzrost stężenia dwutlenku węgla. Oczywiście, obecnie potrafimy powiedzieć o obiegu węgla w atmosferze, oceanach i biosferze znacznie więcej - na przykład od mniej więcej dekady, dzięki satelitarnym sondażom atmosfery oraz numerycznym systemom asymilacji danych (tzw. inverse modeling) posiadamy możliwość podglądania nieomal na żywo źródeł emisji dwutlenku węgla w skali globalnej. Są też poszlaki dodatkowe, na przykład zmiana składu izotopowego dwutlenku węgla w atmosferze oraz oceanach; albo dane z rdzeni lodowych wskazujące na bezprecedensowy w skali setek tysięcy lat wzrost stężenia CO2. Rola CO2 jako gazu cieplarnianego jest również bardzo dobrze poznana - potrafimy policzyć, o ile zmieni się ilość promieniowania podczerwonego uciekającego z naszej planety w kosmos, jeśli dodamy do atmosfery określoną ilość CO2 (albo innych gazów cieplarnianych), i o ile musi zmienić się temperatura powierzchni i atmosfery, aby Ziemia odzyskała równowagę radiacyjną, czyli pochłaniała mniej więcej tyle samo promieniowania słonecznego co emitowała podczerwonego. Wiemy, że obecnie Ziemia w takiej równowadze nie jest, gdyż mierzymy powolne ocieplanie się oceanów. Prowadzimy również monitoring innych czynników mających wpływ na klimat, na przykład zmian aktywności słonecznej czy zachmurzenia, i możemy oszacować ich wkład w obserwowane zmiany temperatury. Odpowiadając na ostatnie pytanie, to jest mało prawdopodobne (IPCC kilka lat temu konserwatywnie określiło to jako "very unlikely", czyli prawdopodobieństwo poniżej 10%), by globalne ocieplenie nie było w przeważającej części pochodzenia antropogenicznego. Nawet gdybyśmy przeoczyli jakiś nieznany mechanizm, który mógłby tłumaczyć obserwowane zmiany zachodzące w atmosferze i oceanach, to jednocześnie musielibyśmy wyjaśnić, dlaczego zmiany stężenia gazów cieplarnianych nie powodują, choć powinny, ocieplenia.
  13. Wg dorocznego sondażu The Art Newspaper, najczęściej odwiedzanym muzeum sztuki był w zeszłym roku Luwr (8.800.000). Na drugim miejscu uplasowało się Metropolitan Museum of Art w Nowym Jorku (6.004.254), a na trzecim British Museum w Londynie (5.848.534). W porównaniu do roku 2010, paryskie muzeum odnotowało ok. 3,5-proc. wzrost, bo wtedy zjawiło się tam 8,5 mln miłośników sztuki. Najstarsze i największe muzeum w Ameryce może się pochwalić niewielkim wzrostem liczby odwiedzin, bo przed 2 laty odwiedziło je 5.216.988 osób, podczas gdy Muzeum Brytyjskie, jedno z największych na świecie muzeów historii starożytnej, utrzymało się mniej więcej na tym samym poziomie (w 2010 r. zjawiło się tam 5.842.138 żądnych wrażeń miłośników sztuki). Poza jednym punktem - Narodowe Muzeum Pałacowe w Tajpej wyparło z 7. miejsca nowojorskie Museum of Modern Art - skład pierwszej dziesiątki muzeów nie uległ zmianie. Metropolitan Museum of Art i Bristish Museum zamieniły się miejscami. Podobnie zresztą jak następne na liście National Gallery w Londynie (teraz na 4., poprzednio na 5. miejscu) oraz Tate Modern. Na szóstej, jak widać mocnej, pozycji utrzymała się Narodowa Galeria Sztuki w Waszyngtonie. Równie dobrze poradziły sobie Centre Georges Pompidou, Muzeum Narodowe Korei w Seulu oraz Muzeum Orsay, które zachowały, odpowiednio, 8., 9. i 10. miejsce. Po raz pierwszy Luwr trafił na pierwsze miejsce listy najczęściej odwiedzanych muzeów sztuki w 2007 r. Wtedy pojawiło się tam 8,3 mln osób. Zastępca redaktora naczelnego The Art Newspaper Javier Pes podkreśla, że za niesłabnącą popularność Luwru odpowiada m.in. Mona Liza Leonarda da Vinci. W zeszłym roku szczególnie amerykańskie muzea ucierpiały w wyniku kryzysu, dlatego musiały pomyśleć o cięciu kosztów. Ponieważ oszczędności dotyczyły m.in. budżetów wystaw, duże instytucje wracają do swoich flagowych kolekcji. Met [tak popularnie nazywa się Metropolitan Museum of Art] dobrze wyszło na pokazywaniu dzieł Picassa. [Jak widać] muzea musiały podejść do zbiorów kreatywnie. The Art Newspaper opublikowało nie tylko listę 10 najpopularniejszych muzeów sztuki, ale także zestawienie 20 topwystaw czy najpopularniejszych pokazów. Jak podkreślają dziennikarze miesięcznika, która przygotowuje zestawienia najpopularniejszych wystaw już od 1996 r., na początku, by dostać się do pierwszej dziesiątki, wystarczyło ok. 3 tys. odwiedzających dziennie. Teraz trzeba już ok. 7 tys.
  14. W Los Alamos National Laboratory (LANL) przekroczono nieosiągalną dotychczas dla niedestrukcyjnych systemów granicę 100 tesli natężenia pola magnetycznego. Pracowliśmy nad tym przez półtorej dekady - mówi Chuck Mielke, dyrektor Pulsed Field Facility w LANL. Wcześniej różne zespoły badawcze uzyskiwały pole magnetyczne nawet o kilkukrotnie większym natężeniu, jednak zawsze wiązało się to ze zniszczeniem magnesu. Systemy destrukcyjne nie pozwalały na przeprowadzenie wielu badań. W Los Alamos zbudowano magnes wielokrotnego użytku składający się z siedmiu cewek o łącznej wadze ponad 8 ton, zasilanych przez 1,2-gigadżulowy generator. Wczoraj, 22 marca, taki system pozwolił na stworzenie pola magnetycznego o natężeniu 100,75 tesli. To natężenie około 2 000 000 razy większe od natężenia ziemskiego pola magnetycznego. Nowy system pozwoli na prowadzenie badań nad kwantowymi przejściami fazowymi czy budową materii.
  15. Europejska Agencja Kosmiczna (ESA) wysłała największy w swojej historii ładunek na Międzynarodową Stację Kosmiczną. Automated Transfer Vehicle (ATV) Edoardo Amaldi został wyniesiony przez rakietę Ariane 5, która wystartowała z portu kosmicznego Kourou w Gujanie Francuskiej. Na pokładzie pojazdu znajduje się żywność, woda, paliwo, powietrze oraz przyrządy naukowe i części zapasowe. W sumie ładunek waży 20 ton. ATV dokonuje obecnie serii manewrów, przygotowując się do połączenia z ISS, które planowane jest na 28 marca. Pojazd przez około 5 miesięcy będzie zadokowany do Stacji, co pozwoli skorygować jej orbitę. Obecna misja to trzecia z pięciu planowanych wypraw mających na celu dostarczenie zaopatrzenia na ISS. „ATV-3 pokazuje, że Europa jest w stanie, we współpracy z naszymi partnerami, regularnie przygotowywać ważne misje, by wspierać wymagające operacje załogowe“ - powiedział Jean-Jacques Dordain, dyrektor generalny ESA.
  16. Wypicie przed testem doustnego obciążenia glukozą dietetycznego napoju zwiększa u zdrowych oraz pacjentów z cukrzycą typu 1., lecz nie typu 2. poziom glukagonopodobnego peptydu 1 (ang. glucagon-like peptide 1, GLP-1). GLP-1 należy do grupy hormonów jelitowych inkretyn. U zdrowych osób są one odpowiedzialne za 50-60% wydzielania insuliny. W cukrzycy typu 2. zaobserwowano zmniejszenie ich sekrecji. Dr Rebecca J. Brown z Narodowego Instytutu Cukrzycy oraz Chorób Trawiennych i Nerek (National Institute of Diabetes and Digestive and Kidney Diseases) przeprowadziła badania, w których wzięło udział 9 pacjentów z cukrzycą typu 1., 10 z cukrzycą typu 2. oraz 25 zdrowych osób. Wiek ochotników wynosił od 12 do 25 lat. Przed testem obciążenia 75 g glukozy podano im 250-ml napój dietetyczny o smaku coli (bezkofeinowy) albo taką samą ilość wody gazowanej. Później w ciągu 180 min oceniano u nich m.in. poziom glukozy, peptydu C (peptyd ten stanowi część proinsuliny; jest wycinany podczas uwalniania insuliny z trzustki i razem z nią dostaje się do krwioobiegu), a także inkretyn GLP-1 oraz glukozozależnego peptydu insulinotropowego (ang. glucose-dependent insulinotropic peptide, GIP). W porównaniu do wody gazowanej, po wypiciu napoju dietetycznego pole pod krzywą stężeń (AUC od ang. area under the curve) GLP-1 było u chorych z cukrzycą typu 1. o 43% większe. W grupie kontrolnej osób zdrowych AUC okazało się wtedy o 34% wyższe. Pomiędzy scenariuszami picia wody i napoju w żadnej z trzech grup nie odnotowano istotnych statystycznie różnic w AUC glukozy, peptydu C oraz GIP. Zespół Brown przypomniał wyniki swoich nieco wcześniejszych badań, z których wynikało, że u zdrowych młodych osób w odpowiedzi na napój dietetyczny słodzony acesulfamem K lub sukralozą wzrasta wydzielanie glukagonopodobnego peptydu 1.
  17. Podczas badań na myszach muzyka klasyczna i operowa zwiększały szanse na przeżycie po allogenicznym przeszczepie serca. Działo się tak dzięki korzystnemu wpływowi na układ odpornościowy. Nie wiadomo, na czym dokładnie bazuje związek między układem odpornościowym a funkcjami mózgu (np. słuchem czy węchem), ale autorzy artykułu opublikowanego w Journal of Cardiothoracic Surgery przypominają, że muzyka łagodzi lęk po zawale serca oraz zmniejsza ból i nudności przy przeszczepie szpiku kostnego. W tym kontekście warto przypomnieć badania zespołu z Centrum Medycznego University of Rochester sprzed 9 lat. W eksperymencie wzięło wtedy udział 42 pacjentów w wieku od 5 do 65 lat po przeszczepie szpiku. Osoby przechodzące dwa razy w tygodniu muzykoterapię twierdziły, że odczuwają mniejszy ból i nudności. Istnieją dowody, że muzyka może działać za pośrednictwem układu przywspółczulnego, czyli podukładu autonomicznego układu nerwowego. Podczas najnowszego japońskiego studium myszom przez tydzień odtwarzano jeden z 3 rodzajów muzyki - "La Traviatę" Verdiego (operę), Mozarta (muzykę klasyczną) lub Enyę (muzykę new age) - albo dźwięki o pojedynczej częstotliwości (100, 500, 1000, 5000, 10.000, lub 20.000 Hz). Naukowcy utworzyli też 3 grupy kontrolne: 1) myszy z perforacją błony bębenkowej, którym przez 7 dni odtwarzano "La Traviatę", 2) zwierząt, które przeszły tygodniową muzykoterapię przed przeszczepem oraz 3) zwierząt, na które nie wpływano w żaden sposób ani przed, ani po przeszczepie. Zespół ustalił, że opera i muzyka klasyczna opóźniają moment wystąpienia niewydolności przeszczepionego serca (mediana czasu przeżycia wynosiła, odpowiednio, 26,5 i 20 dni). Dźwięki o tej samej częstotliwości oraz muzyka new age nie wywierały korzystnego wpływu. Mediana przeżycia myszy z 3. grupy kontrolnej (niepoddawanej żadnym manipulacjom) wynosiła 7 dni. W przypadku zwierząt ze zniszczeniem błony bębenkowej i słuchających muzyki przed przeszczepem wynosiła 8 dni. Zwierzęta przeszły szereg badań. Wykonano u nich m.in. cytometrię przepływową. Na tej podstawie dr Masanori Niimi i inni twierdzą, że ochronę zapewnia śledziona. Myszy słuchające opery miały niższy poziom interleukiny 2 (IL-2) oraz interferonu gammma (IFN-γ). Pojawiły się za to podwyższone stężenia przeciwzapalnych interleukin IL-4 oraz IL-10. Co ważne, u zwierząt tych zidentyfikowano wyższy poziom limfocytów T regulatorowych CD4+CD25+, które odpowiadają za obwodową reakcję immunologiczną.
  18. Firma hostingowa Carpathia zwróciła się do sądu z zapytaniem, co ma zrobić z danymi użytkowników serwisu Megaupload. To aż 25 petabajtów danych, które były przechowywane w serwisie. Już kilka tygodni temu śledczy zakończyli ich badanie i stracili do nich dostęp. Dane są całkowicie w dyspozycji Carpathia, jednak dla firmy to spory problem. Informuje ona, że ich przechowywanie kosztuje 9000 dolarów dziennie. Dlatego też Carpathia sugeruje, że potrzebuje pomocy finansowej w ich przechowaniu bądź też, iż należy umożliwić ich zwrot użytkownikom. Dane przechowywane są na serwerach o łącznej wartości około 1,25 miliona dolarów, a od czasu zamknięcia Megaupload ich przechowywanie kosztowało firmę około 567 000 USD. BBC donosi, że Carpathia nie może usunąć tych danych, gdyż ciągle toczy się śledztwo przeciwko Megauploadowi. Jednym z zasugerowanych przez Carpathię rozwiązań jest tymczasowe ponowne uruchomienie adresu Megaupload.com, by użytkownicy mogli pobrać swoje dane. Firma chce, by sąd znalazł satysfakcjonujące wyjście z sytuacji.
  19. Zdaniem analityków z firmy IHS w bieżącym roku Amerykanie po raz pierwszy pobiorą legalnie więcej plików filmowych, niż kupią filmów na fizycznych nośnikach. Liczba filmów zakupionych w sieci ma wynieść 3,4 miliarda, czyli ponaddwukrotnie więcej niż w roku 2011. Z kolei liczba filmów zakupiona na nośnikach fizycznych spadnie drugi rok z rzędu i osiągnie 2,4 miliarda. IHS prognozuje, że spadek taki potrwa przez kolejne pięć lat. Bieżący rok będzie ostatnim gwoździem do trumny poglądu, jakoby konsumenci nie chcieli płacić za droższe treści dostarczane przez internet. W rzeczywistości wzrost online’owej konsumpcji to część szerszego trendu, w ramach którego całkowita konsumpcja towarów klasyfikowanych jako ‚rozrywka domowa’ wzrosła w latach 2007-2011 o 40%, pomimo spadku filmów sprzedawanych na nośnikach fizycznych - mówi analityk Dan Cryan. Pomimo zmniejszonego zainteresowania nośnikami fizycznymi konsumenci i tak spędzają więcej czasu oglądając filmy na DVD i Blu-ray niż filmy dostarczane przez internet. Ponadto dochód z filmów na tradycyjnych nośnikach wyniesie 11,1 miliarda USD, podczas gdy filmy udostępniane online zapewnią dochód rzędu 1,7 miliarda.
  20. Serwis Businessweek donosi, że Facebook odkupił 750 patentów od IBM-a. Mają go one chronić przed oskarżeniami o naruszenie własności intelektualnej. Patenty dotyczą zarówno technologii sieciowych, jak i oprogramowania. Ich zakup znacznie powiększy portfolio patentowe Facebooka. Społecznościowy portal posiada obecnie co najmniej 56 przyznanych patentów oraz 503 wnioski patentowe oczekujące na rozpatrzenie. Facebook musi się bronić przed konkurencją, która ma większe portfolio patentowe. W bieżącym miesiącu serwis został pozwany przez Yahoo!, które oskarża go o naruszenie własności intelektualnej dotyczącej istotnych funkcji używanych na witrynach internetowych.
  21. Allapasus aurantiacus reprezentuje gromadę jelitodysznych. Żyje na dnie morza u wybrzeży Kalifornii. Samice tego gatunku są pierwszymi zwierzętami, o których wiadomo, że ich jajniki nie znajdują się w jamie ciała, ale na zewnątrz. Autorzy odkrycia podkreślają, że nie są w tym osamotnione i takich jak one jest więcej. A. aurantiacus ukrywał się przed czujnym okiem naukowców do 2002 r., kiedy to Karen Osborn z Instytutu Smithsona wypatrzyła jednego osobnika w kanionie Monterey na głębokości ok. 3000 m. Udało się to dzięki zdalnie kierowanemu pojazdowi podwodnemu Tiburon. Później zwierzę zostało wyciągnięte na powierzchnię. Wtedy pani biolog zorientowała się, że ma do czynienia z jelitodysznym. Na całej długości A. aurantiacus ciągną się przypominające skrzydła fałdy ściany ciała. Są na tyle duże, że po zawinięciu spotykają się na grzbietowej linii środkowej. Do ich wewnętrznej powierzchni przymocowane są liczne jajniki. Zazwyczaj starasz się zabezpieczać takie struktury [...]. Ludzkie jądra chroni kilka warstw skóry, tymczasem komórki jajowe A. aurantiacus znajdują się pod pojedynczą warstwą komórek. Wg Osborn, to ułatwienie dla plemników. Nie wiadomo, w jaki sposób odbywa się zapłodnienie (naukowcy zakładają, że A. aurantiacus jest rozdzielnopłciowy). Czy plemniki są uwalniane do wody, po czym samica chwyta je w skrzela, a następnie wypuszcza na wysokości jajników, czy proces przebiega inaczej (opisany scenariusz uprawdopodobnia anatomia zwierzęcia: położenie skrzeli i jajników). A. aurantiacus wydzielają tony śluzu. To prawdopodobnie pomaga im przywierać "skrzydłami" do dna, a w razie potrzeby, także podróżować po okolicy. Żyjące na dużych głębokościach jelitodyszne wytwarzają duży balon śluzu, który działa jak latający dywan czy poduszkowiec. Zostaje on porwany przez prąd morski i tak zaczyna się miniodyseja. By jakakolwiek wyprawa doszła w ogóle do skutku, A. aurantiacus pozbywają się zawartości przewodu pokarmowego. Na terenie wschodniego Pacyfiku na głębokości 2900-3500 m sfilmowano 10 osobników. Jeden dryfował kilka centymetrów nad dnem (zapewne na bąblu ze śluzu), a 7 było częściowo zagrzebanych, co odzwierciedla bentopelagiczny tryb życia A. aurantiacus. Egzemplarz uznany za holotyp gatunku ma 26 cm. Wszystkie rejony ciała A. aurantiacus są bardziej umięśnione niż u innych Torquaratoridae, co zapewne stanowi przystosowanie do zakopywania. W każdym większym jajniku znajduje się pojedynczy pęcherzyk pierwszorzędowy o średnicy do 1500 μm. Całość wystaje na zewnątrz w postaci epidermalnej sakiewki, przymocowanej do ciała za pomocą wąskiej szypuły. Po czerwcu 2002 r. Amerykanie odkryli jeszcze kilkanaście jelitodysznych z tej samej rodziny (Torquaratoridae). Wszystkie mają "skrzydła" i zewnętrzne jajniki. Co ciekawe, pewien gatunek blisko spokrewniony z A. aurantiacus wykorzystuje skrzydła do ochrony potomstwa. Pod fałdami jednej samicy biolodzy zobaczyli dobrze rozwinięte jaja oraz kilka larw.
  22. Nowatorskie badania przeprowadzone przez doktora Richarda Streetera wykazały, że nieuleganie zmianom i trzymanie się tradycyjnego sposobu życia prawdopodobnie uratowały populację Islandii. Naukowcy chcieli sprawdzić, jak Islandczycy poradzili sobie z wyjątkowo trudnymi warunkami naturalnymi, z którymi mieli do czynienia w późnym średniowieczu. Wiele słyszeliśmy o tym, że społeczeństwa muszą być elastyczne, ale w tym przypadku wydaje się, że to właśnie niepoddawanie się zmianom pozwoliło temu społeczeństwu na zdumiewająco szybkie odrodzenie się po zarazach i zmianach klimatu - mówi Streeter, który wyniki swoich badań opisał w Proceedings of the National Academy of Sciences (PNAS). Na początku i pod koniec XV wieku Islandię nawiedziły dwie fale zarazy. Uczeni przypuszczają, że podczas pierwszej z nich wymarła połowa populacji. Jak by tego było mało częste erupcje wulkaniczne spowodowały, że znaczna część ziemi uprawnej nie nadawała się do użytku. Ponadto od początku XIV wieku w Europie było coraz chłodniej, nastała Mała Epoka Lodowcowa. Wszystkie te czynniki mogły zmusić Islandczyków do opuszczenia swojej wyspy. Jednak tak się nie stało. W tym czasie byt ludności Islandii zależał od zwierząt, przede wszystkim owiec i krów. Wymarcie połowy ludności spowodowało, że trudno było dbać o stada. Naukowcy postanowili sprawdzić osady wulkaniczne, by dowiedzieć się, jak wyglądał wówczas wypas zwierząt. Islandia jest świetnym miejscem do tego typu badań, gdyż aktywność wulkanów powoduje, że ciągle pojawiają się nowe osady. W niektórych miejscach poziom gruntu podnosi się aż o 0,5 mm rocznie. Dzięki temu, że nowe warstwy pyłu przykrywały dotychczasowe, zachhowało się wiele śladów. To pozwala na zbadanie, na podstawie erozji, wzorców wyjadania trawy, dzięki czemu wiemy, jakie zwierzęta i gdzie były wypasane. Jeśli wskutek działania czynników zewnętrznych społeczność popadłaby w apatię i nie radziła sobie z nagłym ubytkiem rąk do pracy, stada zdziczałych owiec zaczęłyby przemieszczać się samopas, doprowadzając do zwiększenia erozji na wyżej położonych terenach. Nawet jeśli udałoby się tego uniknąć, to istniało jeszcze jedno niebezpieczeństwo. Islandczycy mogli zrezygnować z hodowli krów na rzecz łatwiejszych w utrzymaniu owiec, które jednak bardziej niszczą glebę. Badania wykazały, że nic takiego się nie stało. Islandczycy pozostali przy swoim dotychczasowym trybie życia, zmniejszyli jedynie skalę hodowli. Porzucenie krów na rzecz owiec mogło być sposobem na poradzenie sobie z następstwami epidemii, ale nie ma dowodów, by do tego doszło. Jeśli tak by się stało, powinniśmy dostrzec zwiększoną erozję gleby spowodowaną całorocznym wypasem owiec - mówi Streeter. Jeśli Islandczycy porzuciliby stada lub zastąpili krowy owcami, najprawdopodobniej doprowadziłoby to do takiej erozji, że musieliby opuścić wyspę. Klimat był bardzo nieprzyjazny do XVIII wieku, ponadto w 1783 roku doszło do erupcji wulkanu Laki, która zapoczątkowała debatę o konieczności opuszczenia wyspy. Gdyby wcześniej doszło do dużej erozji, społeczeństwo znalazłoby się wówczas na krawędzi - dodaje naukowiec. Historię Islandii można szczegółowo badać nie tylko dzięki erupcjom wulkanów, ale także dzięki szczegółowym zapiskom, które zostawili mieszkańcy. Nie tylko wiemy, że w 1341 roku doszło do dużej erupcji Hekli. Wiemy też, że miała ona miejsce 19 maja o godzinie 9 rano - stwierdza Streete.
  23. Zdaniem profesora Davida Smitha z University of Buffalo, jednego z najwybitniejszych specjalistów zajmujących się psychologią porównawczą, coraz większa liczba naukowców wyraża pogląd, że zwierzęta posiadają podobne zdolności metapoznawcze co ludzie. Metapoznanie to zdolność do refleksji nad własnym procesem myślowym oraz umiejętność kierowania nim i optymalizowania go. Smith wraz z Justinem Couchmanem ze State University of New York i Michaelem Beranem z Georgia State University opublikowali w Philosophical Transactions of the Royal Society artykuł pod tytułem „The Highs and Lows of Theoretical Interpretation in Animal-Metacognition Research“. W dzisiejszej psychologii porównawczej metapoznanie zwierzęce jest jednym z głównych przedmiotów badań. Oczywiście niesie to ze sobą problemy związane z interpretacją oraz możliwym wpływaniem na przedmiot badań - mówi Smith. W arykule uczeni skupili się na standardach badań nad psychologią zwierząt, opisują ich historię, sposoby interpretacji wyników oraz proponują rozwiązania na przyszłość. Artykuł kończy się stwierdzeniem, że makaki radzą sobie z niepewnością dotyczącą poznania podobnie jak ludzie. Drugi tekst Smitha „Animal Metacognition“ ukaże się jeszcze w bieżącym roku w wydanym przez Oxford University Press tomie „Comparative Cognition: Experimental Explorations of Animal Intelligence“. Cały tom będzie, zdaniem Smitha, jednym z najważniejszych podręczników akademickich przyszłej dekady. W „Animal Metacognition“ Smith, który w 1995 roku zapoczątkował badania nad metapoznaniem zwierząt, przedstawia przegląd obecnego stanu wiedzy w tej dziedzinie. Uczony opisuje, jak badał delfiny butlonose i makaki. Oba gatunki potrafiły sygnalizować niepewność, wahanie się, pokazywać, które z postawionych przed nimi zadań jest łatwe, a które trudne. Początkowo przedmiotem badań Smitha był delfin butlonosy. Naukowiec zauważył, że gdy zwierzę uznało, iż jakieś zadanie jest zbyt trudne, wykazywało oznaki wahania, zmartwienia i odmawiało zajmowania się nim. Z drugiej strony, gdy trafiło na łatwe zadanie, sygnalizowało to pływając tak gwałtownie w basenie, że omal nie zniszczyło instrumentów badawczych. Później Smith zaczął się przyglądać makakom, które nauczono posługiwania się dżojstikiem. Małpa nie tylko potrafiła wskazać, kiedy jest niepewna, ale sygnalizowała niepewność również i wówczas, gdy za pomocą stymulacji przezczaszkowej wyczyszczono jej pamięć. Podsumowując Smith stwierdza, że ich zdolności odnoszące się do niepewności poznania oraz adaptowania się do takich sytuacji są bardzo podobne do tych samych procesów zachodzących u ludzi. Co ciekawe, podobnych tak złożonych umiejętności nie zauważono u innych gatunków małp, co ma duże znaczenie dla badań nad pojawieniem się refleksyjnego sposobu myślenia u różnych gatunków małp, małp człekokształtnych i człowieka.
  24. Podczas syntezy grafenu wykorzystuje się proces chemicznej redukcji tlenku grafenu (GO). Wymaga on wystawienia GO na działanie hydrazyny. Ten sposób produkcji ma jednak poważne wady, które czynią jego skalowanie bardzo trudnym. Opary hydrazyny są bowiem niezwykle toksyczne, zatem produkcja na skalę przemysłową byłaby niebezpieczna zarówno dla ludzi jak i dla środowiska naturalnego. Naukowcy z japońskiego Uniwersytetu Technologicznego Toyohashi zaprezentowali bezpieczne, przyjazne dla środowiska rozwiązanie problemu. Zainspirowały ich wcześniejsze badania wskazujące, że tlenek grafenu może działać na bakterie jak akceptor elektronów. Wskazuje to, że bakterie w procesie oddychania lub transportu elektronów mogą redukować GO. Japońscy uczeni wykorzystali mikroorganizmy żyjące na brzegach pobliskiej rzeki. Badania przeprowadzone przy wykorzystaniu zjawiska Ramana wykazały, że obecność bakterii rzeczywiście doprowadziła do zredukowania tlenku grafenu. Zdaniem Japończyków pozwala to na opracowanie taniej, bezpiecznej i łatwo skalowalnej przemysłowej metody produkcji grafenu o wysokiej jakości.
  25. Naukowcy z Queensland University of Technology (QUT) odkryli, że rośliny odgrywają ważną rolę w jonizacji powietrza. Doktorzy Rohan Jayaratne i Xuan Ling przeprowadzili eksperymenty w 6 miejscach wokół Brisbane. Stwierdzili, że stężenie anionów i kationów w powietrzu było na terenach gęsto zadrzewionych 2-krotnie wyższe niż na otwartych obszarach porośniętych trawą, np. parkach. Jayaratne wyjaśnia, że w atmosferze znajdują się śladowe ilości gazu radonu, który w czasie rozpadu emituje promieniowanie alfa o małej przenikliwości, ale o dużej zdolności jonizującej. Za powstawanie jonów odpowiada też promieniowanie kosmiczne. Radon to produkt rozpadu radu, który naturalnie występuje w skałach i minerałach. Ponieważ rad występuje w skałach, a radon jest rozpuszczalny w wodzie, w wodach gruntowych występuje szczególnie dużo tego pierwiastka. Drzewa działają jak pompy radonu. Najpierw za pomocą korzeni pobierają wodę z Rn, a potem przeprowadzają transpirację [czynne parowanie wody z nadziemnych części roślin]. Szczególnie dobrymi pompami radonu są drzewa z głębokim systemem korzeniowym, np. eukaliptusy. Australijczycy wyliczyli, że w lesie eukaliptusowym, gdy wskaźnik transpiracji jest najwyższy, drzewa odpowiadają za 37% radonu w powietrzu. Naukowcy przypominają, że cząstki naładowane z większym prawdopodobieństwem odkładają się w płucach niż cząsteczki nienaładowane. Nie sądzimy, że jony są niebezpieczne - zagrożenie stwarzają zanieczyszczenia. Jeśli w powietrzu nie ma groźnych cząsteczek, które mogłyby się przyłączyć do jonów, nie ma ryzyka utraty zdrowia.
×
×
  • Dodaj nową pozycję...