-
Liczba zawartości
37638 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Laghat to 9-letni włoski ogier, który już 19 razy triumfował w różnego rodzaju wyścigach. Nie byłoby w tym niczego dziwnego, gdyby nie fakt, że koń jest niewidomy. W takiej sytuacji trudno się dziwić, że dżokej Federico De Paola wierzy w szósty zmysł swojego pupila. Zwierzę urodziło się z infekcją grzybiczą obojga oczu, dlatego teraz widzi co najwyżej zarysy obiektów w postaci cieni. De Paola przyznaje, że nie ma pojęcia, w jaki sposób Laghat (dosłownie "kopnięcie") omija przeszkody, przede wszystkim biegnące obok po torze inne konie. Zdecydowałem się na udział w wyścigach [De Paola jest również właścicielem Laghata], by koń miał okazję do ćwiczeń. Byłem zaskoczony, kiedy wygrał i później, gdy jego dobra passa się utrzymywała. Wygrał 19 wyścigów. Niektóre z nich były naprawdę ważne. Włoch podkreśla, że Laghat skądś wie, gdzie postawić nogę. Nigdy nie mieliśmy kolizji, chociaż czasem w wyścigu brało udział 16 koni.
-
Redaktorzy serwisu PC World przeprowadzili testy porównujące wydajność Windows 7 i Windows 8 beta. Wynika z nich, że najnowszy system Microsoftu jest generalnie szybszy, a w niektórych przypadkach znacznie szybszy od swojego poprzednika. Oczywiście przeprowadzone obecnie testy nie stanowią definitywnej odpowiedzi na pytanie o wydajność ostatecznej wersji Windows 8. Można się jednak spodziewać, że gotowa wersja nowego OS-u będzie miała jeszcze większą przewagę nad Windows 7, gdyż podczas testów używano sterowników, które nie zostały zoptymalizowane pod Windows 8. Oba systemy przetestowano na tym samym komputerze, którzy wyposażono w procesor Core i5-2500K taktowany 3,3-gigahercowym zegarem, 8 gigabajtów pamięci DDR3 (1333MHz), 1-terabajtowy dysk twardy oraz kartę graficzną GeForce GTX 560 Ti. Najpierw oba systemy porównano w programie WorldBench 7. Wykazał on, że Windows 8 jest o 14% bardziej wydajny. To zauważalna różnica. Jak zapewnia PC World w podczas używania komputera widoczna jest już 5-procentowa różnica wykazana przez WorldBench. Osoby, które nie lubią czekać na uruchomienie komputera powinny zdecydowanie zainteresować się Windows 8. Średni czas startu maszyny z Windows 7 wynosił 56,2 sekundy, a w przypadku Windows 8 było to 36,8 sekundy. Różnica spora, a warto tutaj wspomnieć, że Windows 7 miał pewne fory. Czas startu liczono bowiem od momentu włączenia komputera do chwili otwarcia pliku tekstowego ze wskazanego folderu. Windows 8 domyślnie startuje do interfejsu Metro, zatem musiał załadować następnie interfejs desktopowy, a później dopiero otworzyć plik. Sam start do gotowego do pracy interfejsu Metro trwał 23,91 sekundy. Redaktorzy PC Worlda wykorzystali też benchmark WebVizBench, który mierzy prędkość renderowania dynamicznych treści w sieci, takich jak np. JavaScript czy HTML 5. Testy wykonano przy użyciu domyślnych przeglądarek dla obu systemów - IE 9 (Windows 7) oraz IE 10 (Windows 8). Najnowszy OS Microsoftu renderował zawartość z prędkością 28,6 klatek na sekundę, podczas gdy dla Windows 7 wynik wyniósł 18,9 fps. Widoczna jest tutaj duża praca, jaką inżynierowie włożyli w techniki akceleracji sprzętowej i optymalizacji pracy przeglądarki. Windows 8 przegrał nieznacznie ze swoim poprzednikiem w dwóch testach. Pierwszy z nich mierzył prędkość kodowania dźwięku, filmów oraz edytowania grafiki. Kodowanie dźwięku zajęło starszemu systemowi 114,1 sekundy, a młodszemu - 115,9 sek. Praca z wideo trwała w przypadku Siódemki 141 sekund, podczas gdy Ósemce zajęła 154,7 sekundy. Różnica w edytowaniu obrazka wynosiła 167,1:170,3 na rzecz Windows 7. Sytuacja powinna jednak ulec zmianie, gdy Microsoft zaktualizuje sterowniki dla Windows 8. Wersja beta przegrała też w teście PCMark Office Productivity, który mierzy typowe zadania biurowe - edycję tekstu, otwieranie aplikacji czy skanowanie antywirusowe. Windows 8 był o około 8% wolniejszy. Testy były jednak wykonywane przy użyciu starszej wersji benchmarka, który nie jest gotowy pod kątem Windows 8, dlatego też gdy przygotowywana właśnie aktualizacja PCMark trafi na rynek, rezultaty mogą być inne. O tym, czy i w jakim stopniu Windows 8 będzie bardziej wydajny od swojego poprzednika przekonamy się, gdy zadebiutuje ostateczna wersja systemu.
-
Na pytania o zmiany klimatu i globalne ocieplenie odpowiadają profesor Szymon Malinowski kierownik Zakładu Fizyki Atmosfery Instytutu Geofizyki Uniwersytetu Warszawskiego oraz PrefectGreyBody, autor bloga doskonaleszare.blox.pl 1. Obaj Panowie uważacie, że globalne ocieplenie ma miejsce, a jego przyczyną jest działalność przemysłowa człowieka. Na ile pogląd ten jest udowodniony? Czy jest możliwe, by okazało się, że nie mamy do czynienia z trwałym ociepleniem, bądź że nie ma ono antropogenicznego charakteru? prof. Szymon Malinowski (SM): Poglądy można mieć różne. Natomiast w naukach przyrodniczych stawia się hipotezy, a gdy zostaną one doświadczalnie udowodnione stają się teoriami. Teoria w nauce to coś, co w powszechnym języku rozumiemy pod słowami „prawda naukowa”. Hipotezę, że istnieje w atmosferze czynnik wpływający na ucieczkę ciepła w kosmos postawił Joseph Fourier w 1824 roku, on wprowadził nazwę „efekt cieplarniany”. Tyndall 40 lat później pokazał, że gazami cieplarnianymi są CO2 i para wodna. Na przełomie XIX i XX wieku „Ojciec chemii fizycznej” Arrhenius obliczył, jak temperatura powierzchni Ziemi może się zmieniać z zawartością atmosferycznego CO2, a geolog – pionier biogeochemii Hogbom pokazał, że spalanie paliw kopalnych jest istotne dla zawartości CO2 w atmosferze. Hipotezę, że to przede wszystkim antropogeniczne emisje CO2 odpowiadają za globalnym ocieplenie, a więc za wzrost temperatury powierzchni ziemi od początku XX wieku postawił Callendar w latach 30. Hipoteza ta została udowodniona na podstawie wielu niezależnych pomiarów i obserwacji obejmujących różne aspekty działania „maszyny klimatycznej”, czyli stała się teorią w latach sześćdziesiątych ubiegłego stulecia. Od tego czasu wielokrotnie próbowano obalić te teorię, ale każda próba, paradoksalnie, przyczyniała się do jej umocnienia – eliminowała z grona możliwości kolejny mechanizm fizyczny. W tej chwili teoria antropogenicznego globalnego ocieplenia jest tak mocno udokumentowana i osadzona w wiedzy naukowej, że jej obalenie wywalałoby przewrót w wielu dziedzinach fizyki i chemii. Okazałoby się na przykład, że nie rozumiemy na jakiej podstawie działają satelity meteorologiczne, z których obrazy oglądamy w cowieczornej prognozie pogody. Do zaprojektowania radiometrów, które dostarczają nam „zdjęcia satelitarne” używamy tych samych równań transferu radiacyjnego co do obliczania efektu cieplarnianego... PerfectGreyBody (PGB): Jest udowodnione "ponad wszelką wątpliwość", że za wzrost stężenia gazów cieplarnianych (przede wszystkim CO2, ale nie tylko) odpowiada działalność przemysłowa człowieka. Wiemy ile wydobywamy i spalamy węgla, ropy i gazu ziemnego; oraz potrafimy z dużą dokładnością zmierzyć, o ile wzrasta zawartość dwutlenku węgla w atmosferze. Ponieważ ta pierwsza wartość jest większa (mniej więcej dwukrotnie) od drugiej, więc nawet z tego jednego faktu powinno wynikać, że to właśnie nasza cywilizacja odpowiada za obserwowany wzrost stężenia dwutlenku węgla. Oczywiście, obecnie potrafimy powiedzieć o obiegu węgla w atmosferze, oceanach i biosferze znacznie więcej - na przykład od mniej więcej dekady, dzięki satelitarnym sondażom atmosfery oraz numerycznym systemom asymilacji danych (tzw. inverse modeling) posiadamy możliwość podglądania nieomal na żywo źródeł emisji dwutlenku węgla w skali globalnej. Są też poszlaki dodatkowe, na przykład zmiana składu izotopowego dwutlenku węgla w atmosferze oraz oceanach; albo dane z rdzeni lodowych wskazujące na bezprecedensowy w skali setek tysięcy lat wzrost stężenia CO2. Rola CO2 jako gazu cieplarnianego jest również bardzo dobrze poznana - potrafimy policzyć, o ile zmieni się ilość promieniowania podczerwonego uciekającego z naszej planety w kosmos, jeśli dodamy do atmosfery określoną ilość CO2 (albo innych gazów cieplarnianych), i o ile musi zmienić się temperatura powierzchni i atmosfery, aby Ziemia odzyskała równowagę radiacyjną, czyli pochłaniała mniej więcej tyle samo promieniowania słonecznego co emitowała podczerwonego. Wiemy, że obecnie Ziemia w takiej równowadze nie jest, gdyż mierzymy powolne ocieplanie się oceanów. Prowadzimy również monitoring innych czynników mających wpływ na klimat, na przykład zmian aktywności słonecznej czy zachmurzenia, i możemy oszacować ich wkład w obserwowane zmiany temperatury. Odpowiadając na ostatnie pytanie, to jest mało prawdopodobne (IPCC kilka lat temu konserwatywnie określiło to jako "very unlikely", czyli prawdopodobieństwo poniżej 10%), by globalne ocieplenie nie było w przeważającej części pochodzenia antropogenicznego. Nawet gdybyśmy przeoczyli jakiś nieznany mechanizm, który mógłby tłumaczyć obserwowane zmiany zachodzące w atmosferze i oceanach, to jednocześnie musielibyśmy wyjaśnić, dlaczego zmiany stężenia gazów cieplarnianych nie powodują, choć powinny, ocieplenia.
-
Wg dorocznego sondażu The Art Newspaper, najczęściej odwiedzanym muzeum sztuki był w zeszłym roku Luwr (8.800.000). Na drugim miejscu uplasowało się Metropolitan Museum of Art w Nowym Jorku (6.004.254), a na trzecim British Museum w Londynie (5.848.534). W porównaniu do roku 2010, paryskie muzeum odnotowało ok. 3,5-proc. wzrost, bo wtedy zjawiło się tam 8,5 mln miłośników sztuki. Najstarsze i największe muzeum w Ameryce może się pochwalić niewielkim wzrostem liczby odwiedzin, bo przed 2 laty odwiedziło je 5.216.988 osób, podczas gdy Muzeum Brytyjskie, jedno z największych na świecie muzeów historii starożytnej, utrzymało się mniej więcej na tym samym poziomie (w 2010 r. zjawiło się tam 5.842.138 żądnych wrażeń miłośników sztuki). Poza jednym punktem - Narodowe Muzeum Pałacowe w Tajpej wyparło z 7. miejsca nowojorskie Museum of Modern Art - skład pierwszej dziesiątki muzeów nie uległ zmianie. Metropolitan Museum of Art i Bristish Museum zamieniły się miejscami. Podobnie zresztą jak następne na liście National Gallery w Londynie (teraz na 4., poprzednio na 5. miejscu) oraz Tate Modern. Na szóstej, jak widać mocnej, pozycji utrzymała się Narodowa Galeria Sztuki w Waszyngtonie. Równie dobrze poradziły sobie Centre Georges Pompidou, Muzeum Narodowe Korei w Seulu oraz Muzeum Orsay, które zachowały, odpowiednio, 8., 9. i 10. miejsce. Po raz pierwszy Luwr trafił na pierwsze miejsce listy najczęściej odwiedzanych muzeów sztuki w 2007 r. Wtedy pojawiło się tam 8,3 mln osób. Zastępca redaktora naczelnego The Art Newspaper Javier Pes podkreśla, że za niesłabnącą popularność Luwru odpowiada m.in. Mona Liza Leonarda da Vinci. W zeszłym roku szczególnie amerykańskie muzea ucierpiały w wyniku kryzysu, dlatego musiały pomyśleć o cięciu kosztów. Ponieważ oszczędności dotyczyły m.in. budżetów wystaw, duże instytucje wracają do swoich flagowych kolekcji. Met [tak popularnie nazywa się Metropolitan Museum of Art] dobrze wyszło na pokazywaniu dzieł Picassa. [Jak widać] muzea musiały podejść do zbiorów kreatywnie. The Art Newspaper opublikowało nie tylko listę 10 najpopularniejszych muzeów sztuki, ale także zestawienie 20 topwystaw czy najpopularniejszych pokazów. Jak podkreślają dziennikarze miesięcznika, która przygotowuje zestawienia najpopularniejszych wystaw już od 1996 r., na początku, by dostać się do pierwszej dziesiątki, wystarczyło ok. 3 tys. odwiedzających dziennie. Teraz trzeba już ok. 7 tys.
-
W Los Alamos National Laboratory (LANL) przekroczono nieosiągalną dotychczas dla niedestrukcyjnych systemów granicę 100 tesli natężenia pola magnetycznego. Pracowliśmy nad tym przez półtorej dekady - mówi Chuck Mielke, dyrektor Pulsed Field Facility w LANL. Wcześniej różne zespoły badawcze uzyskiwały pole magnetyczne nawet o kilkukrotnie większym natężeniu, jednak zawsze wiązało się to ze zniszczeniem magnesu. Systemy destrukcyjne nie pozwalały na przeprowadzenie wielu badań. W Los Alamos zbudowano magnes wielokrotnego użytku składający się z siedmiu cewek o łącznej wadze ponad 8 ton, zasilanych przez 1,2-gigadżulowy generator. Wczoraj, 22 marca, taki system pozwolił na stworzenie pola magnetycznego o natężeniu 100,75 tesli. To natężenie około 2 000 000 razy większe od natężenia ziemskiego pola magnetycznego. Nowy system pozwoli na prowadzenie badań nad kwantowymi przejściami fazowymi czy budową materii.
-
20 ton poleciało na Międzynarodową Stację Kosmiczną
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Europejska Agencja Kosmiczna (ESA) wysłała największy w swojej historii ładunek na Międzynarodową Stację Kosmiczną. Automated Transfer Vehicle (ATV) Edoardo Amaldi został wyniesiony przez rakietę Ariane 5, która wystartowała z portu kosmicznego Kourou w Gujanie Francuskiej. Na pokładzie pojazdu znajduje się żywność, woda, paliwo, powietrze oraz przyrządy naukowe i części zapasowe. W sumie ładunek waży 20 ton. ATV dokonuje obecnie serii manewrów, przygotowując się do połączenia z ISS, które planowane jest na 28 marca. Pojazd przez około 5 miesięcy będzie zadokowany do Stacji, co pozwoli skorygować jej orbitę. Obecna misja to trzecia z pięciu planowanych wypraw mających na celu dostarczenie zaopatrzenia na ISS. „ATV-3 pokazuje, że Europa jest w stanie, we współpracy z naszymi partnerami, regularnie przygotowywać ważne misje, by wspierać wymagające operacje załogowe“ - powiedział Jean-Jacques Dordain, dyrektor generalny ESA. -
Wpływ napojów dietetycznych na hormony jelitowe osób z cukrzycą
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Wypicie przed testem doustnego obciążenia glukozą dietetycznego napoju zwiększa u zdrowych oraz pacjentów z cukrzycą typu 1., lecz nie typu 2. poziom glukagonopodobnego peptydu 1 (ang. glucagon-like peptide 1, GLP-1). GLP-1 należy do grupy hormonów jelitowych inkretyn. U zdrowych osób są one odpowiedzialne za 50-60% wydzielania insuliny. W cukrzycy typu 2. zaobserwowano zmniejszenie ich sekrecji. Dr Rebecca J. Brown z Narodowego Instytutu Cukrzycy oraz Chorób Trawiennych i Nerek (National Institute of Diabetes and Digestive and Kidney Diseases) przeprowadziła badania, w których wzięło udział 9 pacjentów z cukrzycą typu 1., 10 z cukrzycą typu 2. oraz 25 zdrowych osób. Wiek ochotników wynosił od 12 do 25 lat. Przed testem obciążenia 75 g glukozy podano im 250-ml napój dietetyczny o smaku coli (bezkofeinowy) albo taką samą ilość wody gazowanej. Później w ciągu 180 min oceniano u nich m.in. poziom glukozy, peptydu C (peptyd ten stanowi część proinsuliny; jest wycinany podczas uwalniania insuliny z trzustki i razem z nią dostaje się do krwioobiegu), a także inkretyn GLP-1 oraz glukozozależnego peptydu insulinotropowego (ang. glucose-dependent insulinotropic peptide, GIP). W porównaniu do wody gazowanej, po wypiciu napoju dietetycznego pole pod krzywą stężeń (AUC od ang. area under the curve) GLP-1 było u chorych z cukrzycą typu 1. o 43% większe. W grupie kontrolnej osób zdrowych AUC okazało się wtedy o 34% wyższe. Pomiędzy scenariuszami picia wody i napoju w żadnej z trzech grup nie odnotowano istotnych statystycznie różnic w AUC glukozy, peptydu C oraz GIP. Zespół Brown przypomniał wyniki swoich nieco wcześniejszych badań, z których wynikało, że u zdrowych młodych osób w odpowiedzi na napój dietetyczny słodzony acesulfamem K lub sukralozą wzrasta wydzielanie glukagonopodobnego peptydu 1. -
Muzykoterapia wydłuża czas przeżycia po przeszczepie serca
KopalniaWiedzy.pl dodał temat w dziale Zdrowie i uroda
Podczas badań na myszach muzyka klasyczna i operowa zwiększały szanse na przeżycie po allogenicznym przeszczepie serca. Działo się tak dzięki korzystnemu wpływowi na układ odpornościowy. Nie wiadomo, na czym dokładnie bazuje związek między układem odpornościowym a funkcjami mózgu (np. słuchem czy węchem), ale autorzy artykułu opublikowanego w Journal of Cardiothoracic Surgery przypominają, że muzyka łagodzi lęk po zawale serca oraz zmniejsza ból i nudności przy przeszczepie szpiku kostnego. W tym kontekście warto przypomnieć badania zespołu z Centrum Medycznego University of Rochester sprzed 9 lat. W eksperymencie wzięło wtedy udział 42 pacjentów w wieku od 5 do 65 lat po przeszczepie szpiku. Osoby przechodzące dwa razy w tygodniu muzykoterapię twierdziły, że odczuwają mniejszy ból i nudności. Istnieją dowody, że muzyka może działać za pośrednictwem układu przywspółczulnego, czyli podukładu autonomicznego układu nerwowego. Podczas najnowszego japońskiego studium myszom przez tydzień odtwarzano jeden z 3 rodzajów muzyki - "La Traviatę" Verdiego (operę), Mozarta (muzykę klasyczną) lub Enyę (muzykę new age) - albo dźwięki o pojedynczej częstotliwości (100, 500, 1000, 5000, 10.000, lub 20.000 Hz). Naukowcy utworzyli też 3 grupy kontrolne: 1) myszy z perforacją błony bębenkowej, którym przez 7 dni odtwarzano "La Traviatę", 2) zwierząt, które przeszły tygodniową muzykoterapię przed przeszczepem oraz 3) zwierząt, na które nie wpływano w żaden sposób ani przed, ani po przeszczepie. Zespół ustalił, że opera i muzyka klasyczna opóźniają moment wystąpienia niewydolności przeszczepionego serca (mediana czasu przeżycia wynosiła, odpowiednio, 26,5 i 20 dni). Dźwięki o tej samej częstotliwości oraz muzyka new age nie wywierały korzystnego wpływu. Mediana przeżycia myszy z 3. grupy kontrolnej (niepoddawanej żadnym manipulacjom) wynosiła 7 dni. W przypadku zwierząt ze zniszczeniem błony bębenkowej i słuchających muzyki przed przeszczepem wynosiła 8 dni. Zwierzęta przeszły szereg badań. Wykonano u nich m.in. cytometrię przepływową. Na tej podstawie dr Masanori Niimi i inni twierdzą, że ochronę zapewnia śledziona. Myszy słuchające opery miały niższy poziom interleukiny 2 (IL-2) oraz interferonu gammma (IFN-γ). Pojawiły się za to podwyższone stężenia przeciwzapalnych interleukin IL-4 oraz IL-10. Co ważne, u zwierząt tych zidentyfikowano wyższy poziom limfocytów T regulatorowych CD4+CD25+, które odpowiadają za obwodową reakcję immunologiczną. -
Firma hostingowa Carpathia zwróciła się do sądu z zapytaniem, co ma zrobić z danymi użytkowników serwisu Megaupload. To aż 25 petabajtów danych, które były przechowywane w serwisie. Już kilka tygodni temu śledczy zakończyli ich badanie i stracili do nich dostęp. Dane są całkowicie w dyspozycji Carpathia, jednak dla firmy to spory problem. Informuje ona, że ich przechowywanie kosztuje 9000 dolarów dziennie. Dlatego też Carpathia sugeruje, że potrzebuje pomocy finansowej w ich przechowaniu bądź też, iż należy umożliwić ich zwrot użytkownikom. Dane przechowywane są na serwerach o łącznej wartości około 1,25 miliona dolarów, a od czasu zamknięcia Megaupload ich przechowywanie kosztowało firmę około 567 000 USD. BBC donosi, że Carpathia nie może usunąć tych danych, gdyż ciągle toczy się śledztwo przeciwko Megauploadowi. Jednym z zasugerowanych przez Carpathię rozwiązań jest tymczasowe ponowne uruchomienie adresu Megaupload.com, by użytkownicy mogli pobrać swoje dane. Firma chce, by sąd znalazł satysfakcjonujące wyjście z sytuacji.
-
Zdaniem analityków z firmy IHS w bieżącym roku Amerykanie po raz pierwszy pobiorą legalnie więcej plików filmowych, niż kupią filmów na fizycznych nośnikach. Liczba filmów zakupionych w sieci ma wynieść 3,4 miliarda, czyli ponaddwukrotnie więcej niż w roku 2011. Z kolei liczba filmów zakupiona na nośnikach fizycznych spadnie drugi rok z rzędu i osiągnie 2,4 miliarda. IHS prognozuje, że spadek taki potrwa przez kolejne pięć lat. Bieżący rok będzie ostatnim gwoździem do trumny poglądu, jakoby konsumenci nie chcieli płacić za droższe treści dostarczane przez internet. W rzeczywistości wzrost online’owej konsumpcji to część szerszego trendu, w ramach którego całkowita konsumpcja towarów klasyfikowanych jako ‚rozrywka domowa’ wzrosła w latach 2007-2011 o 40%, pomimo spadku filmów sprzedawanych na nośnikach fizycznych - mówi analityk Dan Cryan. Pomimo zmniejszonego zainteresowania nośnikami fizycznymi konsumenci i tak spędzają więcej czasu oglądając filmy na DVD i Blu-ray niż filmy dostarczane przez internet. Ponadto dochód z filmów na tradycyjnych nośnikach wyniesie 11,1 miliarda USD, podczas gdy filmy udostępniane online zapewnią dochód rzędu 1,7 miliarda.
-
Serwis Businessweek donosi, że Facebook odkupił 750 patentów od IBM-a. Mają go one chronić przed oskarżeniami o naruszenie własności intelektualnej. Patenty dotyczą zarówno technologii sieciowych, jak i oprogramowania. Ich zakup znacznie powiększy portfolio patentowe Facebooka. Społecznościowy portal posiada obecnie co najmniej 56 przyznanych patentów oraz 503 wnioski patentowe oczekujące na rozpatrzenie. Facebook musi się bronić przed konkurencją, która ma większe portfolio patentowe. W bieżącym miesiącu serwis został pozwany przez Yahoo!, które oskarża go o naruszenie własności intelektualnej dotyczącej istotnych funkcji używanych na witrynach internetowych.
-
Allapasus aurantiacus reprezentuje gromadę jelitodysznych. Żyje na dnie morza u wybrzeży Kalifornii. Samice tego gatunku są pierwszymi zwierzętami, o których wiadomo, że ich jajniki nie znajdują się w jamie ciała, ale na zewnątrz. Autorzy odkrycia podkreślają, że nie są w tym osamotnione i takich jak one jest więcej. A. aurantiacus ukrywał się przed czujnym okiem naukowców do 2002 r., kiedy to Karen Osborn z Instytutu Smithsona wypatrzyła jednego osobnika w kanionie Monterey na głębokości ok. 3000 m. Udało się to dzięki zdalnie kierowanemu pojazdowi podwodnemu Tiburon. Później zwierzę zostało wyciągnięte na powierzchnię. Wtedy pani biolog zorientowała się, że ma do czynienia z jelitodysznym. Na całej długości A. aurantiacus ciągną się przypominające skrzydła fałdy ściany ciała. Są na tyle duże, że po zawinięciu spotykają się na grzbietowej linii środkowej. Do ich wewnętrznej powierzchni przymocowane są liczne jajniki. Zazwyczaj starasz się zabezpieczać takie struktury [...]. Ludzkie jądra chroni kilka warstw skóry, tymczasem komórki jajowe A. aurantiacus znajdują się pod pojedynczą warstwą komórek. Wg Osborn, to ułatwienie dla plemników. Nie wiadomo, w jaki sposób odbywa się zapłodnienie (naukowcy zakładają, że A. aurantiacus jest rozdzielnopłciowy). Czy plemniki są uwalniane do wody, po czym samica chwyta je w skrzela, a następnie wypuszcza na wysokości jajników, czy proces przebiega inaczej (opisany scenariusz uprawdopodobnia anatomia zwierzęcia: położenie skrzeli i jajników). A. aurantiacus wydzielają tony śluzu. To prawdopodobnie pomaga im przywierać "skrzydłami" do dna, a w razie potrzeby, także podróżować po okolicy. Żyjące na dużych głębokościach jelitodyszne wytwarzają duży balon śluzu, który działa jak latający dywan czy poduszkowiec. Zostaje on porwany przez prąd morski i tak zaczyna się miniodyseja. By jakakolwiek wyprawa doszła w ogóle do skutku, A. aurantiacus pozbywają się zawartości przewodu pokarmowego. Na terenie wschodniego Pacyfiku na głębokości 2900-3500 m sfilmowano 10 osobników. Jeden dryfował kilka centymetrów nad dnem (zapewne na bąblu ze śluzu), a 7 było częściowo zagrzebanych, co odzwierciedla bentopelagiczny tryb życia A. aurantiacus. Egzemplarz uznany za holotyp gatunku ma 26 cm. Wszystkie rejony ciała A. aurantiacus są bardziej umięśnione niż u innych Torquaratoridae, co zapewne stanowi przystosowanie do zakopywania. W każdym większym jajniku znajduje się pojedynczy pęcherzyk pierwszorzędowy o średnicy do 1500 μm. Całość wystaje na zewnątrz w postaci epidermalnej sakiewki, przymocowanej do ciała za pomocą wąskiej szypuły. Po czerwcu 2002 r. Amerykanie odkryli jeszcze kilkanaście jelitodysznych z tej samej rodziny (Torquaratoridae). Wszystkie mają "skrzydła" i zewnętrzne jajniki. Co ciekawe, pewien gatunek blisko spokrewniony z A. aurantiacus wykorzystuje skrzydła do ochrony potomstwa. Pod fałdami jednej samicy biolodzy zobaczyli dobrze rozwinięte jaja oraz kilka larw.
-
Nowatorskie badania przeprowadzone przez doktora Richarda Streetera wykazały, że nieuleganie zmianom i trzymanie się tradycyjnego sposobu życia prawdopodobnie uratowały populację Islandii. Naukowcy chcieli sprawdzić, jak Islandczycy poradzili sobie z wyjątkowo trudnymi warunkami naturalnymi, z którymi mieli do czynienia w późnym średniowieczu. Wiele słyszeliśmy o tym, że społeczeństwa muszą być elastyczne, ale w tym przypadku wydaje się, że to właśnie niepoddawanie się zmianom pozwoliło temu społeczeństwu na zdumiewająco szybkie odrodzenie się po zarazach i zmianach klimatu - mówi Streeter, który wyniki swoich badań opisał w Proceedings of the National Academy of Sciences (PNAS). Na początku i pod koniec XV wieku Islandię nawiedziły dwie fale zarazy. Uczeni przypuszczają, że podczas pierwszej z nich wymarła połowa populacji. Jak by tego było mało częste erupcje wulkaniczne spowodowały, że znaczna część ziemi uprawnej nie nadawała się do użytku. Ponadto od początku XIV wieku w Europie było coraz chłodniej, nastała Mała Epoka Lodowcowa. Wszystkie te czynniki mogły zmusić Islandczyków do opuszczenia swojej wyspy. Jednak tak się nie stało. W tym czasie byt ludności Islandii zależał od zwierząt, przede wszystkim owiec i krów. Wymarcie połowy ludności spowodowało, że trudno było dbać o stada. Naukowcy postanowili sprawdzić osady wulkaniczne, by dowiedzieć się, jak wyglądał wówczas wypas zwierząt. Islandia jest świetnym miejscem do tego typu badań, gdyż aktywność wulkanów powoduje, że ciągle pojawiają się nowe osady. W niektórych miejscach poziom gruntu podnosi się aż o 0,5 mm rocznie. Dzięki temu, że nowe warstwy pyłu przykrywały dotychczasowe, zachhowało się wiele śladów. To pozwala na zbadanie, na podstawie erozji, wzorców wyjadania trawy, dzięki czemu wiemy, jakie zwierzęta i gdzie były wypasane. Jeśli wskutek działania czynników zewnętrznych społeczność popadłaby w apatię i nie radziła sobie z nagłym ubytkiem rąk do pracy, stada zdziczałych owiec zaczęłyby przemieszczać się samopas, doprowadzając do zwiększenia erozji na wyżej położonych terenach. Nawet jeśli udałoby się tego uniknąć, to istniało jeszcze jedno niebezpieczeństwo. Islandczycy mogli zrezygnować z hodowli krów na rzecz łatwiejszych w utrzymaniu owiec, które jednak bardziej niszczą glebę. Badania wykazały, że nic takiego się nie stało. Islandczycy pozostali przy swoim dotychczasowym trybie życia, zmniejszyli jedynie skalę hodowli. Porzucenie krów na rzecz owiec mogło być sposobem na poradzenie sobie z następstwami epidemii, ale nie ma dowodów, by do tego doszło. Jeśli tak by się stało, powinniśmy dostrzec zwiększoną erozję gleby spowodowaną całorocznym wypasem owiec - mówi Streeter. Jeśli Islandczycy porzuciliby stada lub zastąpili krowy owcami, najprawdopodobniej doprowadziłoby to do takiej erozji, że musieliby opuścić wyspę. Klimat był bardzo nieprzyjazny do XVIII wieku, ponadto w 1783 roku doszło do erupcji wulkanu Laki, która zapoczątkowała debatę o konieczności opuszczenia wyspy. Gdyby wcześniej doszło do dużej erozji, społeczeństwo znalazłoby się wówczas na krawędzi - dodaje naukowiec. Historię Islandii można szczegółowo badać nie tylko dzięki erupcjom wulkanów, ale także dzięki szczegółowym zapiskom, które zostawili mieszkańcy. Nie tylko wiemy, że w 1341 roku doszło do dużej erupcji Hekli. Wiemy też, że miała ona miejsce 19 maja o godzinie 9 rano - stwierdza Streete.
-
Zdaniem profesora Davida Smitha z University of Buffalo, jednego z najwybitniejszych specjalistów zajmujących się psychologią porównawczą, coraz większa liczba naukowców wyraża pogląd, że zwierzęta posiadają podobne zdolności metapoznawcze co ludzie. Metapoznanie to zdolność do refleksji nad własnym procesem myślowym oraz umiejętność kierowania nim i optymalizowania go. Smith wraz z Justinem Couchmanem ze State University of New York i Michaelem Beranem z Georgia State University opublikowali w Philosophical Transactions of the Royal Society artykuł pod tytułem „The Highs and Lows of Theoretical Interpretation in Animal-Metacognition Research“. W dzisiejszej psychologii porównawczej metapoznanie zwierzęce jest jednym z głównych przedmiotów badań. Oczywiście niesie to ze sobą problemy związane z interpretacją oraz możliwym wpływaniem na przedmiot badań - mówi Smith. W arykule uczeni skupili się na standardach badań nad psychologią zwierząt, opisują ich historię, sposoby interpretacji wyników oraz proponują rozwiązania na przyszłość. Artykuł kończy się stwierdzeniem, że makaki radzą sobie z niepewnością dotyczącą poznania podobnie jak ludzie. Drugi tekst Smitha „Animal Metacognition“ ukaże się jeszcze w bieżącym roku w wydanym przez Oxford University Press tomie „Comparative Cognition: Experimental Explorations of Animal Intelligence“. Cały tom będzie, zdaniem Smitha, jednym z najważniejszych podręczników akademickich przyszłej dekady. W „Animal Metacognition“ Smith, który w 1995 roku zapoczątkował badania nad metapoznaniem zwierząt, przedstawia przegląd obecnego stanu wiedzy w tej dziedzinie. Uczony opisuje, jak badał delfiny butlonose i makaki. Oba gatunki potrafiły sygnalizować niepewność, wahanie się, pokazywać, które z postawionych przed nimi zadań jest łatwe, a które trudne. Początkowo przedmiotem badań Smitha był delfin butlonosy. Naukowiec zauważył, że gdy zwierzę uznało, iż jakieś zadanie jest zbyt trudne, wykazywało oznaki wahania, zmartwienia i odmawiało zajmowania się nim. Z drugiej strony, gdy trafiło na łatwe zadanie, sygnalizowało to pływając tak gwałtownie w basenie, że omal nie zniszczyło instrumentów badawczych. Później Smith zaczął się przyglądać makakom, które nauczono posługiwania się dżojstikiem. Małpa nie tylko potrafiła wskazać, kiedy jest niepewna, ale sygnalizowała niepewność również i wówczas, gdy za pomocą stymulacji przezczaszkowej wyczyszczono jej pamięć. Podsumowując Smith stwierdza, że ich zdolności odnoszące się do niepewności poznania oraz adaptowania się do takich sytuacji są bardzo podobne do tych samych procesów zachodzących u ludzi. Co ciekawe, podobnych tak złożonych umiejętności nie zauważono u innych gatunków małp, co ma duże znaczenie dla badań nad pojawieniem się refleksyjnego sposobu myślenia u różnych gatunków małp, małp człekokształtnych i człowieka.
-
Podczas syntezy grafenu wykorzystuje się proces chemicznej redukcji tlenku grafenu (GO). Wymaga on wystawienia GO na działanie hydrazyny. Ten sposób produkcji ma jednak poważne wady, które czynią jego skalowanie bardzo trudnym. Opary hydrazyny są bowiem niezwykle toksyczne, zatem produkcja na skalę przemysłową byłaby niebezpieczna zarówno dla ludzi jak i dla środowiska naturalnego. Naukowcy z japońskiego Uniwersytetu Technologicznego Toyohashi zaprezentowali bezpieczne, przyjazne dla środowiska rozwiązanie problemu. Zainspirowały ich wcześniejsze badania wskazujące, że tlenek grafenu może działać na bakterie jak akceptor elektronów. Wskazuje to, że bakterie w procesie oddychania lub transportu elektronów mogą redukować GO. Japońscy uczeni wykorzystali mikroorganizmy żyjące na brzegach pobliskiej rzeki. Badania przeprowadzone przy wykorzystaniu zjawiska Ramana wykazały, że obecność bakterii rzeczywiście doprowadziła do zredukowania tlenku grafenu. Zdaniem Japończyków pozwala to na opracowanie taniej, bezpiecznej i łatwo skalowalnej przemysłowej metody produkcji grafenu o wysokiej jakości.
- 1 odpowiedź
-
- grafen
- tlenek grafenu
-
(i 2 więcej)
Oznaczone tagami:
-
Naukowcy z Queensland University of Technology (QUT) odkryli, że rośliny odgrywają ważną rolę w jonizacji powietrza. Doktorzy Rohan Jayaratne i Xuan Ling przeprowadzili eksperymenty w 6 miejscach wokół Brisbane. Stwierdzili, że stężenie anionów i kationów w powietrzu było na terenach gęsto zadrzewionych 2-krotnie wyższe niż na otwartych obszarach porośniętych trawą, np. parkach. Jayaratne wyjaśnia, że w atmosferze znajdują się śladowe ilości gazu radonu, który w czasie rozpadu emituje promieniowanie alfa o małej przenikliwości, ale o dużej zdolności jonizującej. Za powstawanie jonów odpowiada też promieniowanie kosmiczne. Radon to produkt rozpadu radu, który naturalnie występuje w skałach i minerałach. Ponieważ rad występuje w skałach, a radon jest rozpuszczalny w wodzie, w wodach gruntowych występuje szczególnie dużo tego pierwiastka. Drzewa działają jak pompy radonu. Najpierw za pomocą korzeni pobierają wodę z Rn, a potem przeprowadzają transpirację [czynne parowanie wody z nadziemnych części roślin]. Szczególnie dobrymi pompami radonu są drzewa z głębokim systemem korzeniowym, np. eukaliptusy. Australijczycy wyliczyli, że w lesie eukaliptusowym, gdy wskaźnik transpiracji jest najwyższy, drzewa odpowiadają za 37% radonu w powietrzu. Naukowcy przypominają, że cząstki naładowane z większym prawdopodobieństwem odkładają się w płucach niż cząsteczki nienaładowane. Nie sądzimy, że jony są niebezpieczne - zagrożenie stwarzają zanieczyszczenia. Jeśli w powietrzu nie ma groźnych cząsteczek, które mogłyby się przyłączyć do jonów, nie ma ryzyka utraty zdrowia.
- 3 odpowiedzi
-
Niewykluczone, że wybitny matematyk, pionier informatyki Alan Turing trafi na banknot 10-funtowy. Petycję w tej sprawie podpisało już 6000 osób. Jeśli tak by się stało Turing zastąpiłby Darwina. Thomas Thurman, autor petycji, napisał w niej, że Turing jest „bohaterem narodowym“. Jego wkład w nauki komputerowe, a zatem w życie naszego narodu i świata jest nie do przecenienia. Jego teorie mają wciąż wpływ na dzisiejsze życie i wpływ ten nigdy nie ustanie. John Graham-Cummings, informatyk, który w 2009 roku rozpoczął udaną kampanię na rzecz wystosowania przez rząd w Londynie oficjalnych przeprosin pod adresem Turinga, zgadza się, że geniusz powinien być pamiętany jako bohater narodowy. Jego zdaniem trudno jednak wybierać pomiędzy Darwinem a Turingiem. Graham-Cummings proponuje postawienie Turingowi narodowego pomnika. Mógłby on zająć pusty czwarty cokół na Trafalgar Square. Na tym najsławniejszym placu Londynu oprócz kolumny Nelsona stoją też pomniki króla Jerzego IV oraz generałów Haveloka i Napiera. Wzniesiono też czwarty cokół, jednak na postawienie na nim pomnika zabrakło pieniędzy. Od kilku lat co roku jest tam stawiane inne dzieło. Zdaniem Cummingsa, stałe miejsce na cokole mógłby zająć Turing. Decyzję o tym, czy Turing zagości na banknotach podejmie Gubernator Banku Anglii. W Wielkiej Brytanii od 1970 roku uwiecznia się na banknotach znaczące postaci. Turing mógłby trafić na 10-funtowy banknot serii F. Druk tej serii rozpoczął się w 2007 roku, wraz z pojawieniem się 20-funtowego banknotu, na którego rewersie umieszczono portret Adama Smitha, ojca współczesnej ekonomii politycznej i koncepcji wolnego rynku.
- 1 odpowiedź
-
- Alan Turing
- Karol Darwin
-
(i 2 więcej)
Oznaczone tagami:
-
W modelu mysim immunosupresja związana z zakażeniem pierwotniakami Toxoplasma gondii zmniejsza liczbę blaszek amyloidowych, a także poprawia wyniki osiągane w testach behawioralnych, np. labiryncie wodnym. Eun-Hee Shin ze College'u Medycznego Narodowego Uniwersytetu Seulskiego, główna autorka artykułu opublikowanego w PLoS ONE, postanowiła sprawdzić, w jaki sposób hamowanie procesu wytwarzania przeciwciał i komórek odpornościowych przez T. gondii wpłynie na patogenezę i postępy choroby Alzheimera. Do badań wybrano szczep myszy Tg2576. Gryzonie zainfekowano tworzącym cysty szczepem ME49. Badano poziom mediatorów zapalnych (tlenku azotu(II) i interferonu gamma) oraz cytokin przeciwzapalnych (interleukiny 10 oraz transformującego czynnika wzrostu beta). Oceniano też uszkodzenia neuronów i odkładanie złogów beta-amyloidu w tkankach mózgu. Poza tym Koreańczycy przeprowadzili testy behawioralne, w których brały udział zarówno myszy Tg2576 zakażone T. gondii, jak i wolne od zakażenia (grupa kontrolna). Zwierzęta musiały pokonywać labirynt wodny Morrisa (gdzie w dużym okrągłym basenie pod powierzchnią wody ukryta jest platforma) oraz lądowy w kształcie litery Y. Okazało się, że po zakażeniu pierwotniakiem poziom interferonu gamma nie ulegał zmianie, za to stężenia cytokin przeciwzapalnych były o wiele wyższe u myszy z grupy eksperymentalnej. W korze i hipokampie gryzoni zainfekowanych T. gondii znacznie zmniejszało się odkładanie beta-amyloidu.
- 1 odpowiedź
-
- Toxoplasma gondii
- zakażenie
- (i 5 więcej)
-
Trzymając w rękach broń, częściej zakładamy, że inni też ją mają. Prof. James Brockmole z University of Notre Dame przeprowadził z kolegą z Purdue University 5 eksperymentów. Ochotnikom pokazywano na komputerze serię zdjęć. Mieli oni określić, czy osoba na zdjęciu trzyma broń, czy neutralny obiekt, np. telefon komórkowy. Badani wykonywali zadanie, dzierżąc w dłoniach zabawkową broń albo coś neutralnego, np. piłeczkę. Naukowcy różnicowali przebieg poszczególnych eksperymentów. Czasem ludzie ze zdjęć nosili kominiarki; zmieniano też ich rasę oraz wymagany sposób reagowania, gdy badanym wydawało się, że mają oni ze sobą broń. Bez względu na scenariusz, ochotnicy częściej widzieli na fotografiach broń, gdy trzymali broń, a nie piłkę. Na zdolność obserwatora do wykrycia i skategoryzowania obiektu jako broni wpływają przekonania, oczekiwania i emocje. Teraz wiemy, że jego zdolność do zachowania się w określony sposób [możliwość skorzystania z broni] także bardzo zmienia rozpoznanie obiektu. Wydaje się, że ludzie mają spory problem z oddzieleniem tego, co postrzegają, od własnych myśli o tym, co mogliby [...] zrobić. Psycholodzy udowodnili, że u podłoża zaobserwowanego zjawiska leży możność działania. Okazało się bowiem, że sam widok leżącej obok broni w ogóle nie wpływał na ochotników. By coś się stało, trzeba było ją trzymać. Wyniki poprzednich badań wskazują, że ludzie postrzegają właściwości przestrzenne otoczenia w kategoriach zdolności do wykonania w nim zamierzonego działania. Brockmole wyjaśnia, że na takiej zasadzie osoby z szerszymi ramionami postrzegają drzwi jako węższe. Jak widać, w przypadku broni dzieje się coś podobnego...
- 2 odpowiedzi
-
- broń
- postrzeganie
-
(i 3 więcej)
Oznaczone tagami:
-
Najpotężniejszy impuls laserowy umożliwi fuzję jądrową
KopalniaWiedzy.pl dodał temat w dziale Technologia
Przed tygodniem w National Ignition Facility (NIF) uzyskano rekordowo silny impuls lasera. W ramach badań nad nowymi źródłami energii 192 lasery wysłały jednocześnie ultrafioletowe impulsy świetlne w kierunku centralnej komory, w której uzyskano 1,875 megadżula. Każdy z impulsów trwał 23 miliardowe części sekundy i w sumie wygenerowały one moc 411 biliardów watów (TW) czyli 1000 razy większą niż potrzebna jest do zasilenia całych Stanów Zjednoczonych. To ważny krok w kierunku rozpoczęcia fuzji. Podczas przygotowań do uruchomienia NIF dokonywaliśmy wielu podobnych prób, podczas których uruchamiany był jeden laser czy też zestawy po cztery. Tym razem jednak jednocześnie wystrzeliły 192 lasery - mówi Edward Moses, dyrektor NIF. Moc laserów NIF wynosi w sumie 2,03 MJ, jednak zanim promienie dosięgną centralnej komory ich moc nieco spada ona podczas przechodzenia przez instrumenty diagnostyczne i optykę. NIF jest zatem pierwszym ośrodkiem, w którym lasery ultrafioletowe osiągnęły moc 2 MJ. To niemal 100-krotnie więcej niż możliwości innych podobnych ośrodków. Podczas testu osiągnięto też bardzo dużą precyzję produkcji energii. Odchylenie nie przekraczało 1,3%. Precyzja jest niezwykle ważna, gdyż to rozkład energii pomiędzy poszczególnymi promieniami będzie decydował o symetrii implozji w kapsułach zawierających paliwo niezbędne do rozpoczęcia fuzji. National Ignition Facility pracuje w ramach Lawrence Livermore National Laboratory. O otwarciu zakładu oraz jego zadaniach informowaliśmy w 2009 roku.-
- National Ignition Facility
- laser
-
(i 2 więcej)
Oznaczone tagami:
-
Globalne ocieplenie i wywołane nim wycofywanie się lodu w Arktyce umożliwiły łatwiejszy dostęp do tamtej części globu. W połowie sierpnia ma rozpocząć się układanie pierwszego podmorskiego kabla telekomunikacyjnego w Oceanie Arktycznym. Połączy on Tokio i Londyn, a dzięki niemu czas oczekiwania na sygnał komunikacyjny pomiędzy oboma miastami skróci się z obecnych 230 do 168 milisekund. Obecnie planowane jest ułożenie trzech kabli. Dwa będą podążały Przejściem Północno-Zachodnim, a jeden wzdłuż wybrzeży Rosji. Najdłuższy z nich będzie jednocześnie najdłuższym pojedynczym włóknem optycznym. Kładzenie kabla w Arktyce będzie trudnym i niebezpiecznym zadaniem, ponadto prace będzie można prowadzić tylko przez kilka miesięcy w roku. Jednak, jak mówi Dennis Cezarenko, dyrektor Polarnet Project, ma to tę zaletę, że kablowi nie będą zagrażały trawlery i kotwice, które kilka razy w roku przerywają kable w cieplejszych wodach. W kablach biegnących na północ od Ameryki Północnej sygnał będzie wzmacniany co 50-100 kilometrów za pomocą optycznych wzmacniaczy. Planowane jest też wydrążenie tunelu w przesmyku Boothia, dzięki czemu nie trzeba będzie prowadzić kabla wokół półwyspu Boothia. Z kabla skorzystają też izolowane, lokalne społeczności w kanadyjskiej Arktyce.
-
- kabel telekomunikacyjny
- Londyn
-
(i 4 więcej)
Oznaczone tagami:
-
Specjaliści odkryli niezwykle rzadki, możliwe że jedyny w swoim rodzaju, szkodliwy kod, który nie pozostawia na zarażonym komputerze żadnych plików. Odkrycia dokonali eksperci z Kaspersky Lab, którzy zauważyli na rosyjskich witrynach kod atakujący dziurę w Javie. Kod ładuje się bezpośrednio do pamięci komputera i nie pozostawia na dysku twardym żadnych plików. Szkodliwy kod JavaScript korzysta z elementu iFrame i wstrzykuje szyfrowaną bibliotekę (.dll) bezpośrednio do procesu Javaw.exe. Wydaje się, że kod ma na celu wyłączenie mechanizmu User Account Control (UAC) oraz umożliwienie komunikowania się serwera cyberprzestępców z komputerem ofiary i ewentualnie wgranie nań trojana Lurk, wyspecjalizowanego w kradzieży danych. Z naszych analiz protokołu komunikacyjnego używanego przez Lurk wynika, że w ciągu ostatnich miesięcy serwery przestępców przetworzyły do 300 000 zapytań od zainfekowanych komputerów - stwierdził Siergiej Gołowanow z Kaspersky Lab.
-
- szkodliwy kod
- atak
-
(i 2 więcej)
Oznaczone tagami:
-
Widłonogi z rodzaju Pontella wyskakują z wody, by uciec drapieżnikom. W powietrzu lecą dalej niż w wodzie, poza tym czyhającym na nie rybom trudno oszacować, gdzie wylądują. Pierwsze doniesienia o latających widłonogach pochodzą już z końca XIX w., wtedy jednak sądzono, że wyskakiwanie z wody pomaga w linieniu. Później także wspominano o tym zjawisku, jednak nie przeprowadzano eksperymentów czy badań, które miałyby potwierdzić, że "skok wzwyż" to metoda na przechytrzenie drapieżników. Dr Brad Gemmell z Uniwersytetu Teksańskiego w Austin przypomina, że kontaktom drapieżnik-ofiara w kilkumilimetrowej warstwie tuż pod powierzchnią wody (neustonie) poświęcano dotąd niewiele uwagi, a szkoda, "bo to unikatowy i ważny habitat". Amerykanin stwierdził, że to dziwne, że Pontella są tak rozpowszechnione w miejscu, gdzie powinny być łatwym łupem dla ryb. W odróżnieniu od reszty swoich pobratymców nie migrują bowiem w czasie dnia na większe głębokości, by w ciemności ukryć się przed czyimiś głodnymi oczami. Zamiast się chować, pozostają blisko powierzchni wody, w dodatku są stosunkowo duże i nierzadko jaskrawozielone lub niebieskie, co zapewnia ochronę przed szkodliwym promieniowaniem ultrafioletowym. Skoro ktoś wygląda i zachowuje się, jakby chciał powiedzieć "halo, tu jestem", jak udaje mu się przetrwać? Odpowiedzią jest niezwykłe zacięcie widłonogów do skakania. Okazuje się, że w powietrzu potrafią one pokonać dystans stanowiący nawet 40-krotność długości ich ciała, która oscyluje wokół kilku milimetrów. Gemmel i inni wyliczyli, że na pokonanie napięcia powierzchniowego widłonogi zużywają 88% początkowej energii kinetycznej. Ze względu na niższą gęstość powietrza, w tym środowisku podróżują dalej niż pod wodą. Frunąc, skorupiaki wirują: wykonują 7500 obrotów na minutę. Ryby latające tracą mniej energii na przebicie się przez wodę, bo więcej ważą. W artykule opublikowanym na łamach Proceedings of the Royal Society B naukowcy wyjaśniają, że Pontella muszą balansować między (wzrastającym) ryzykiem pożarcia przez rybę a unikaniem niepotrzebnego wydatkowania energii. Decydując się na skok, mały skorupiak musi wziąć pod uwagę dodatkowe czynniki, w tym logistyczne. By nie wpaść z deszczu pod rynnę, trzeba w końcu sprawdzić, czy wydostając się z zasięgu jednych szczęk, nie natknie się na inne. Jak zwykle w takich przypadkach bywa, odkrycie możliwości widłonogów to w dużej mierze dzieło przypadku. Po lunchu Gemmell lubi bowiem przechadzać się przy uniwersyteckiej marinie. Pewnego razu zobaczył dziwny wzór na wodzie. Przypominał krople deszczu rozbijające się na powierzchni. Zafascynowany biolog wrócił do laboratorium i chwycił za zlewkę, by pobrać próbkę wody. Znalazł w niej widłonogi, które trafiły do akwarium z żywiącymi się planktonem rybami. Maleństwa unikały jednak ataków, skacząc nad wodą jak pchły. W kolejnym etapie badań zespół wybrał się do mariny z kamerą. Dzięki nagraniu zidentyfikowano dwa gatunki widłonogów: 1) Anomalocera ornata (to one znajdowały się w próbce pobranej po lunchu) oraz spokrewnione z nimi 2) Labidocera aestiva. Zarejestrowano wyczyny 89 A. ornata (metoda "skokowa" była bardzo skuteczna, bo na 89 zjedzono tylko 1 osobnika). Okazało się, że zwierzęta osiągają prędkość ok. 0,66 m/s i mogą wylądować po pokonaniu 17 cm. Po zakończeniu prac w terenie Amerykanie rozpoczęli eksperymenty w laboratorium. Za pomocą szybkiej kamery filmowali pod wodą moment wybicia L. aestiva. Okazało się, że widłonogi wprawiały się w ruch za pomocą pojedynczego sukcesywnego uderzenia odnóżami. Amerykanie podejrzewają, że niektóre gatunki widłonogów mogły sobie wypracować przystosowania ułatwiające wyskakiwanie. Wspominają m.in. o wstrzykiwaniu substancji 3-6-krotnie zmniejszających napięcie powierzchniowe wody.
-
Amerykański Sąd Najwyższy jednogłośnie oświadczył, że nie wolno patentować testów medycznych, które polegają na badaniu zależności pomiędzy dawkami leków a ich efektami terapeutycznymi. Sędzia Stephen Breyer, który napisał uzasadnienie wyroku stwierdził, że prawa natury nie mogą być patentowane same w sobie lub w połączeniu z procesami składającymi się z dobrze rozumianych, standardowych, konwencjonalnych działań. Sporna sprawa dotyczyła interakcji pomiędzy tiopurynami a metabolitami z krwi pacjenta. Firma Prometheus Laboratories opracowała metodę, pozwalającą lekarzom na określenie bezpiecznej skuteczniej dawki tiopuryn. Po jakimś czasie nieco inną metodę opracowali lekarze z Mayo Clinic. Wówczas Prometheus pozwała klinikę o naruszenie dwóch patentów. Spór dotarł aż do Sądu Najwyższego. Sędzia Breyer stwierdził, że podstawą wynalazku Prometheusa są prawa natury, a konkretnie „związek pomiędzy koncentracją pewnych metabolitów we krwi, a prawdopodobieństwem, iż dawka tiopuryn będzie nieskuteczna bądź szkodliwa“. Sędzia zauważył, że Einstein nie mógłby opatentować swojego słynnego twierdzenia, opracowując proces, który polegałby na poinformowaniu operatorów akceleratorów cząstek, by brali pod uwagę prawo dotyczące produkcji energii z masy. Zdaniem sędziego Prometheus robi dokładnie to samo, po prostu mówi lekarzom, by zebrali dane, na podstawie których mogą określić prawdopodobieństwo pojawienia się interferencji pomiędzy metabolitami a tiopurynami. Sąd Najwyższy odrzucił też sugestię rządu federalnego, by wstępnie zezwolić na przyznawanie podobnych patentów, a które mogłyby być obalane jeśli udowodni się ich oczywistość.
-
Ibuprofen znacząco zmniejsza częstość występowania choroby wysokościowej (Annals of Emergency Medicine). Nierozpoznana lub nieleczona ostra choroba wysokościowa może prowadzić do często śmiertelnego wysokogórskiego obrzęku mózgu (ang. high-altitude cerebral edema, HACE). W ramach studium prof. Granta Lipmana ze Szkoły Medycznej Uniwersytetu Stanforda 58 mężczyzn i 28 kobiet wybrało się w Góry Białe w Kalifornii. Spędzili noc na wysokości 4100 stóp, czyli ok. 1250 m. O ósmej rano przed rozpoczęciem wspinaczki do punktu etapowego na wysokości 11700 stóp (3566 m) podano im 600 mg ibuprofenu albo placebo. Po dotarciu do bazy o 14 zaaplikowano im kolejną dozę, ostatnią połknęli na wysokości 12570 stóp (3831 m) o 20, a więc niedługo przed położeniem się na spoczynek na szczycie góry. W grupie 44 ochotników, którzy dostali ibuprofen (ponieważ próba była podwójnie ślepa, ani sami ochotnicy, ani badacze nie wiedzieli, kto co zażył), 19 (43%) miało objawy choroby wysokościowej. Dla porównania: w 42-osobowej grupie placebo odnotowano je u 29 członków (69%). Oznacza to, że ibuprofen zmniejszył częstość występowania choroby wysokościowej aż o 26%. Amerykanie podkreślają, że objawy, które wystąpiły u badanych zażywających ibuprofen, były lżejsze, choć różnica pomiędzy grupami nie osiągnęła poziomu istotności statystycznej. Profil bezpieczeństwa ibuprofenu sprawia, że jest on atrakcyjniejszą alternatywą niż deksametazon [syntetyczny glikokortykosteroid o silnym i długotrwałym działaniu przeciwzapalnym, przeciwalergicznym], który powiązano z hiperglikemią, supresją nadnerczy, majaczeniem, depresją, bezsennością i manią. Efekty uboczne [drugiego z leków stosowanych w zapobieganiu chorobie górskiej] acetazolamidu - mdłości, zawroty głowy i zmęczenie - są zazwyczaj dobrze tolerowane, ale zdarza się, że upośledzają działanie w takim samym stopniu jak ostra choroba wysokościowa. Badacze z Uniwersytetu Stanforda przekonują, że sama dostępność ibuprofenu jest jego dużym plusem. Dodatkowo można go zażyć na 6 godzin przed wyjściem w góry, podczas gdy o połknięciu acetazolamidu trzeba pomyśleć dzień przed wyprawą. Autorzy artykułu dodają, że choć 600 mg ibuprofenu zapewni najlepszą ochronę, należy wziąć pod uwagę możliwość problemów żołądkowo-jelitowych i nerkowych u odwodnionych przez wysiłek turystów.
- 3 odpowiedzi
-
- ibuprofen
- choroba wysokościowa
-
(i 2 więcej)
Oznaczone tagami: