-
Liczba zawartości
37655 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
249
Zawartość dodana przez KopalniaWiedzy.pl
-
Udostępniono najnowszą listę TOP500 - zestawienie 500 najpotężniejszych superkomputerów na świecie. Jak już wcześniej pisaliśmy, na czele listy po raz pierwszy od lat znalazł się superkomputer spoza Stanów Zjednoczonych. Chińska maszyna Tianhe-1A charakteryzuje się wydajnością 2,566 PFlops. Wykorzystuje ona procesory Intel Xeon X5670 oraz GPU Nvidii. Na drugim miejscu znalazł się amerykański Jaguar o wydajności niemal 1,8 petaflopsa. Trzecie miejsce przypadło chińskiemu superkomputerowi Nebulae (1,247 PFlops), czwarte japońskiemu Tsubame (1,192 PFlops), a piąte amerykańskiemu Hooperowi (1,054 PFlops). Wśród komputerów, które przekroczyły petaflops znalazły się też francuski Tera-100 (1,050 PFlops) oraz amerykański Roadrunner (1,042 PFlops). Wśród 10 najpotężniejszych supermaszyn pięć znajduje się w USA, dwa pochodzą z Chin, a po jednym z Japonii, Francji i Niemiec. Najwięcej komputerów na TOP500 umieściły, jak zwykle, USA. Z kraju tego pochodzą aż 274 maszyny. Na drugim miejscu, z 41 superkomputerami, uplasowały się Chiny. Jeszcze przed rokiem Państwo Środka miało na liście 21 maszyn, co dawało mu dopiero 5. pozycję. Po 26 superkomputerów pochodzi z Francji, Niemiec i Japonii, a Wielka Brytania, która przed rokiem zajmowała 2. miejsce, obecnie spadła na 4. pozycję z 25 maszynami. Najwięcej superkomputerów - 398 - korzysta z układów Intela. W tym 392 używa architektury EM64T, 5 maszyn korzysta z IA-64 a jedna z architektury Core. Procesorów AMD używa 57 superkomputerów. Wszystkie korzystają z architektury x86_64. Kolejne 40 maszyn wykorzystuje architekturę Power. Najpopularniejszą rodziną systemów operacyjnych instalowanych na superkomputerach pozostaje Linux. Używany jest na 459 maszynach. System spod znaku pingwina zwiększa swoją popularność kosztem Uniksa. Ten z kolei jest wykorzystywany na 19 superkomputerach. Pięć maszyn używa systemu Windows, a 16 maszyn korzysta z systemów mieszanych.
-
Jak załatać mikropęknięcia w betonie? Nie jest to łatwe ani tanie, tym ważniejsze wydaje się więc nowatorskie rozwiązanie zaproponowane przez zespół studentów z Newcastle University – zmodyfikowane genetycznie bakterie, które produkują w takich razach coś na kształt kleju. Kiedy dojdzie do uszkodzenia, mikroby migrują na sam dół szczeliny. Gdy już się tam znajdą, wytwarzają mieszaninę węglanu wapnia oraz kleju bakteryjnego. Wszystko to łączy się w całość z koloniami komórek bakteryjnych (filamentami), tak że ostateczna wytrzymałość miniłaty jest taka sama jak otaczającego materiału. Wg wynalazców i ich opiekunki dr Jennifer Hallinan, BacillaFilla, bo taką nazwę nadano niby-klejowi, jest doskonałym rozwiązaniem w przypadku remontów/napraw struktur, których budowa była bardzo kosztowna dla środowiska. Około 5% związanej z działalnością człowieka emisji dwutlenku węgla pochodzi z produkcji betonu, czyniąc z niego jeden z głównych elementów przyczyniających się do globalnego ocieplenia. Sensowne wydaje się zatem zabieganie o przedłużenie przydatności już raz wyprodukowanego betonu. Zaprezentowana na organizowanym przez MIT międzynarodowym konkursie naukowym International Genetically Engineered Machines (iGEM) metoda będzie nieoceniona w strefach trzęsień ziemi, gdzie przy obecnie dostępnych technologiach wiele budynków trzeba po prostu wyburzać. Młodzi naukowcy nie tylko oceniali użyteczność zmodyfikowanych bakterii, ale i potencjalne zagrożenia środowiskowe. Okazało się, że spory BacillaFilla zaczynają kiełkować tylko w kontakcie z betonem – germinację wyzwala specyficzne pH materiału. Poza tym wbudowano w nie gen samozniszczenia, który uniemożliwia przeżycie w innym środowisku. Po wykiełkowaniu bakterie udają się do strefy pęknięcia. Wskutek zbijania się w masę wyczuwają, kiedy znajdą się na dnie. Nagromadzenie aktywuje proces naprawczy. Komórki różnicują się w 3 typy: 1) komórki produkujące kryształy węglanu wapnia, 2) komórki tworzące filament (zostają one połączone specjalnymi porami, które umożliwiają silniejsze związanie i polepszają transport) oraz 3) komórki wytwarzające klej Levansa.
- 1 odpowiedź
-
- beton
- mikropęknięcia
-
(i 3 więcej)
Oznaczone tagami:
-
Doktor Bruno Michel z IBM Zurich twierdzi, że w ciągu kilkunastu lat mogą powstać superkomputery wielkości... kostki cukru. Będzie to możliwe dzięki nowemu podejściu do projektowania komputerów, które umożliwi układanie procesorów jeden na drugim. Układy będą chłodzone wodą przepływającą pomiędzy nimi. Architektura, nad którą pracuje IBM, nie ma jednak na celu zmniejszanie wielkości superkomputerów, a zbudowanie energooszczędnych maszyn. Obecnie około 2% światowego zużycia energii przypada na sprzęt komputerowy. Zdaniem Michela, w przyszłości musimy skupić się nie na zwiększaniu mocy komputerów a na zmniejszaniu przez nie zużycia energii. Michel wraz z zespołem zaprezentowali prototypowy system Aquasar. Rozmiarami przekracza on znacznie kostkę cukru, gdyż jest większy od lodówki. Jednak Aquasar zużywa o niemal 50% mniej energii niż najbardziej wydajne superkomputery. Jak zauważył Michel, w przeszłości podstawowym problemem były ceny sprzętu. Przed 50 lat pojedynczy tranzystor kosztował dolara. Obecnie koszty produkcji pojedynczego tranzystora są stukrotnie mniejsze od kosztów wydrukowania pojedynczego znaku na papierze. Tak znaczący spadek cen spowodował, że koszty nie są już przeszkodą na drodze do powstania superkomputerów przyszłości. Tym, co martwi specjalistów, są koszty energii potrzebnej mu do pracy. Michel przewiduje, że w przyszłości koszty operacyjne centrum bazodanowego będą wyższe niż koszty jego budowy. A do gwałtownego wzrostu zapotrzebowania na energię przyczynia się konieczność chłodzenia systemów komputerowych. Dlatego też coraz większą wagę przywiązuje się do zużycia energii. Obecnie najbardziej wydajne superkomputery są w stanie wykonać około 770 milionów operacji na sekundę zużywając przy tym 1 wat mocy. Aquasar zużywa 1 wat wykonując 1,1 miliarda operacji na sekundę. System jest jednak dość duży, dlatego też Michel i jego zespół pracują nad jego zmniejszeniem. "Obecnie zbudowaliśmy system Aquaser, który składa się z szafy pełnej procesorów. Planujemy, że za 10-15 lat zmniejszymy go do rozmiarów kostki cukru" - mówi Michel. Przed naukowcami piętrzą się jednak poważne problemy. Samo dostarczenie danych do miejsca, gdzie są one używane do przeprowadzenia obliczeń wymaga 1000-krotnie więcej energii niż jest zużywane podczas liczenia. Ponadto samo przesyłanie danych jest głównym czynnikiem opóźniającym wszelkie operacje logiczne. Systemy muszą być zatem chłodzone nie tylko tam, gdzie odbywają się obliczenia, ale również i tam, gdzie przesyłane są dane. Zapewnianie odbioru ciepła jest niezwykle skomplikowaną operacją. Jak mówi Michel, układ składający się z 1 miligrama tranzystorów wymaga obecnie urządzeń chłodzących o wadze 1 kilograma. Potrzebne jest zatem nowe podejście do kwestii przesyłania danych, obliczeń i chłodzenia. Im większy dystans dzieli układy, tym więcej energii jest zużywane i tym więcej ciepła wydzielane. Rozwiązaniem problemu byłoby układanie procesorów na sobie. Taka architektura wymaga jednak opracowania nowych systemów chłodzących.
- 1 odpowiedź
-
Międzynarodowy zespół naukowców otworzy w poniedziałek (15 listopada) grób XVI-wiecznego duńskiego astronoma Tycho Brahe. Specjaliści mają nadzieję, że już wkrótce uda się wyjaśnić przyczynę jego nagłej śmierci. W 1601 r. astronoma pogrzebano w Pradze w kościele Najświętszej Marii Panny przed Tynem. Naukowiec przebywał w stolicy Czech na zaproszenie Rudolfa II Habsburga, cesarza Świętego Cesarstwa Rzymskiego Narodu Niemieckiego i króla Czech w latach 1576-1611. Brahe wyemigrował z Danii, porzucając wskutek konfliktu z Chrystianem IV założone na wyspie Ven obserwatorium w Uraniborg. Najpierw mieszkał w Niemczech, a po dwóch latach osiadł w Pradze. Duńczyk zaobserwował w 1572 r. gwiazdę supernową w gwiazdozbiorze Kasjopei, poza tym opracował katalog położenia 977 gwiazd. Choć wiele wiadomo o jego pracy, niewiele można nadal powiedzieć o przyczynach śmierci. Długo podejrzewano infekcję pęcherza, która miała być skutkiem niechęci do występowania przeciwko dworskiej etykiecie, zabraniającej wychodzenia z przyjęcia do toalety. W 1996 r. w Szwecji, a potem Danii przeprowadzono jednak badania włosów, m.in. z wąsów, które pozyskano w czasie pierwszej ekshumacji z 1901 r. Wykazały one wysokie stężenia rtęci. Wtedy zaczęto podejrzewać, że astronom uległ śmiertelnemu zatruciu, a może i został nawet zamordowany. Obecnie pracami duńsko-czeskiego zespołu kieruje Jens Vellev, profesor archeologii średniowiecznej z Uniwersytetu w Århus. Ujawnił on, że 9 lat temu zdecydował się zabiegać u władz Pragi i Kościoła o pozwolenie na drugą ekshumację. W 1901 r. nie sporządzono bowiem odpowiedniego raportu. Ponownie zostaną pobrane próbki włosów i kości. Naukowcy zastosują różne metody badawcze, m.in. tomografię komputerową oraz emisję promieniowania rentgenowskiego wywołaną przez cząstki (protony) – PIXE. W tym ostatnim przypadku analizuje się widmo promieniowania rentgenowskiego, emitowanego przez materiał bombardowany wiązką naładowanych cząstek z akceleratora. Eksperci mają nadzieję, że zdołają ustalić spożycie rtęci w ostatnich tygodniach życia astronoma (najprawdopodobniej zażywał on przeciwbólowe lekarstwo z rtęcią). Vellev nie spodziewa się, by doszło do ostatecznego rozstrzygnięcia sporu związanego z przyczyną śmierci Brahe. Na pewno jednak uda się zdobyć kilka brakujących elementów układanki. Na wydobycie szczątków astronoma i jego pochowanej obok żony archeolodzy mają czas do piątku. Wyniki testów zostaną ujawnione jeszcze w tym roku. Niezwykle ważne jest znalezienie czaszki XVI-wiecznego akademika. Jako student wdał się on bowiem w potyczkę z kolegą arystokratą, który odciął mu kawałek nosa. Wstawiono mu wtedy metalową płytkę. W 1901 r. jej nie znaleziono, a ekipa Velleva chce sprawdzić, z czego była zrobiona.
-
- Praga
- ekshumacja
-
(i 5 więcej)
Oznaczone tagami:
-
Z przeprowadzonych przez OECD analiz wynika, że wbrew wcześniejszym przypuszczeniom, przepustowość sieci komputerowych nie ma związku z rozpowszechnieniem się botnetów. Istnieje jednak związek pomiędzy... piractwem a obecnością botnetów. Badacze z OECD przeanalizowali 190 miliardów spamerskich e-maili pochodzących ze 170 milionów źródeł, które zarchiwizowano w latach 2005-2009. Okazało się, że szybkie łącza nie były skorelowane z obecnością botnetów. W rzeczywistości odkryliśmy odwrotną zależność, wyższa przepustowość łączy była związana z mniejszą aktywnością botnetów - czytamy w raporcie. Zdaniem jego autorów, dzieje się tak dlatego, że operatorzy łączy o wyższej przepustowości dysponują bardziej zaawansowaną technologią, mogą więc lepiej bronić swoich sieci przed cyberprzestępcami. Postanowiono również sprawdzić, na ile zasadne są stwierdzenia wysuwane przez organizacje walczące z piractwem, jakoby ułatwiało ono pracę cyberprzestępcom. Badania wykazały istnienie umiarkowanej pozytywnej korelacji pomiędzy tymi zjawiskami. Innymi słowy tam, gdzie odsetek nielegalnego oprogramowania jest wyższy, notuje się również większa aktywność botnetów. Nie zauważono natomiast związku pomiędzy poziomem wykształcenia ludności a botnetami. Okazało się również, że w sieciach zaledwie 50 dostawców internetu skupia się połowa całej światowej aktywności botnetów. Z kolei 200 największych ISP, którzy kontrolują większość światowych sieci, ma w swoich sieciach 60% ruchu botnetów. To pokazuje, jak ważna jest walka z botnetami ze strony ISP. Specjaliści ds. bezpieczeństwa mogą bowiem zwalczać jedynie serwery kontrolujące botnety. Jednak te są szybko przenoszone w inne miejsca. Przeniesienie liczącego miliony maszyn botnetu to znacznie trudniejsza i bardziej skomplikowana operacja. Dlatego też to właśnie dostawcy sieci we współpracy ze swoimi klientami mogą skutecznie zwalczać botnety. Ze szczegółami raportu można zapoznać się w internecie [PDF].
-
- przepustowość sieci
- botnet
-
(i 2 więcej)
Oznaczone tagami:
-
U niedawno owdowiałych lub przeżywających śmierć dziecka osób w fazie ostrej żałoby, czyli po uznaniu faktu śmierci, występują przyspieszone tętno i inne niekorzystne zmiany w rytmie serca. Może to zwiększać ryzyko zawału oraz nagłej śmierci sercowej. Autorem badań jest Tom Buckley z Uniwersytetu w Sydney, który już w 2009 r. opublikował na łamach Internal Medicine Journal swój pierwszy raport na temat wpływu żałoby na psychologiczne i behawioralne czynniki ryzyka chorób serca. Na tegorocznym forum Amerykańskiego Stowarzyszenia Serca (American Heart Association, AHA) Australijczyk przedstawił kolejne ustalenia dotyczące tego zagadnienia. Dr Buckley podkreśla, że powinno się zwracać szczególną uwagę na żałobników, którzy już wcześniej mieli problemy z sercem. Przydałyby im się nie tylko zapobiegawcze badania kontrolne, ale i obligatoryjna wizyta u lekarza przy wystąpieniu jakichkolwiek objawów ze strony układu sercowo-naczyniowego. Zespół z Sydney przyglądał się 78 przeżywającym żałobę małżonka lub dziecka osobom. W przypadku śmierci męża lub żony badanie przeprowadzano po 2 tyg. od zgonu, a w przypadku śmierci dziecka po upływie pół roku. Następnie wyniki porównano z grupą kontrolną. W grupie eksperymentalnej znalazło się 55 kobiet i 23 mężczyzn w wieku 33-91 lat. Okazało się, że serca ludzi przeżywających stratę biły średnio szybciej od serc przedstawicieli grupy kontrolnej, poza u tych pierwszych częstsze były okresy bardzo szybkiej zmiany rytmu. Naukowcy z antypodów poprosili osoby, których krewny zmarł w szpitalu przed dwoma tygodniami, o noszenie całodobowego monitora pracy serca (badanie EKG Holter). W ten sposób ustalono, że puls wynosił u nich średnio 75 uderzeń na minutę, w porównaniu do 70,7 u osób nieprzeżywających żałoby. Towarzyszyło temu 2-krotnie więcej okresów częstoskurczu nadkomorowego (szybkiego rytmu serca pochodzącego z przedsionków lub węzła przedsionkowo-komorowego). Niekorzystne zjawiska zanikały w ciągu pół roku od śmierci kogoś bliskiego. To wyjaśniałoby, czemu niektóre studia wskazywały, że zawały serca i nagła śmierć sercowa są powszechniejsze u osób od niedawna owdowiałych lub zmagających się ze śmiercią dziecka, a potem ryzyko wydaje się z czasem zmniejszać. Choć nasze badania nie wskazują [na razie] na przyczynowość, są spójne z dowodami na wywoływanie wydarzeń sercowo-naczyniowych przez psychikę.
- 3 odpowiedzi
-
Skąd owady, np. chrząszcze, wiedzą, kiedy przyszedł czas na wyczyszczenie stóp, które pozwalają im na wspinanie się po różnie ukształtowanych powierzchniach? Wskazówką jest spadek tarcia. Wydaje się, że odkrycie ma znaczenie wyłącznie dla entomologów, ale to nieprawda. Z nowych danych skorzystają zapewne także robotycy oraz naukowcy pracujący na metodami pomiaru skażenia (Proceedings of the Royal Society B). Odnóża owadów pokrywają często sety, zwane przeważnie po prostu włoskami. Są one jednokomórkowymi tworami, uformowanymi przez komórki naskórka. Wytwarzają substancję, która nie jest lepka, ale zwiększa przyciąganie międzycząsteczkowe. Świadome tego rośliny bronią się lub wykorzystują opisane zjawisko na swoją korzyść, zaburzając działanie włosków za pomocą brudzących stopy kryształów wosku. Dobrym przykładem są np. dzbaneczniki, których wosk sprawia, że owady zsuwają się po liściach pułapkowych i wpadają wprost do płynu trawiennego. Owady nie pozostają dłużne i mają własne zabezpieczenia przed trikami roślin. Chrząszcze dysponują np. umieszczonymi na odnóżach specjalnymi grzebieniopodobnymi strukturami. Jak podkreśla główny autor opisywanych badań Stanislav Gorb z Uniwersytetu Christiana-Albrechta w Kilonii, należało jeszcze odpowiedzieć na pytanie, skąd zwierzęta wiedzą, kiedy ich użyć? Niemcy przeprowadzili eksperyment z 6 chrząszczami z rodziny stonkowatych. Umieszczali je na krzemowo-glinowych powierzchniach o różnych poziomach szorstkości. Na początku znieczulali jednak owady za pomocą dwutlenku węgla i umieszczali na ich grzbiecie kroplę stopionego wosku pszczelego, przyklejając w ten sposób do szkieletu zewnętrznego ludzki włos. Gdy tylko owady się budziły, naukowcy przymocowywali do włosa urządzenie do pomiaru siły tarcia. Gorb wyjaśnia, że jego zespół zdecydował się na wykorzystanie właśnie chrząszczy, ponieważ odznaczają się sporym uporem i kiedy już zaczną iść, nie ustają przez długi czas i zawsze przemieszczają się w jednym kierunku. Przy tak chętnie współpracujących ochotnikach naukowcom pozostało jedynie obserwować, jak często czyszczone są stopy. Okazało się, że na powierzchniach, które generowały mniejsze siły tarcia, owady dużo częściej angażowały się w czynności higieniczne. Na tej podstawie Niemcy zaczęli przypuszczać, że natura wyposażyła chrząszcze w mechanoreceptory. Najprawdopodobniej znajdują się one w stawach. Na stosunkowo śliskich powierzchniach stonkowate cały czas czyściły stopy, mimo że w rzeczywistości w ciągu całego eksperymentu nigdy nie ulegały zabrudzeniu. Oznacza to, że poza tarciem do układu nerwowego nie dociera żaden inny sygnał wskazujący na stan nóg. Nie mogą bezpośrednio zebrać informacji o zanieczyszczeniu. Udaje im się to wyłącznie przez kontakt i przyłożenie siły do stopy. W przyszłości naukowcy zamierzają sprawdzić, czy u innych owadów występują podobne przystosowania i gdzie znajdują się receptory.
-
- mechanoreceptory
- siły tarcia
-
(i 6 więcej)
Oznaczone tagami:
-
Alergie pokarmowe to zmora znacznej części populacji. Te poważniejsze, jeśli nie są rozpoznane i leczone, mogą prowadzić nawet do wyniszczenia organizmu i śmierci. Niektóre, jak alergia na orzeszki ziemne, są wyjątkowo zdradliwe, wystarczy bowiem śladowa ilość, by zagrozić poważnym wstrząsem anafilaktycznym. Jednak nawet te drobne obniżają jakość życia, trudno bowiem dociec, że ciągłe dolegliwości są wywoływane przez nietolerowane przez nasz organizm cytrusy, czy herbatę. Problem w tym, że z pożywieniem dostarczamy organizmowi niezliczoną ilość różnorodnych substancji, zarówno nieodzownych i pożytecznych, jak i neutralnych albo szkodliwych. Wraz z jedzeniem wchłaniamy bakterie i wirusy. Nasz system odpornościowy musi się w tym „rozeznać", pozostawić w spokoju to, co dobre, a zlikwidować zagrożenia. Niestety, często się przy tym myli, powodując przy tym właśnie choroby autoimmunologiczne. Szansa na zrozumienie i ręczne opanowanie błędnej pracy naszego systemu immunologicznego pojawia się dzięki pracy japońskich biologów molekularnych z RIKEN, którym udało się rozgryźć sposób, w jaki nasz organizm decyduje, które elementy pożywienia się dobre, a które należy „zaatakować". Domniemywano wcześniej dwie zasady, które mogły kierować systemem obronnym: zmniejszanie ilości efektorowych limfocytów T, lub hamowanie ich aktywności przez limfocyty T regulatorowe. Japońscy naukowcy odkryli, że kluczową rolę w przełączaniu aktywności odgrywają dendrytyczne komórki prezentujące antygen (antigen presenting cell - APC), a dokładniej dwie konkretne proteiny obecne na ich powierzchni. Właśnie te dwie proteiny wywołują aktywność limfocytów efektorowych T, podczas kiedy APC oznaczają obce substancje dostarczane z pożywieniem, wraz ze współpobudzającymi białkami rodziny B7, które regulują odpowiedź immunologiczną. Dla podjęcia akcji systemu odpornościowego potrzebne są zarówno jedne, jak i drugie. Katsuaki Sato i jego współpracownicy z RIKEN Research Center for Allergy and Immunology w Jokohamie przeprowadzili eksperymenty na myszach z niedoborem współpobudzających protein B7. Jak się okazało, ich niedostatek wzmacnia reakcję odpornościową. Białka B7 pobudzają bowiem wytwarzanie raczej limfocytów regulatorowych, niż efektorowych, sprzyjając w ten sposób tolerancji pokarmowej. Jednak obecność stanu zapalnego ich działanie zostaje wyhamowane. To przełomowe odkrycie, choć zarazem dopiero początek badań nad dokładnym poznaniem funkcjonowania naszego systemu odpornościowego. Japoński zespół, wraz z naukowcami ze Stanów Zjednoczonych i Francji planuje kontynuować badania laboratoryjne, na ich końcu bowiem może pojawić się nadzieja dla cierpiących alergików.
-
- Katsuaki Sato
- limfocyty T efektorowe
- (i 6 więcej)
-
Dynamika, tempo, brak czasu - te cechy najlepiej opisują naszą współczesną cywilizację i społeczeństwo. Kiedy zaczyna doskwierać brak czasu, z czegoś trzeba zrezygnować, a pierwszą ofiarą jest zwykle sen. Jak się okazuje - to bardzo niewłaściwe podejście. Tak przynajmniej zapewnia Jessica D. Payne z University of Notre Dame i Elizabeth A. Kensinger z Boston College, autorki studium na temat roli sny w naszym życiu. Tendencja do ograniczania w pierwszej kolejności snu bierze się, jak uważa Payne z głęboko zakorzenionego, a błędnego przekonania, że śpiący mózg nic nie robi. Tymczasem, co już wykazywało wiele badań, sen jest niezbędny dla efektywnej nauki. I nawet nie powinno się - jak wynika z badań Payne i Kensinger - nazywać tego stanu odpoczynkiem, ponieważ mózg w czasie snu intensywnie pracuje. Podczas snu mózg pracowicie obrabia zgromadzone w czasie jawy wspomnienia: konsoliduje je, utrwala - żeby można było je później łatwiej przywoływać, segreguje i porządkuje. Badania nocnej pracy mózgu wykazały aktywność tych właśnie regionów mózgu, które odpowiadają za przetwarzanie wspomnień i zdobytych informacji. Podczas tego procesu jednocześnie nadaje im „wartość", a jednym z kryteriów oceny jest ładunek emocjonalny przypisany do konkretnych wspomnień, obrazów i elementów. Przykładowo scena z rozbitym samochodem obok palm zostanie w czasie rozdzielona na logiczne części, obraz rozbitego samochodu - ponieważ wiążą się z nim silne emocje - zostanie wzmocniony i utrwalony, zaś towarzyszące mu palmy najprawdopodobniej zostaną uznane za mniej ważne i odnotowane na przykład jako „jakieś drzewa", lub pominięte. Autorki badania same przyznają się, że wcześniej lekceważyły potrzebę snu. Jednak konfrontacja z wynikami własnych badań zmieniła ich stosunek. Daję sobie pospać w nocy pełne osiem godzin - mówi Jessica D. Payne. - Nie robiłam tego jednak, nim nie zobaczyłam danych z własnych badań. Ludzie, mówiący że odeśpią, jak umrą, poświęcają możliwość lepszego myślenia w chwili obecnej. Możemy egzystować przy mniejszej ilości snu, ale ma to głęboki wpływ na nasze zdolności poznawcze. Osoby oskarżane o lenistwo z powodu długiego snu mogą od dziś się bronić, mówiąc, że w istocie ciężko pracują. O ile wizja tej ciężkiej, nocnej pracy ich nie odstraszy.
- 4 odpowiedzi
-
- Elizabeth A. Kensinger
- University of Notre Dame
- (i 5 więcej)
-
Zdobywanie odludnych miejsc i najwyższych szczytów Ziemi do niedawna kojarzyło się z samotnością i odcięciem od cywilizacji. Koniec tej romantyki. Od końca października można sobie posurfować w internecie ze szczytu najwyższej góry świata. Tak naprawdę himalaiści od dawna nie byli całkowicie pozbawieni łączności ze światem podczas wypraw, po chińskiej stronie Mount Everestu bowiem od trzech lat istnieje sieć China Mobile, zdobywcy korzystali zwykle zresztą z telefonów satelitarnych - co prawda dość zawodnych w tych warunkach. Z końcem października skończyła się pewna romantyka, na szczycie góry bowiem dostępna jest już sieć komórkowa trzeciej generacji (3G), pozwalająca nie tylko na rozmowy, ale i transmisje wideo. Sprawcą jest firma Ncell, należąca do szwedzkiego koncernu TeliaSonera, która w rejonie góry umieściła osiem stacji bazowych, zasilanych bateriami słonecznymi. Najniższa z nich znajduje się na wysokości 2870 metrów, w pobliżu lotniska Lukla, najwyżej położona, obok wioski Gorakshep (5200 metrów) z łatwością obejmuje swoim zasięgiem szczyt góry. Inżynierowie TeliaSonera najwyraźniej lubią wyzwania, gdyż poza najwyżej położoną stacją, przy której budowie trzeba było zmagać się z bardzo złymi warunkami, mogą pochwalić się również najniżej położoną: 1400 metrów poniżej poziomu morza. Mimo tego spektakularnego osiągnięcia, „zasięg" ma zaledwie jedna trzecia mieszkańców biednego Nepalu. Spółka zamierza wydać w przyszłym roku aż 100 milionów dolarów, żeby zwiększyć pokrycie do 90%. Mimo żartów, że niedługo na szczycie najwyższej góry świata wspinaczy witać będzie kawiarnia i sklepik z pamiątkami, himalaiści na pewno docenią możliwość łączności ze światem, choćby w przypadku, kiedy przyjdzie im wzywać pomocy w trudnych warunkach. Mount Everest, mimo „cywilizowania się", z pewnością bowiem pochłonie jeszcze życie niejednego śmiałka.
- 1 odpowiedź
-
Wśród szczególnie trudnych i złożonych problemów obliczeniowych słynny jest tak zwany „problem komiwojażera", czy szerzej: problem marszrutyzacji, czyli takiego wyznaczenia trasy, żeby jak najefektywniej obejść wszystkie kluczowe punkty. Nazwa wzięła się od anegdotycznego sprzedawcy, który potrzebuje objechać wiele miast, a chciałby zrobić to jak najkrótszą trasą. Złożoność takiego planowania rośnie tak prędko, że szybko przekracza nie tylko możliwości człowieka, ale także największych superkomputerów, które nawet nad średnio złożonymi trasami pracować muszą wiele dni. Znajdowanie rozwiązać w czasie rzeczywistym wydaje się wręcz niemożliwe. Ale nie dla... trzmieli. Naukowcy z Queen Mary's School of Biological and Chemical Sciences (Queen Mary University of London) ze zdumieniem odkryli, że problem zatykający największe istniejące komputery nie jest w ogóle problemem dla pospolitych trzmieli, które rozwiązują go machinalnie, oblatując dostępne źródła pożywienia jak najkrótszą trasą. W eksperymencie, jaki przeprowadzili profesor Lars Chittka i doktor Mathieu Lihoreau wykorzystano sztuczne, komputerowo kontrolowane kwiaty zawierające nektar, oraz trzmiele, których lot śledzono i analizowano. Uczeni ciekawi byli, czy przy kolejnych „rundach" owady oblatywać będą kwiaty w takiej kolejności, w jakiej znajdowały je pierwszy raz, czy też w inny sposób. Okazało się, że już przy drugim oblocie trzmiele korzystały z najkrótszej możliwej trasy. W jaki sposób te owady radzą sobie ze złożonością problemu? Ich wyczyn zdumiewa jeszcze bardziej, gdy uświadomimy sobie, że ich mózg ma wielkość główki szpilki, a wykonuje natychmiast obliczenia, które są upiorne dla największych superkomputerów i twardym orzechem dla najlepszych matematyków. Naukowcy teraz zastanawiają się, jak sprawdzić algorytm, jakim posługują się trzmiele i jakie struktury w ich mózgu pozwalają na takie operacje. Odtworzenie ich działania mogłoby stanowić rewolucję w informatyce. Pokazuje to także, że z pokorą należy oceniać te malutkie móżdżki.
- 16 odpowiedzi
-
- Lars Chittka
- Queen Mary University of London
- (i 5 więcej)
-
Film „Avatar" był osiągnięciem nie tylko kinowym i kasowym, ale również, a może nawet przede wszystkim technologicznym. Nakręcenie tego trójwymiarowego obrazu wymagało wpierw stworzenia odpowiedniej, nieistniejącej przedtem technologii. Filmy niejednokrotnie w historii kina sięgały po najnowsze i przełomowe technologie, choć dziś, kiedy na domowym pececie możemy stworzyć lepsze efekty niż dawni mistrzowie zdjęć trickowych, nie zawsze o tym pamiętamy. Kwestią czasu było, kiedy ktoś zechce technologie użyte przez Jamesa Camerona przenieść na rynek domowej rozrywki. Nie trzeba było czekać długo. Jedną z technologii opracowanych specjalnie dla potrzeb filmu była Simul-cam - pozwalająca w czasie rzeczywistym przetwarzać obraz z kamery tak, by reżyser widział od razu końcowy wygląd sceny kręconej przy użyciu techniki „motion capture" w komputerowo generowanej rzeczywistości. Wcześniej bowiem kręcono „na wyczucie", a ostateczny wygląd scena nabierała dopiero po wielotygodniowej, żmudnej obróbce komputerowej. Te technologiczne osiągnięcia postanowił przenieść do domowej rozrywki Matt Bett, wykładowca technik programowania gier na szkockim University of Abertay w Dundee. Opracowana przez niego, inspirowana Simul-camem, wirtualna kamera wykorzystuje do wizualizacji moc typowego peceta, zaś do kontroli (zamiast prawdziwej kamery) sterownika podobnego do tych używanych w konsolach Wii. Para sterowników Sixense z elektromagnetycznymi czujnikami położenia (zapewniają wysoką, milimetrową precyzję) kosztuje poniżej stu funtów. Motus, podstawowa aplikacja, napisana przez Betta i Erina Michno jest bazą dla dalszych zastosowań. Podstawowym oczywiście, ze względu na profil wydziału, jest wykorzystanie w grach, w których gracze będą mogli głębiej „poczuć" wykreowaną rzeczywistość. Twórcy oczekują jednak także wykorzystywania jej do tworzenia prezentacji na żywo w wirtualnych sceneriach, nauki i edukacji, zaawansowanej symulacji, wreszcie, oczywiście - do kręcenia filmów. O swoim wynalazku opowiada sam twórca. http://www.youtube.com/watch?v=H9ujnzMPBoc
- 5 odpowiedzi
-
- Erin Michno
- Matt Bett
- (i 5 więcej)
-
Ocieplenie korzystne dla lasów deszczowych
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Większość naukowców uważa, że wzrost poziomu dwutlenku węgla oraz średnich temperatur zaszkodzi bioróżnorodności lasów deszczowych. Jednak ostatnio ogłoszone wyniki wieloletnich badań sugerują, że może stać się inaczej. Carlos Jamarillo wraz ze swoimi kolegami ze Smithsonian Tropical Research Institute z Panamy chcieli dowiedzieć się, jaki wpływ na różnorodność lasu deszczowego może mieć globalne ocieplenie. Aby to sprawdzić, postanowili przyjrzeć się podobnym okresom, które miały miejsce w historii. Jedno z nich to paleoceńsko-eoceńskie maksimum termiczne (PETM), które miało miejsce 56,3 miliona lat temu. Wówczas, w ciągu 10-20 tysięcy lat średnie temperatury na Ziemi zwiększyły się o 3-5 stopni Celsjusza, a poziom dwutlenku węgla był dwuipółkrotnie wyższy niż obecnie. Jaramillo i jego zespół przez siedem lat szukali w lasach tropikalnych Kolumbii i Wenezueli odpowiednich miejsc z których można było pobrać próbki skamielin i badali nasiona oraz pyłki pochodzące ze wspomnianego okresu. Badania wykazały, że chociaż w czasie maksimum termalnego część gatunków roślin wyginęło, pojawiło się wiele innych, wśród nich całe rodziny. To pokazuje, że rosnące temperatury przyczyniły się do wzrostu bioróżnorodności. W tym właśnie czasie na Ziemi pojawiły się mitrowate czy męczennicowate. Należy jednak pamiętać, że obecny wzrost temperatur wcale nie musi przynieść tak pozytywnych efektów. To kwestia tempa, jak szybko będzie się ogrzewało, to najważniejsza sprawa - mówi Guy Harrington, paleobiolog z University of Birmigham. Jeśli bowiem zmiany będą zbyt szybkie, rośliny nie zdążą się przystosować do nowych warunków. Ponadto, jak zauważa uczony, niezwykle ważny będzie też dostęp do wody. Podczas PETM w tropikach jej nie zabrakło. Obecnie nie wiadomo, jaki wpływ na poziom opadów w okolicach równikowych będzie miało ocieplenie. Harrington mówi też, że pozytywny wpływ PETM mógł ograniczać się tylko do lasów deszczowych. Z jego własnych badań, prowadzonych w Ameryce Północnej, wynika, że w tym czasie wyginęło tam wiele gatunków zwierząt. Sam Jaramillo uważa, że obecnie największym zagrożeniem dla różnorodności lasów deszczowych nie jest ocieplanie się klimatu, a wycinanie drzew.-
- PETM
- globalne ocieplenie
-
(i 2 więcej)
Oznaczone tagami:
-
Od dziesięcioleci lekarze szukają sposobu, który pozwoliłby zwalczyć raka samymi siłami organizmu. To, co w przypadku większości chorób zakaźnych się udaje - dzięki szczepionkom - w przypadku nowotworów ciągle spełza na niczym. Udawało się wprawdzie niejednokrotnie nakłonić system odpornościowy do reakcji na komórki rakowe, ale nie dawało to rezultatów. To podsunęło naukowcom myśl, że w strukturze guza nowotworowego znajduje się jakiś czynnik potrafiący hamować reakcje immunologiczne. Znaleźć go udało się jednak dopiero niedawno uczonym z University of Cambridge. Douglas Fearon i Sheila Joan Smith zidentyfikowali odpowiedzialnego: są to komórki podścieliska (stromal cell), stanowiące odmianę tkanki łącznej, które guz nowotworowy wykorzystuje do własnych celów. Studium pokazuje, jak komórki te produkują rzadkie białko - proteinę alfa aktywującą fibroblasty (fibroblast activation protein alpha, FAP). To białko, normalnie kojarzone głównie z procesami regeneracji, leczeniem uszkodzeń, hamuje reakcje odpornościowe organizmu, chroniąc komórki nowotworowe. W badaniu laboratoryjnym wykorzystano transgeniczne myszy, chore na nowotwór. U tych osobników, u których zniszczono komórki guza produkujące białko FAP, guz zaczął szybko obumierać. Ponieważ eksperymenty przeprowadzono na razie jedynie na myszach, uczeni nie spieszą się z entuzjazmem, nie można być bowiem pewnym, że procesy te wyglądają wystarczająco podobnie u człowieka. Ponieważ jednak już dwadzieścia lat temu komórki podścieliska znaleziono w ludzkich guzach piersi, czy jelita, można mieć nadzieję, że znaleziono wreszcie główny punkt obrony komórek rakowych. To daje nadzieję na opracowanie tak długo poszukiwanej, naturalnej i skutecznej terapii.
- 16 odpowiedzi
-
- Sheila Joan Smith
- Douglas Fearon
- (i 5 więcej)
-
Po 4 latach intensywnych obliczeń, do których wykorzystano superkomputer MareNostrum z Barcelona Supercomputing Center, zespół Modesta Orozco z Instytutu na rzecz Badań Biomedycznych (IRB Barcelona) zaprezentował największą na świecie bazę ruchów białek MoDEL. Uwzględniono w niej ponad 1700 protein. Część z nich można zobaczyć za pośrednictwem Internetu. MoDEL ma usprawnić badanie biologii białek oraz przyspieszyć projektowanie nowych leków. Obecnie projektujemy leki, jakby białka, przeciwko którym mają działać, były statyczne. Ponieważ to nieprawda, wyjaśnienie przyczyn niepowodzenia nowych terapii zajmuje dużo czasu. Z MoDEL problem ten zostaje rozwiązany, gdyż zapewnia on użytkownikowi od 10.000 do 100.000 zdjęć na białko, co pozwala przekazywać ruch tych struktur i projektować trafniejsze rozwiązania – wyjaśnia Orozco. Szef grupy modelowania molekularnego i bioinformatyki na IRB zaznacza, że zaledwie kilka firm farmaceutycznych wykorzystuje strategię MoDEL do opracowania pierwszych leków na choroby onkologiczne i zapalne (niewykluczone, iż będą one dostępne jeszcze w tym roku). Naukowcy, którzy stworzyli MoDEL, posługiwali się międzynarodowym katalogiem statycznych białek Protein Data Bank (PDB). Może się wydawać, że 1700 plików wideo białek z 40-tysięcznej bazy PDB to niewielki odsetek, ale wiele struktur z PDB jest do siebie podobnych. Stąd też, postępując w zgodzie z ustalonymi na arenie międzynarodowej kryteriami podobieństwa, reprezentujemy ok. 40% białek o znanej budowie. Co więcej, jak wspomina Orozco, MoDEL zawiera ponad 30% ludzkich białek, którymi interesuje się przemysł farmaceutyczny. Zespół szacuje, że w ciągu 2-3 lat uda się dobić do 80%. Z przykładowym nagraniem ruchu białka można się zapoznać na witrynie IRB.
-
- przemysł farmaceutyczny
- Modesto Orozco
-
(i 6 więcej)
Oznaczone tagami:
-
Badacze z Rice University poinformowali o opracowaniiu nowej metody produkcji grafenu z bogatych w węgiel substancji, takich jak np. cukier. Opracowali oni jednoprzebiegowy proces odbywający się w niższej niż dotychczas temperaturze, co ułatwia cały proces produkcyjny. Chemik James Tour i jego zespół twierdzą, że duże płachty grafenu wysokiej jakości mogą być tworzone w temperaturze już 800 stopni Celsjusza z wielu źródeł zawierających węgiel. Dotychczas do ich powstania wymagana była temperatura rzędu 1000 stopni. Przy 800 stopniach krzemowe podłoże [na którym powstaje grafen - red.] pozostaje przydatne w elektronice, podczas gdy w 1000 stopni traci ono ważne domieszki - mówi Tour. Autorem odkrycia jest student Toura, Zhengzong Sun, który zauważył, że nałożenie zawierających w węgiel substancji na podłoże bogate w miedź czy nikiel pozwala produkować jedno-, dwu- i wielowarstwowe płachty grafenu. Proces taki nadaje się też do tworzenia grafenu wzbogacanego domieszkami, co umożliwia manipulowanie jego elektronicznymi i optycznymi właścicielami. Najpierw Sun nałożył na miedziane podłoże szkło akrylowe (pleksiglas - PMMA). Po podgrzaniu w warunkach niskiego ciśnienia i obecności wodoru i argonu z PMMA pozostał czysty węgiel ułożony w jednoatomową warstwę. Okazało się również, że manipulując przepływem gazów można kontrolować grubość grafenu uzyskiwanego z PMMA. Później student wraz z kolegami spróbował tego samego z wykorzystaniem... cukru. Miedzianą folę pokrył centymetrem kwadratowym cukru i poddał całość takiemu samemu procesowi, któremu poddawał PMMA. Spodziewał się, że uzyskany w ten sposób grafen będzie pełen defektów ze względu na strukturę substancji. Okazało się jednak, że defektów jest na tyle mało, iż materiał może zostać w praktyce wykorzystany. Procesu takiego nie udało się natomiast przeprowadzić w sytuacji, gdy podłożem dla materiału z węglem był krzem lub tlenek krzemu. Jednak możliwe jest uzyskanie grafenu, jeśli krzem zostanie najpierw pokryty warstwą miedzi lub niklu.
- 1 odpowiedź
-
- Zhengzong Sun
- James Tour
-
(i 3 więcej)
Oznaczone tagami:
-
Złe odżywienie matki w czasie ciąży i związana z tym niska waga urodzeniowa dziecka mogą powodować problemy z metabolizowaniem leków, które będą nadal widoczne nawet w dorosłym życiu. Naukowcy z Uniwersytetu Stanowego Oregonu uważają, że z tego względu już w niedalekiej przyszłości, planując terapię, lekarze, np. onkolodzy, będą musieli dostosować dawkę nie tylko aktualnej wagi ciała, ale i wagi odnotowanej po urodzeniu. W ramach eksperymentu nerki zwierząt z niedowagą, u których matek podczas ciąży i karmienia wdrożono dietę niskobiałkową, wykazywały mniejszą zdolność przetwarzania i transportowania leków niż zwierząt urodzonych przez zdrowo odżywione samice. Profesor Ganesh Cherala uważa, że zaobserwowane zjawisko może być skutkiem zaburzeń działania białek transporterowych. "Umiejscowione w błonie komórkowej transportery przechwytują leki i wprowadzają je do wnętrza komórki. Potem drugi zestaw transporterów zbiera lek z komórki i przekazuje go do moczu". U zwierząt z niską wagą urodzeniową zespół przyglądał się transporterowi anionów organicznych OAT 1 (Organic Anion Transporter) i glikoproteinie P (P-gp). Okazało się, że w zależności od wieku i rodzaju transportera, stężenie było od 2 do 50 razy mniejsze niż u zwierząt z prawidłową wagą urodzeniową. Zjawisko odnotowano u obu płci, jednak z biegiem czasu u samic deficyt stawał się bardziej widoczny. Naukowiec podkreśla, że mniejsze ilości nerkowych transporterów ograniczają wydalanie leku i jego metabolitów z organizmu. Może to prowadzić do ich toksycznego nagromadzenia we krwi lub nieprzewidzianych oddziaływań medykamentu. Cherala podkreśla, że wcześniejsze badania wykazały, że ludzie z niską wagą urodzeniową są bardziej narażeni na choroby sercowo-naczyniowe, zespół metaboliczny i cukrzycę. Muszą więc zażywać leki, które, jak widać, słabiej na nich działają. Na swoje nieszczęście, te same osoby jako dorośli częściej bywają otyłe. Jako że dawkę ustala się w oparciu o wagę, wzrost, wiek i płeć chorego, niejednokrotnie prowadzi to do podania większych ilości leków, których wątły po urodzeniu organizm nie jest w stanie przetworzyć.
-
- toksyczne nagromadzenie
- transporter anionów organicznych
- (i 7 więcej)
-
Niezależny audyt wykazał, że James Webb Space Telescope (JWST), który ma być następcą teleskopu Hubble'a, będzie kosztował około 1,4 miliarda USD więcej, niż wcześniej zakładano. Ponadto w przestrzeń kosmiczną trafi on co najmniej rok później, niż planowano. Audytu dokonała siedmioosobowa komisja powołana z inicjatywy senator Barbary Mikulski. Teraz już wiadomo, że budżet przedstawiony w 2008 roku kierownictwu NASA przez zespół odpowiedzialny za Teleskop Webba został źle skonstruowany, a rezerwowe fundusze, jakie przeznaczono później na nadmiarowe wydatki, nie wystarczą. Audytu dokonała komisja pracująca pod kierownictwem Johna Casaniego z NASA Jet Propulion Laboratory. Stwierdziła ona, że błędy popełnił zarówno zespół pracujący nad Teleskopem, jak i kierownictwo NASA. Komisja próbowała odpowiedzieć na pytanie, jaki będzie najmniejszy koszt budowy i najwcześniejsza data wystrzelenia urządzenia w przestrzeń kosmiczną. Stwierdzono, że JWST będzie kosztował 6,5 miliarda dolarów (pierwotny budżet zakładał wydatki rzędu 5,1 miliarda) i trafi w przestrzeń kosmiczną nie wcześniej niż we wrześniu 2015 roku (poprzednio mówiono o czerwcu 2014). Żeby jednak wypełnić te założenia finansowanie w roku podatkowym 2011 i 2012 musi być znacząco wyższe niż to, które przedstawiono w prezydenckim budżecie. Kongres musiałby się zgodzić na wydanie dodatkowo po 250 milionów dolarów w roku 2011 i 2012. To oznacza, że z przyczyn politycznych i ekonomicznych budowa Teleskopu może jeszcze bardziej się opóźnić.
- 1 odpowiedź
-
Europa doczekała się pierwszego petaflopsowego superkomputera na swoim terytorium. Maszyna Tera 100 to wspólny projekt firmy Bull oraz francuskiej Komisji Energii Alternatywnych i Energii Atomowej. W teście Linpack komputer osiągnął wydajność 1,05 petaflopsa. Jej teoretyczna wydajność to 1,25 PFlops, jednak nie została ona uzyskana w teście. Tymczasem lista TOP500, na którą trafia 500 najbardziej wydajnych superkomputerów świata, bierze pod uwagę maksymalną osiągniętą wydajność, a nie teoretyczną. Tera 100 korzysta z 17 480 procesorów z rodziny Intel Xeon 7500 oraz 300 terabajtów pamięci operacyjnej. Pamięć masowa ma łączną pojemność 20 petabajtów.
-
Nie bez przesady można powiedzieć, że herpetolog Ngo Van Tri z Wietnamskiej Akademii Nauk i Technologii odkrył niewielką jaszczurkę Leiolepis ngovantrii na własnym talerzu. Zaskoczyło go, że wszystkie zwierzęta zgromadzone w restauracyjnym terrarium w prowincji Bà Rịa-Vũng Tàu wydają się bardzo podobne i są samicami. I rzeczywiście, okazało się, że zwierzę rozmnaża się wyłącznie przez dzieworództwo. Choć w delcie Mekongu jedzono je od niepamiętnych czasów, dopiero teraz rozpoznano w nim nowy gatunek i opisano. W identyfikacji pomogli dr L. Lee Grismer z kalifornijskiego La Sierra University i jego syn. Panowie przeanalizowali zdjęcia przesłane przez wietnamskiego kolegę i stwierdzili, że zwierzęta muszą należeć do rodzaju Leiolepis. Ojciec i syn polecieli samolotem do Hanoi, a potem przez dwa dni podróżowali jeszcze motorem. Niestety, okazało się, że w tym czasie pijany właściciel ugrillował wszystkie jaszczurki dla klientów i nie pozostało już nic do badań. Zrozpaczeni naukowcy wypytywali, czy w innych okolicznych barach nie podaje się takiego samego dania i poprosili dzieci o schwytanie jak największej liczby jaszczurek. Wkrótce Amerykanie dysponowali już pokaźną kolekcją mniej więcej 70 sztuk. To wtedy okazało się, że natrafiono na nieznany dotąd gatunek. Badanie genetyczne ujawniło, że wszystkie zwierzęta są samicami, klonami swoich matek. Partenogeneza występuje u ok. 1% jaszczurek, zwłaszcza w obliczu niekorzystnych warunków środowiskowych – zanieczyszczenia czy nadmiernego odławiania. Grismerowie podejrzewają, że żyjąca w strefie przejściowej pomiędzy nadbrzeżnymi wydmami a buszem L. ngovantrii jest płodną hybrydą dwóch spokrewnionych miejscowych gatunków. Analiza mitochondrialnego DNA (mtDNA), które jest przekazywane w linii żeńskiej, wykazała, że gatunek matczyny to L. guttata, ojcowskiego jeszcze nie zidentyfikowano. Herpetolog podkreśla, że by odkryć nowe gatunki, kiedyś organizowano wielkie wyprawy. Teraz wystarczy wypytać miejscowych (dzięki nim opisano wiele gatunków jaszczurek). To nieprawda, że są nieznane... Tubylcy wiedzą o ich istnieniu, tylko naukowcy nie mają o nich bladego pojęcia. Panowie opisali swoje odkrycie w periodyku ZOOTAXA. Ujawnili m.in., że na przednich kończynach jaszczurki znajdują się rzędy powiększonych łusek, na spodzie palców (podobnie jak u gekona) występują zaś blaszki o nazwie lamellae.
- 1 odpowiedź
-
- restauracja
- delta
-
(i 5 więcej)
Oznaczone tagami:
-
Ludzie spędzają 46,9% czasu na jawie na myśleniu o czymś innym niż aktualnie wykonywana czynność. Zazwyczaj sprawia to, że czują się nieszczęśliwi. Matthew A. Killingsworth i Daniel T. Gilbert, psycholodzy z Uniwersytetu Harvardzkiego, doszli do przedstawionego wniosku, wykorzystując stworzoną specjalnie do tego celu aplikację sieciową na iPhone'a. Dzięki niej zebrali 250 tys. zapisów dotyczących myśli, uczuć i działań badanych jednostek. Jak żadne inne zwierzę myślimy o przeszłości, przyszłości, a nawet o czymś, co nigdy nie miało i nie będzie mieć miejsca. Błądzenie myślami wydaje się domyślnym trybem pracy naszego mózgu. Ludzki umysł jest umysłem wędrującym, a umysł wędrujący jest nieszczęśliwym umysłem. Zdolność do myślenia o czymś, co się nie dzieje, jest zdobyczą poznawczą obarczoną emocjonalnym kosztem. W ramach eksperymentu Killingsworth opracował aplikację sieciową, która kontaktowała się z 2250 ochotnikami w wieku od 18 do 18 lat w losowych odstępach czasu, by dowiedzieć się, jak szczęśliwi się czują, co w danym momencie robią i czy myślą o wykonywanej właśnie czynności, czy o czymś innym (miły, neutralnym lub nieprzyjemnym). Wolontariusze należeli do zróżnicowanych grup socjoekonomicznych, wykonywali rozmaite zawody, a 74% grupy stanowili Amerykanie. Badani mogli wybierać z 22 ogólnych czynności, takich jak chodzenie, jedzenie, robienie zakupów albo oglądanie telewizji. Średnio ankietowani odpowiadali, że ich umysł błądzi przez 46,9% czasu; nie mniej niż 30% podczas każdej aktywności poza uprawianiem seksu. Amerykanie ustalili, że ludzie byli najszczęśliwsi, kochając się, gimnastykując lub rozmawiając, a najmniej szczęśliwi, odpoczywając, pracując lub korzystając z domowego komputera. Błądzenie myślami jest doskonałym prognostykiem ludzkiego zadowolenia. W rzeczywistości fakt, czy nasz umysł opuścił teraźniejszość i gdzie się udał, wydaje się lepszym predyktorem szczęścia niż aktualnie wykonywane czynności – przekonuje Killingsworth. Naukowcy oszacowali, że tylko 4,6% zadowolenia w danym momencie można przypisać specyficznej aktywności, podczas gdy status związany z błądzeniem umysłu odpowiada już za ok. 10,8%. Analiza opóźnienia czasowego sugeruje, że błądzenie myślami stanowi przyczynę, a nie skutek niezadowolenia. W artykule opublikowanym na łamach Science akademicy podkreślają, że w wielu tradycjach religijno-filozoficznych zaleca się życie chwilą, co w pewnym sensie wskazywałoby na właśnie potwierdzoną szkodliwość błądzenia myślami.
- 12 odpowiedzi
-
- porgnostyk
- czynność
-
(i 7 więcej)
Oznaczone tagami:
-
Należący do NASA Fermi Gamma-ray Space Telescope odkrył nieznaną dotychczas strukturę w naszej galaktyce. Wygląda ona jak dwa bąble znajdujące się nad i pod centrum Drogi Mlecznej. Każdy z nich ma wysokość około 25 000 lat świetlnych, a wiek całej struktury to prawdopodobnie zaledwie kilka milionów lat. Zauważyliśmy dwa bąble emitujące promienie gamma, które rozciągają się o 25 000 lat świetlnych na północ i na południe centrum galaktyki. Nie rozumiemy w pełni ich natury ani pochodzenia - mówi Doug Finkbeiner z Harvard-Smithsonian Center of Astophysics, który pierwszy zauważył tajemnicze bąble. Astronomowie odkryli strukturę przetwarzając publicznie dostępne dane z Large Area Telescope (LAT). To najdokładniejszy na Ziemi wykrywacz promieniowania gamma. Bąble nie zostały wcześniej zauważone prawdopodobnie z powodu "mgły" tworzonej przez promieniowanie gamma, które powstaje, gdy cząsteczki wchodzą w interakcję ze światłem i gazem w Drodze Mlecznej. Specjaliści z LAT bez przerwy pracują nad metodami eliminacji "mgły" i wykrywania źródła promieniowania gamma. Obecnie prowadzone są badania, które mają wyjaśnić pochodzenie tajemniczych bąbli. Już wiadomo, że są one źródłem silniejszej emisji gamma niż jakakolwiek inna "mgła". Wydaje się też, że bąble mają dobrze wyróżnione brzegi. To z kolei sugeruje, że uformowały się w wyniku dużego, gwałtownego uwolnienia się energii. Jej źródło nie jest jednak znane. Być może jest nim supermasywna czarna dziura. Niewykluczone też, że są one pozostałością po formowaniu się licznych gromad gwiazd istniejących w centrum Drogi Mlecznej.
- 5 odpowiedzi
-
- Doug Finkbeiner
- promienie gamma
-
(i 1 więcej)
Oznaczone tagami:
-
Dzieci, u których występują niedobory witaminy D, gromadzą więcej tkanki tłuszczowej wokół talii i tyją szybciej od rówieśników z prawidłowym poziomem tego związku (American Journal of Clinical Nutrition). Większość witaminy D powstaje w skórze pod wpływem promieniowania UV (postać endogenna), pozostała jest dostarczana organizmowi z pożywieniem (postać egzogenna). W związku z tym należy pamiętać zarówno o spacerach, jak i uwzględnieniu w diecie tranu, tłustych ryb, np. sardynek, węgorza, łososia, tuńczyka czy śledzi, masła, śmietany, żółtka jaj i wątróbki. Eksperci nadal spierają się jednak, jaką dawkę witaminy D uznać za optymalną dla zdrowia. Akumulacja tłuszczu wokół talii może prowadzić do otyłości centralnej, zwanej też otyłością brzuszną czy wisceralną. W związku z podwyższeniem stężenia wolnych kwasów tłuszczowych (WKT) w surowicy, a także zaburzenia ich metabolizmu dochodzi do rozwoju dyslipidemii (podwyższonego poziomu cholesterolu i jego frakcji we krwi), uszkodzenia komórek beta wysepek Langerhansa trzustki oraz insulinooporności. Zwiększa to ryzyko cukrzycy typu 2. i chorób sercowo-naczyniowych. Eduardo Villamor, epidemiolog z University of Michigan, współpracował z zespołem z Narodowego Uniwersytetu Kolumbii. W 2006 roku badacze zebrali grupę 479 dzieci w wieku 5-12 lat z Bogoty. Śledzili ich losy przez ok. 30 miesięcy. Określono stężenie witaminy D we krwi pobranej na początku studium. Następnie oceniano związek między poziomem cholekacyferolu (witaminy D3) a zmianami dotyczącymi 3 wskaźników zawartości tłuszczu w organizmie: 1) wskaźnika masy ciała (BMI), 2) obwodu talii oraz 3) grubości podłopatkowego fałdu skórno-tłuszczowego. Odkryliśmy, że dzieci z najniższym początkowym poziomem witaminy D miały tendencję do szybszego przybierania na wadze niż dzieci z wyższymi stężeniami. Co więcej, u osób z najniższymi stężeniami witaminy D następował silniejszy wzrost ilości tkanki tłuszczowej w okolicach brzucha. Niedobory witaminy D prowadziły do spowolnienia wzrostu u dziewcząt, ale nie u chłopców. Wszystko wskazuje więc na to, że niski poziom witaminy D zagraża nie tylko krzywicą, lecz również otyłością. Tymczasem na całym świecie niedobory kalcyferoli są powszechne, widać też znaczny wzrost wskaźnika otyłości. Villamor ujawnił, że spośród 479 dzieci u 10% stwierdzono niedobór witaminy D, a u 46% niewystarczającą jej ilość. Co ciekawe, Bogota znajduje się w strefie subtropikalnej, gdzie nikt nie spodziewałby się niedoborów witaminy D; [...] słońca przecież tu nie brakuje. Może być jednak wiele powodów, dla których ludzie z takich stref klimatycznych nie stykają się w wystarczającym stopniu ze słońcem. Wcześniejsze badania wykazały np., że w populacjach z Sao Paulo czy Kostaryki także pojawiają się niedobory witaminy D. W przyszłości trzeba będzie sprawdzić, czy zwiększenie zawartości witaminy D w organizmie zmniejszy ryzyko dziecięcej otyłości i wczesnego rozwoju przewlekłych chorób, np. cukrzycy.
- 15 odpowiedzi
-
Większość badań lekarskich polega na oglądaniu pacjenta z zewnątrz, wszelkie badania „od środka" wymagają dodatkowych, czasochłonnych procedur. Być może już za dwa lata do lamusa zacznie odchodzić przynajmniej część z nich: szwajcarski koncern farmaceutyczny Novartis AG kończy opracowywać czip badawczy umieszczany w pigułce i spodziewa się, że zostanie on zatwierdzony do roku 2012. Ingestible Event Marker (IEM - czyli połykalny znacznik zdarzeń), jak nazywa się wynalazek, to miniaturowy układ scalony z własnym zasilaniem, który można umieścić w połykanej przez pacjenta tabletce. Układ aktywuje się pod wpływem kwasu żołądkowego i przekazuje bezprzewodowo zbierane informacje do „łaty" - odbiornika umieszczonego na brzuchu pacjenta, stąd mogą one być transmitowane do lekarza, na przykład przez internet lub telefon. Układ będzie mógł być umieszczany w normalnie podawanych lekach. W chwili obecnej czip potrafi rejestrować między innymi takie informacje, jak rytm serca, temperatura i ruchy ciała, ale ilość badanych parametrów bez wątpienia będzie rosła w miarę rozwijania wynalazku. Pierwszym zastosowaniem będzie badanie stanu pacjentów po przeszczepach, co pozwoli szybko wykryć przypadki odrzutu immunologicznego. Kolejne zastosowania są planach i opracowaniu. Novartis AG nie jest jedyną firmą pracującą nad takim rozwiązaniem, ale dzięki wykupieniu za 24 miliony dolarów licencji na rozwiązania od kalifornijskiej spółki Proteus Biomedical Szwajcarzy wysunęli się na prowadzenie. Koncern ma nadzieję zakończyć badania i formalności dopuszczające produkt do użytku w ciągu 18 miesięcy dzięki zastosowaniu testów biorównoważności zamiast wykazywania braku wpływu układu na pigułki, z którymi będzie dostarczany.
- 1 odpowiedź
-
- Proteus Biomedical
- Ingestible Event Marker
-
(i 3 więcej)
Oznaczone tagami:
-
Ocieplanie się klimatu niesie ze sobą nie tylko trudne do przewidzenia zmiany pogody. Podczas dorocznego spotkania północnoamerykańskiego oddziału Towarzystwa Chemii i Toksykologii Środowiskowej naukowcy ostrzegli, że rosnące temperatury mogą spowodować, iż związki chemiczne będą bardziej toksyczne niż obecnie, a środowisko - bardziej podatne na ich działanie. Zdaniem chemików obecne w środowisku naturalnym pestycydy, metale ciężkie i chemia domowa mogą stać się bardziej groźne dla zwierząt, roślin i w efekcie dla ludzi. Doktorantka Erin Mann z University of Toronto ostrzega, że topniejące lody Arktyki uwolnią wodę do oceanu, co spowoduje zwiększenie parowania i wzmożone uwalnianie do atmosfery toksyn z wody. Z kolei Theodore Valenti, toksykolog z US National Research Council obawia się zmian w ruchu, jakości i dystrybucji wody, co może wpłynąć na kwasowość rzek i strumieni. To z kolei grozi zmianą toksyczności środków chemicznych, takich jak np. lekarstwa, które trafiają do wód. Lekarstwa są projektowane tak, by małe zmiany w kwasowości otoczenia zmieniały ich właściwości, co pozwala im na dotarcie do konkretnych tkanek. Jednak w środowisku naturalnym zachodzą te same zjawiska i gdy lekarstwa, po pozbyciu się ich przez organizm, trafiają do wody, następują tam gwałtowne zmiany. Valenti mówi, że obserwował nawet 20-krotne zwiększenie się toksyczności leków, gdy środowisko w jakim się znajdowały zmieniało kwasowość z pH 6 do pH 9. Majorie Brooks, toksykolog z Southern Illinois University mówiła o zmianach w toksyczności metali ciężkich. Na przykład w przypadku miedzi wskaźnik LD50, określający dawkę substancji toksycznej potrzebnej do uśmiercenia połowy badanej populacji, spada wraz ze wzrostem temperatury. Innymi słowy, im jest cieplej, tym miedź jest bardziej toksyczna. Brooks ostrzega, że toksyczność zwiększa się błyskawicznie. Badała ona wpływ miedzi na strzeble grubogłową (Pimephales promelas) i stwierdziła, że jeśli ocieplenie klimatu będzie postępowało tak szybko, jak obecnie, to w roku 2060 wskaźnik LC50 miedzi będzie dla tego gatunku o połowę niższy niż obecnie. Jednak walka ze zmianami klimatycznymi również może być niebezpieczna. Nicholas Gard, ekolog i konsultant firmy inżynieryjnej Exponent ostrzega, że próby sekwestracji czyli zagrzebywania dwutlenku węgla pod ziemią, mogą spowodować wzrost kwasowości skał, co spowoduje, że będą one szybciej uwalniały metale ciężkie, które trafią do rzek i strumieni. Toksyczność ołowiu, którą interesuje się również wojsko badające ryzyko związane ze strzelnicami i zużywanymi tam pociskami, sprawdzała Jennifer Goss. Okazało się, że badane przez nią rozwielitki są bardziej wrażliwe na ołów w wyższych temperaturach. To z kolei unaoczniło jeszcze jeden problem. Otóż badania nad rozwielitkami prowadzone są zwykle w temperaturze 24 stopni Celsjusza. Musimy dokonać fundamentalnych zmian w sposobach oceny wpływu związków chemicznych na środowisko. Warunki, w jakich przeprowadzamy badania nie były zmieniane od 30 lat - stwierdził toksykolog Ralph Stahl z firmy Dupont.
-
- metale ciężkie
- związki chemiczne
-
(i 5 więcej)
Oznaczone tagami: