Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Kamienie nerkowe to niezwykle częsta - i niestety bardzo bolesna - dolegliwość. Średnio jeden na dziesięciu ludzi zapada na tę chorobę w ciągu życia, przy czym mężczyźni cierpią z tego powodu trzykrotnie częściej. Choć stanowią istotny problem z punktu widzenia medycyny, bardzo ciężko o wiarygodny model zwierzęcy tej choroby - z kolei nie wszystkie badania na ludziach są dopuszczalne pod względem etyki. Z niewiadomych do niedawna przyczyn ciężko było "wyhodować" u myszy, będącej najczęściej stosowanym organizmem modelowym, odpowiednio duże kamienie. Na szczęście wykonane niedawno badania, których wyniki opublikowano w czasopiśmie "The Journal of Physiology", pomagają zrozumieć to zagadnienie. Być może staną się także krokiem naprzód w opracowywaniu skuteczniejszych metod wywoływania powstawania kamieni nerkowych u myszy. Do tej pory bowiem najskuteczniejszą metodą było wszczepianie myszom specjalnego związku chemicznego, zwanego kwasem glioksalanowym, wywołującego powstawanie struktur będących zalążkami kamieni. Kamienie nerkowe są krystalicznymi strukturami złożonymi z różnych związków, które naturalnie powinny zostać wydalone wraz z moczem. Najważniejszym związkiem tworzącym kamienie jest kwas szczawiowy. U zdrowej osoby jest on usuwany do jelita poprzez wymianę z jonami chlorkowymi, które są przenoszone w przeciwnym kierunku. Gdy kwas szczawiowy dostanie się do jelita, zostaje następnie usunięty wraz z kałem. Gdy jednak w pokarmie (a więc także w jelicie) zaczyna brakować jonów chlorkowych, proces ten jest zaburzony, a kwas szczawiowy, zamiast do jelita, trafia z krwią do nerek. Tam następnie odkłada się i zaczyna krystalizować. Odkryto jednak, że u myszy jednak proces ten zachodzi nieco inaczej. Okazuje się bowiem, że u zwierząt tych białkowy przenośnik odpowiedzialny za proces wydalania kwasu szczawiowego potrzebuje do działania znacznie mniejszej ilości chlorków, tzn. działa bardziej wydajnie przy niskich stężeniach jonów chlorkowych. Dodatkowo odkryto także, ku naszemu nieszczęściu, że jedna z form ludzkiego białka przenośnikowego potrzebuje jeszcze większego stężenia jonów chlorkowych, niż jego podstawowa forma. To dodatkowo zwiększa ryzyko powstania u ludzi kamieni nerkowych. Dokonane odkrycie pomoże prawdopodobnie ułatwić tworzenie modeli wspomnianej choroby. Gdyby udało się np. stworzyć mysz transgeniczną, u której usunięto gen jej własnego przenośnika i zastąpiono go ludzkim odpowiednikiem, być może powstałoby zwierzę podatne na to typowe u ludzi schorzenie. W związku z tym być może już za kilka lat doczekamy się kolejnych naukowych doniesień, które pomogą zwalczać tę niezwykle częstą i przykrą dolegliwość.
  2. Przetłuszczone włosy absorbują więcej ozonu niż ich czysty odpowiednik (Atmospheric Environment). Nie oznacza to, że powinniśmy zrezygnować z ich pielęgnowania, ale samo odkrycie jest interesujące... Lakshmi Pandrangi oraz Glenn Morrison z University of Missouri w Rolla wystawili na oddziaływanie ozonu przez dobę 16 próbek włosów: 8 czystych i 8 przetłuszczonych. Odkryli, że włosy pokryte sebum pochłaniały średnio 7 razy więcej O3 niż włosy świeżo umyte. Według Morrisona, ozon reaguje z którymś ze składników sebum. Tritlen może wywoływać kaszel, zwiększać częstość ataków astmy, a nawet powodować obrzęk płuc, podrażniać spojówki, obniżać ciśnienie krwi, powiązano go też ze zwiększoną śmiertelnością. Naukowcy podkreślają, że tłuste włosy mogą chronić przed szkodliwym oddziaływaniem ozonu w zamkniętych pomieszczeniach. Stężenie tej allotropowej odmiany tlenu wokół głowy z nieumytymi włosami jest znacząco niższe niż w samym pomieszczeniu. Spostrzeżenia dotyczą jednak samego ozonu, ponieważ w próbkach brudnych włosów powstawało w wyniku wtórnych reakcji więcej szkodliwych substancji, takich jak drażniący drogi oddechowe 4-oksopentanal. Pomijając same kwestie higieniczno-estetyczne, nie warto więc nie myć włosów, by w ten sposób radzić sobie z ozonem emitowanym np. przez kserokopiarki czy drukarki.
  3. Niedawno pisaliśmy o tajemniczym projekcie Microsoftu, który Robert Scoble uznał za rewolucję. Koncern z Redmond ujawił swoje nowe oprogramowanie o nazwie WorldWide Telescope (WWT). To bogate środowisko wizualizacyjne, które zbiera obrazy z najlepszych ziemskich i kosmicznych teleskopów i łączy je w jedną całość tworząc wspaniałą bogatą mapę wszechświata. Dzięki WWT i obsługującemu go silnikowi Visual Experience Engine, mamy możliwość korzystania z terabajtów obrazów o wysokiej rozdzielczości. Na stronie www.worldwidetelescope.org możemy zapoznać się z opiniami licznych specjalistów, którzy wzięli udział w zorganizowanym przez Microsoft pokazie. Znajdziemy tam wypowiedzi pracowników planetarium, Uniwersytetu Harvarda, California Institute of Technology (CalTech) czy NASA podkreślają innowacyjność projektu, jego walory edukacyjne oraz fakt, że przeciętny człowiek może teraz zobaczyć to, co dotychczas było zarezerwowane dla wąskiej grupy specjalistów. Sami eksperci przyznają, że i dla nich było to niezwykłe doświadczenie. Pierwszego publicznego pokazu WWT dokonał astrofizyk Roy Gould z Harvard-Smithsonian Center for Astrophysics. Podkreślił, że oprogramowanie zmienia sposób, w jaki sposób postrzegamy Wszechświat, swoje miejsce w nim i, co najważniejsze, sposób uczenia astronomii. Następnie wystąpił Curtis Wong z Microsoftu, który pracował nad WWT. Pokrótce wyjaśnił on, że nie tylko możemy oglądać zdjęcia, ale również otrzymamy wiele informacji na temat oglądanych właśnie obiektów. WorldWideTelescope korzysta z olbrzymich zasobów wiedzy zgromadzonych w Internecie. To, co pokazano podczas prezentacji stanowi zaledwie 1% obrazów, które już obecnie zebrano w ramach projektu WWT. Wong obiecał, że oprogramowanie niezbędne do korzystania z WorldWideTelescope będzie można pobrać wiosną bieżącego roku ze strony www.worldwidetelescope.org. Chcących zapoznać się z częścią możliwość WWT zapraszamy do obejrzenia filmu z prezentacji.
  4. Dr Paul Keedwell z King's College London, autor książki Jak smutek przetrwał, twierdzi, że depresja (oczywiście z wyłączeniem głębokiej) może być pozytywnym doświadczeniem. Wg niego, nie jest to stan emocjonalny typowy jedynie dla Homo sapiens. Sądzi on, że cierpieli na nią także nasi odleglejsi przodkowie. Specjalista ds. zaburzeń emocjonalnych postuluje, że depresja może prowadzić do wzrostu elastyczności, empatii oraz kreatywności. Powołuje się przy tym na przykłady znanych osób, m.in. Michała Anioła czy Winstona Churchilla. Dla niego depresja nie jest defektem, ale rodzajem mechanizmu obronnego. Wyewoluowała i przetrwała w toku ewolucji (!) jako skuteczny sposób radzenia sobie z nowymi wyzwaniami. Co więcej, może się też sprawdzić w warunkach współczesności. W publikacji, która ukazała się 18 stycznia br., Keedwell przybliża czytelnikowi plusy negatywnych emocji oraz pomaga spojrzeć na depresję w bardziej konstruktywny sposób. Otrzymałem e-maile od "byłych chorych", którzy oglądając się wstecz, stwierdzali, że ich stan pomógł im zmienić kierunek działań, np. pracę, i w rezultacie są szczęśliwsi niż przed epizodem depresyjnym. Jedna z kobiet wyzwoliła się z toksycznego związku, a nie zrobiłaby tego, gdyby depresja nie wymogła na niej bardziej introspektywnego nastawienia. Obniżony nastrój wpływa też temperująco na nierealistyczne oczekiwania, wpływając na ocenę własnych możliwości i wymogów sytuacji. Spostrzeżenia Brytyjczyka są istotne o tyle, że jak szacuje, 1 na 4 osoby zapadnie na depresję w jakimś momencie swojego życia, jedna na dziesięć zachoruje w przyszłym roku, a 1 na 20 zmaga się z nią już teraz. Psychiatra uważa, że w poszukiwaniu początków występowania depresji spokojnie można się cofnąć aż do epoki kamienia łupanego. Wtedy blisko powiązane grupy składały się z ok. 50 członków. Zmiany w zachowaniu przygnębionej jednostki szybko wychwytywano. Cała społeczność gromadziła się wokół niej i zaczynał się proces wprowadzania zmian, np. przydzielania innych zadań. Plemię Banda z Ugandy nazywa depresję chorobą myśli. Dotkniętym nią osobom oferuje się czas spędzany z dala od grupy. Zgodnie z tokiem rozumowania Brytyjczyka, depresja minie, gdy człowiek upora się z wywołującym ją problemem. Nie należy się też obwiniać za swój stan.
  5. Wielu z nas słyszało wielokrotnie o sytuacji, gdy określony wariant genu (zwany allelem) może zwiększać lub zmniejszać ryzyko wystąpienia danej choroby. Wybitne osiągnięcia na tym polu ma m.in. polski naukowiec, prof. Jan Lubiński z Pomorskiej Akademii Medycznej, światowy autorytet w dziedzinie genetyki nowotworów. Okazuje się jednak, że są sytuacje, w których samo stwierdzenie obecności danego allelu nie wystarcza, by dokładnie przewidzieć reakcję organizmu na określone warunki. Naukowcy z Uniwersytetu Chicago oraz firmy Affymetrix odkryli, że nawet posiadacze identycznych alleli mogą wykazywać różną reakcję m.in. na podawanie niektórych leków oraz na pewne rodzaje infekcji. W badaniu wzięło udział 180 zdrowych osób. Grupa ta składała się z 60 trzyosobowych rodzin (rodzice plus dziecko). Połowa badanych rodzin należała do populacji kaukaskiej zamieszkującej stan Utah, a druga pochodziła z miasta Ibadan w Nigerii. Celem analiz było zmierzenie intensywności ekspresji genów, tzn. liczby cząsteczek białka, które powstaje w komórce na matrycy jednego genu. Pod lupę wzięto niemal połowę wszystkich genów, które posiadamy. Okazuje się, że aż pięć procent z nich wykazuje wyraźne różnice w stopniu ekspresji pomiędzy populacją kaukaską (do której należą m.in. Europejczycy) i afrykańską. Znaczącą liczbę różnic odkryto przede wszystkim w genach odpowiedzialnych za produkcję przeciwciał - cząsteczek niezwykle istotnych dla skuteczności naszej obrony przed mikroorganizmami. Profesor Eileen Dolan, specjalistka w dziedzinie genetyki nowotworów i główna autorka badań, tłumaczy: Naszym głównym obiektem zainteresowań był sposób, w jaki geny regulują skuteczność odpowiedzi na lekarstwa, przede wszystkim na chemioterapię nowotworów. Chcemy zrozumieć, dlaczego różne populacje wykazują odmienną intensywność efektów ubocznych przy przyjmowaniu leków. Chcielibyśmy także umieć przewidzieć, czy dany pacjent jest zagrożony wystąpieniem niepożądanej reakcji na określony lek. Jeszcze przed rozpoczęciem analiz badacze spodziewali się kilku różnic. Wiedziano już na przykład, że Afrykanie znacznie słabiej reagują na bakterie powodujące zapalenie przyzębia i potwierdzono to odkrycie dzięki badaniom genetycznym. W trakcie analiz odkryto jednak także kilka innych różnic pomiędzy populacjami. Okazało się na przykład, że liczne geny odpowiedzialne za wiele procesów związanych z podstawowymi funkcjami komórek również różnią się znacząco stopniem ekspresji. Jednak najwięcej istotnych różnic znaleziono wśród genów regulujących funkcje układu odpornościowego. Może to mieć ogromny wpływ na liczne procesy, od odporności na infekcje po rozwój takich chorób, jak stwardnienie rozsiane czy jeden z rodzajów cukrzycy. Dopiero zaczynamy badać różnice pomiędzy populacjami obejmujące pomiar ekspresji genów. Wierzymy jednak, że mogą one być fundamentalne dla podatności poszczególnych osób na określone choroby oraz sposobu reakcji na podanie określonych leków. W następnym etapie badań skupimy się na tym, jakie geny i w jaki sposób regulują reakcję człowieka na chemioterapię stosowaną w leczeniu nowotworów - tłumaczy prof. Dolan. Odkrycie naukowców z Uniwersytetu Chicago i firmy Affymetrix potwierdza, że "geny to za mało". Okazuje się bowiem, że nawet korzystne dla człowieka allele mogą nie dawać korzyści, gdy są mało aktywne, tzn. gdy ich ekspresja jest mała. Działa to także odwrotnie: niekorzystne allele można by hipotetycznie "uśpić" i w ten sposób zmniejszyć ich negatywny wpływ na organizm. Do tego jednak daleko, choć naukowcy pracują intensywnie, by poszerzyć wiedzę w tej dziedzinie. Dogłębniejsze zrozumienie wspomnianych mechanizmów pozwoli także dobrać optymalny rodzaj leczenia wielu chorób, przewidzieć przebieg terapii oraz poprawić jej jakość i skuteczność.
  6. Brent Christner, profesor Uniwersytetu Stanu Luizjana, dokonał wraz z kolegami z Montany i Francji ciekawego odkrycia dotyczącego bakterii. Udowodnił bowiem, że w atmosferze unoszą się liczne bakterie zdolne do wywoływania deszczu. Mają one istotny wpływ na intensywność opadów, a dzięki temu na klimat, produkcję rolną, a być może nawet na globalne ocieplenie. Wyniki badań profesora Christnera i jego kolegów ukażą się w najbliższym numerze prestiżowego czasopisma Science. Amerykańsko-francuski zespół udowodnił, że kluczowe dla występowania opadów deszczu i śniegu kryształki lodu tworzą się w chmurze najintensywniej, gdy wysycona jest określonymi bakteriami. Doprowadzają one do zamarzania znacznie skuteczniej od drobin pyłu i kurzu, gdyż białka na ich powierzchni umożliwiają zamarzanie wody w znacznie wyższych temperaturach. Z kolei im więcej jest w chmurze lodu, tym większe jest prawdopodobieństwo, że dojdzie do opadów deszczu bądź śniegu. Mikroorganizmy tego typu mogłyby znaleźć szerokie zastosowanie wszędzie tam, gdzie konieczna jest zdolność do regulowania pogody. Możliwości ich zastosowania jest wiele: od rolnictwa, przez lotnictwo, aż po turystykę. Przeszkodzić w tym może jednak jeden bardzo ważny fakt. Odkryto bowiem, że wiele spośród tych bakterii to patogeny roślin. Powietrze jest dla nich doskonałym środowiskiem, w którym mogą się rozprzestrzeniać na ogromne odległości. Gdy spadną na ziemię, przedostają się do gleby i powodują przedwczesne zamarzanie korzeni. Wywołują ogromne straty w rolnictwie i przez to - w całej gospodarce. Koncepcja "deszczowych bakterii" wcale nie jest nowa - prof. Christner zaproponował ją już ponad 25 lat temu, lecz do tej pory mało kto był do niej przekonany. Teraz jednak, gdy badacz przedstawił pierwsze dowody prawdziwości swojej tezy, pojawiła się szansa na powszechne uznanie jego hipotezy. Poparcie tej teorii przez środowisko naukowe ułatwiłoby najprawdopodobniej prowadzenie dalszych badań, co mogłoby przynieść znaczące korzyści dla ludzi.
  7. W czasach, gdy większość interfejsów komputerowych coraz intensywniej korzysta z zaawansowanych efektów graficznych, warto zwrócić uwagę na takie, w których zdobycze technologii nie służą jedynie pustym pokazom. Szczególnie interesujący jest projekt systemu nazwany ZEN (Z-axis ENabled), który według założeń pomysłodawcy umożliwi swobodne korzystanie z komputera osobom niewidomym. Zestaw składa się ze specjalnego oprogramowania, oraz komputera o nazwie Sandbox PC. Maszyna otrzyma ekran z "aktywną powierzchnią", która będzie mogła zmieniać kształt w sposób wyczuwalny dotykiem. Właściwość ta zostanie wykorzystana nie tylko do wyświetlania znaków alfabetu Braille'a, ale też zwykłych okien czy ikon, co pozwoli niewidomym na normalną obsługę komputera. Sercem maszyny jest matryca drobnych włókien odpowiadających poszczególnym pikselom obrazu. Włókna te mają podnosić się i opadać, zmieniając kształt powierzchni. Dzięki nim możliwe będzie również odczytywanie ruchów użytkownika – zadziałają one jak miniaturowe przyciski. Dodatkową pomocą w obsłudze ZEN-a będzie system dźwiękowy Sonicpoint, wskazujący miejsce ekranu, które wymaga interwencji użytkownika. Aby uświadomić sobie, jak duży skok technologiczny zaoferuje ZEN osobom niewidzącym, wystarczy wspomnieć, że obecnie mogą one korzystać z archaicznych, elektromechanicznych czytników alfabetu Braille'a oraz automatów "czytających" zawartość ekranu na głos. Bardziej zdeterminowani uczą się obsługi komputera "na pamięć" wyłącznie za pomocą klawiatury (wraz z przemieszczaniem wskaźnika myszy), jednak nowe gadżety graficzne skutecznie utrudniają opanowanie tej sztuki. Jeśli opisywane urządzenie kiedykolwiek powstanie, z pewnością zmieni bardzo niekorzystne proporcje związane z używaniem komputerów przez niewidomych: na 50 milionów osób codzienny kontakt z pecetami ma jedynie 1,5 miliona. Szanse na tanią produkcję masową są całkiem spore, a to dlatego, że "dotykany" ekran może się przydać również osobom bez kłopotów ze wzrokiem. Wystarczy wspomnieć, że powierzchnia urządzenia będzie mogła zastąpić klawiaturę i mysz, czy nawet zmienić się konsolę do montażu wideo czy klawiaturę instrumentu muzycznego. Ponadto komputer tego typu zajmuje na biurku niewiele miejsca. Niestety, "aktywna powierzchnia" jeszcze nie istnieje. Podobno przy obecnym tempie rozwoju nanotechnologii jej powstanie jest całkiem prawdopodobne.
  8. No i stało się - po wielu mniej lub bardziej udanych próbach przesyłania obrazów "dookólnych" doczekaliśmy się standardu cyfrowego wideo, w którym każdy sam decyduje, gdzie skierować kamerę. Filmy dostępne w witrynie firmy Immersive Media z pozoru niczym się nie różnią od tych publikowanych w serwisie YouTube. Wystarczy jednak kliknąć wnętrze kadru, aby uzyskać pełnię władzy, zarówno nad kierunkiem "patrzenia" kamery, jak i ogniskową jej obiektywu.Filmy, które można oglądać z różnych perspektyw, powstały dzięki specjalnej kamerze, noszącej nazwę Dodeca 2360. Dziesięciokilogramowe urządzenie ma 12 obiektywów i rejestruje obraz z prędkością ponad 100 megapikseli na sekundę. Ponadto nagrywa ono dźwięk z czterech kierunków jednocześnie. Nie zapomniano także o możliwości powiązania plików wideo z dodatkowymi informacjami, np. pochodzącymi z GPS. Uzyskany z kamery obraz wyróżnia się dobrą jakością, wynikającą przede wszystkim z braku widocznych "szwów" między ujęciami pochodzącymi z poszczególnych obiektywów.Co ciekawe, internetowa wersja opisywanych przekazów to tylko jedna z możliwych form odtwarzania. Wspomina się m.in. o projekcjach tych samych filmów zarówno na ogromnych kopułach, jak i miniaturowych wyświetlaczach noszonych przez widzów. W obu wypadkach zmiana kąta patrzenia odbywa się w sposób naturalny, poprzez ruchy głowy. Opisywana technologia co prawda debiutuje w świecie filmów internetowych (wykorzystał ją już jeden z producentów sprzętu sportowego), ale wcześniej była ona używana przez FBI podczas przygotowań do wizyt ważnych gości, a także przez Google'a podczas tworzenia serwisu Street View.
  9. W zeszłym roku w prywatnej kolekcji w Gorycji znaleziono zaginiony dawno temu manuskrypt franciszkańskiego matematyka Luca Paciolego. Zbiór zagadek De ludo scacchorum został napisany ok. roku 1500. W książce znalazł się opatrzony rysunkami opis gry w szachy. Ponieważ Pacioli przyjaźnił się z Leonardem da Vinci, przypuszcza się, że to renesansowy mistrz jest autorem objaśniających rycin. Pacioli poznał da Vinci na wykładach wygłaszanych w Mediolanie. Potem nawiązali współpracę. Jak dotąd, opublikowano 3 z 48 stron manuskryptu. Widnieją na nich wyrysowane z detalami układy pionów i figur. Pod spodem matematyk proponuje, jak doprowadzić do wygranej w określonej liczbie ruchów. Naukowcy przyznają, że wcześniej także tworzono podobne instruktaże, ale ten konkretny opatrzono wyjątkowo pięknymi i nowatorskimi ilustracjami. Królową, króla, skoczka i gońca przedstawiono za pomocą eleganckich (czarnych i czerwonych) symboli. Odkrycia dokonał włoski bibliofil Duilio Contin, który wertował w Palazzo Coronini Cronberg zbiory zmarłego w 1990 r. ostatniego hrabiego Coronini, Guglielmo. Dzieło O grze w szachy zadedykowano Isabelli d'Este, żonie władcy Mantui Francesca Gonzagi. Chociaż podręcznik cytowano w książkach z tego samego okresu, oryginalne dzieło przepadło bez wieści. Tymczasem okazało się, że w 1963 r. wraz z innymi woluminami zostało kupione przez szlachcica w Wenecji. Enzo Mattesini, włoski lingwista z Uniwersytetu w Perugii, podkreśla, że nie ma powodów, by wątpić, że autorem tekstu jest toskański matematyk. Druga ekspertyza ma zostać przeprowadzona w USA. Wiadomo, że da Vinci znał zasady gry w szachy, w jednym z jego dzieł znalazł się nawet przypis dotyczący technicznego terminu szachowego. Czy grywał? Tego nie wiadomo... Najprawdopodobniej zachował się tylko jeden egzemplarz De ludo scacchorum. O wadze odkrycia świadczy zainteresowanie nim w środowisku szachistów. Posta na ten temat zamieściła na swoim blogu arcymistrzyni szachowa Susan Polgar.
  10. Bob McNichol, 57-letni Irlandczyk, który w listopadzie 2005 roku stracił wzrok w wyniku wybuchu płynnego aluminium, odzyskał wzrok dzięki... zębowi syna. W pewnym momencie lekarze z Zielonej Wyspy powiedzieli mężczyźnie, że zrobili już wszystko, co tylko mogli. Wtedy McNichol usłyszał o operacji przeprowadzanej przez doktora Christophera Liu z Sussex Eye Hospital w Brighton: osteoodontokeratoplastyce (ang. Osteo-Odonto-Keratoprosthesis, OOKP). Jej pionierami byli w latach 60. ubiegłego wieku Włosi. Polega ona na tworzeniu oparcia dla sztucznej rogówki z własnych zębów pacjenta i otaczających kości. W przypadku Irlandczyka wykorzystano tkanki jego syna Roberta: korzeń zęba i fragment szczęki. Najpierw odtworzono prawy oczodół, potem umieszczono w nim kawałek zęba, a w wydrążonym otworze umocowano soczewkę. Pierwsza operacja trwała 10 godzin, druga już o połowę krócej. McNichol ma 65% szans na odzyskanie wzroku. Już teraz może wykonywać proste czynności i oglądać telewizję. W Sieci można zobaczyć zdjęcie pana McNichola po operacji.
  11. Na północ od Norwegii odkryto szczątki pliozaura, morskiego dinozaura, który żył 150 milionów lat temu. Dzięki nim dowiedziano się, że zwierzęta te mogły mierzyć nawet 15 metrów, o 5 metrów więcej, niż dotychczas sądzono. Znaleziony pliozaur miał tak wielką szczękę, że mógłby zmieścić się w niej mały samochód. Pliozaury były najgroźniejszymi drapieżnikami morskimi epoki jurajskiej. Żywiły się prawdopodobnie gadami, rybami i inną dużą zdobyczą. Co prawda inny morski gad, ichtiozaur, dorastał nawet do 23 metrów długości, jednak jego budowa wskazuje, że nie był aż tak grożny.
  12. Dziewiętnastoletnia Ashleigh Morris z Melbourne cierpi na rzadką chorobę: pokrzywkę wodną (aquagenic urticaria). Oznacza to, że każdy kontakt z wodą, także z własnym potem, wywołuje u niej reakcję alergiczną i wysiew zmian skórnych. Temperatura cieczy nie ma przy tym żadnego znaczenia. Nie wiadomo, u ilu ludzi na świecie występuje podobne zjawisko. Wspomina się o mniej niż 30 udokumentowanych przypadkach. Wykwity pojawiają się od 1 do 15 minut po kontakcie z wodą. Utrzymują się od 10 min do dwóch godzin. Większość ekspertów uważa, że jest to nadmierna reakcja na związki chemiczne znajdujące się w wodzie, np. chlor. Diagnozę stawia się po polaniu skóry wodą z kranu i wodą destylowaną. Australijska nastolatka cierpi na pokrzywkę wodną od 5 lat. W jej przypadku jest to skutkiem wysokich dawek penicyliny, podawanych w leczeniu ostrego zapalenia migdałków. Od tego czasu nie może już chodzić na plażę czy pływać, co kiedyś bardzo lubiła. Pod prysznicem kąpie się tylko od czasu do czasu, wchodząc tam tylko na minutę. Regularnie się tylko obmywa. Po prysznicu przez dwie godziny zostaje domu, tak by plamy zdążyły zniknąć. Musi unikać drapania swędzących zmian, ponieważ już kilka razy doprowadziło to do krwawienia. Większość lekarzy nie słyszała o przypadłości, na którą cierpi. Profesor Rodney Sinclair, dermatolog prowadzący Morris, wyjaśnia, że penicylina zmieniła poziom histamin w jej organizmie. W grę muszą jednak wchodzić także inne mechanizmy, ponieważ podanie leków antyhistaminowych nie zawsze skutkuje. Na razie nie wynaleziono lekarstwa na pokrzywkę wodną, dlatego nastolatka musi unikać uprawiania sportów, by się nie spocić. Stara się przebywać w klimatyzowanych miejscach i zawsze ma ze sobą parasol. Śpiąc z inną osobą, musi się od niej oddzielać prześcieradłem, nie może też dotykać kogoś, kto zmókł lub się spocił.
  13. AMD i IBM poinformowały o wyprodukowaniu pierwszego układu scalonego, który powstał przy użyciu litografii w dalekim ultrafiolecie (extreme ultra-violet – EUV). Technologia ta będzie wykorzystywana za około 8 lat do produkcji układów w procesie technologicznym 22 nanometrów. Testowa kość najpierw przeszła proces 193-nanometrowej litografii zanurzeniowej w należącej do AMD drezdeńskiej Fab 36. Jest to najbardziej zaawansowany proces technologiczny wykorzystywany obecnie przy masowej produkcji układów scalonych. Następnie krzemowy plaster dostarczono do centrum badawczego IBM-a w Albany. Tam użyto wspomnianego skanera litograficznego firmy ASML. Za jego pomocą stworzono pierwszą warstwę połączeń pomiędzy tranzystorami naniesionymi w Dreźnie na krzem. Po ich połączeniu chip poddano teston elektrycznym. Wykazały one, że prace zakończyły się powodzeniem. Teraz plastry wrócą do Niemiec, gdzie zyskają kolejną warstwę połączeń. Powstanie ona przy użyciu standardowych narzędzi dostępnych w Fab 36 i pozwoli na umieszczenie na chipie pamięci cache. Oczywiście litografię w dalekim ultrafiolecie wypróbowano już wcześniej, jednak dotychczas tworzono za jej pomocą część obwodów, nigdy zaś nie powstał cały układ. Kolejnym krokiem będzie stworzenie całego układu scalonego tylko i wyłącznie za pomocą EUV. Nowa technologia musi być gotowa do rozpoczęcia masowej produkcji najpóźniej do końca 2015 roku. International Technology Roadmap for Semiconductor przewiduje bowiem, że w 2016 roku będzie wdrażany 22-nanometrowy proces technologiczny. EUV wykorzystuje fale światła o długości 13,5 nanometra. To olbrzymia różnica w porównaniu z obecnie wykorzystywanymi 193-nanometrowymi falami.
  14. Noel Sharkey, jeden z czołowych ekspertów ds. robotyki, mówi, że jest naprawdę przerażony planami USA i innych krajów dotyczącymi prac nad robotami bojowymi. W chwili obecnej w Iraku znajduje się ponad 4000 półautonomicznych robotów wojskowych, wykorzystywanych przez Stany Zjednoczone. Sharkeya nie przeraża jednak sama ich liczba, a ich przyszłość. Obecnie to człowiek podejmuje decyzje. Jednak Pentagon od dwóch lat prowadzi już badania nad w pełni automatycznymi maszynami, które samodzielnie będą decydowały o naciśnięciu spustu. Amerykański Departament Obrony (DoD) opublikował swoje plany dotyczące badań nad robotami bojowymi. Do roku 2010 chce wydać na ich rozwój 4 miliardy dolarów, a później dołoży do tego kolejne 20 miliardów. Trzeba przy tym pamiętać, że podobne maszyny powstają też w kilku krajach Europy, w Kanadzie, Korei Południowej, RPA, Singapurze i Izraelu. Sharkey uważa, że powinno zostać nałożone tymczasowe moratorium na rozwój autonomicznych robotów bojowych. Dałoby to czas na określenie, jak daleko można posunąć się w ich produkcji i jakie mechanizmy bezpieczeństwa należy im zaimplementować. Sharkeya popiera Ronald Arkin, specjalista robotyki z GaTech. Sądzi on, że rzeczywiście należy problem przedyskutować. Uważa jednak, że w przyszłości roboty będą postępowały bardziej etycznie niż współcześni żołnierze. Zdaniem Arkina maszyny powinny przestrzegać międzynarodowych porozumień. Jest on jednak optymistą: Jestem pewien, że w robocie nie zrodzi się chęć zrobienia krzywdy cywilowi.
  15. Po wielu latach dociekań naukowcy doszli do tego, jak i po co Majowie przygotowywali swój osławiony błękitny barwnik. Okazuje się, że jego produkcja w Chichén Itzá była częścią rytuału składania ofiar, także z ludzi. Lud ten opracował recepturę barwnika ok. 300 roku naszej ery. Był on szeroko stosowany w sztuce, np. w malowidłach naściennych czy ceramice, medycynie oraz podczas ofiarowań. Gdy zaczął się podbój przez konkwistadorów, barwnik stopniowo popadał w zapomnienie, aż ponownie znalazł się w centrum zainteresowania dzięki archeologom, którzy na początku XX wieku rozpoczęli wykopaliska w odpowiednim miejscu. Po raz pierwszy (oczywiście dla nowożytnych) zidentyfikowano go w 1931 roku. Na czym polega fenomen błękitu majańskiego? Na niesamowitej trwałości. Gros naturalnych barwników szybko blaknie, tymczasem ten używany przez Indian pozostał nadal żywy, mimo upływu setek lat i niekorzystnych warunków klimatycznych. Na Jukatanie mamy do czynienia ze zmianami pór suchej i deszczowej i częstymi huraganami. Błękit jest odporny na upływ czasu, działanie kwasów i pogody czy biodegradację. Nawet współczesne rozpuszczalniki nie dają sobie z nim rady. Nazywa się go jednym z największych osiągnięć technologicznych i artystycznych Mezoameryki. Chemicy i archeolodzy postanowili rozwiązać tę zagadkę. Początkowo przypuszczali, że kolor uzyskiwano dzięki związkom miedzi. Późniejsze badania wykazały jednak, że sprawa jest nieco bardziej skomplikowana. Cząsteczki indygo wnikały kanałami w głąb minerału o nazwie pałygorskit (in. attapulgit), co zabezpieczało je przed rozkładem. Nadal jednak podstawowe pytanie, jak uzyskiwano barwnik, pozostawało bez odpowiedzi. Już trzy lata temu Dean Arnold z Wheaton College twierdził, że indygo mogło się łączyć z gliną podczas palenia kadzideł z kopalu, czyli kopaliny z żywic drzew tropikalnych. Wypalanie ich wszystkich w temperaturze 100-150 stopni Celsjusza zmuszało indygo do wnikania w pory minerału i tworzenia barwnika. Dodatkowo lepkie pozostałości kopalu ułatwiały przyleganie cząsteczek indygo do powierzchni attapulgitu. Udowodnił to jednak dopiero teraz, po przebadaniu pod skaningowym mikroskopem elektronowym kadzielnicy znalezionej sto lat temu w świętej studni cenote w Chichén Itzá. Od 75 lat stanowi ona część ekspozycji Field Museum w Chicago. Misa zawierała zarówno kopal, jak i fragmenty indygo oraz białego pałygorskitu. Wg Arnolda, barwnik był wykorzystywany podczas rytuału przywoływania boga deszczu Chaaka. Uzyskanie go było utożsamiane niemal z samą inkarnacją. Ofiary z ludzi i przedmiotów pokrywano błękitem majańskim przed wrzuceniem do cenote. W ten sposób Mezoamerykanie upewniali się, że po porze suchej znowu przyjdą deszcze (Antiquity). Na dnie studni znaleziono niebieskie pokłady o grubości ponad 4 metrów. Z Arnoldem współpracował m.in. Gary Feinman z Field Museum.
  16. Chyba wszyscy wiemy, że wiele gatunków ptaków co roku zakłada gniazdo w tym samym miejscu i składa w nim jaja. Przez wiele lat bezskutecznie poszukiwano jednak odpowiedzi na pytanie, w jaki sposób ptaki wybierają miejsce swojego pierwszego lęgu. Naukowcy z Uniwersytetu stanu Maryland nie dali jednak za wygraną - na podstawie badań pleszki (Ruticilla phoenicurus), niewielkiego ptaka śpiewającego, znaleźli prawdopodobne rozwiązanie tej zagadki. Zdaniem badaczy, na wybór miejsca rozrodu największy wpływ mają warunki środowiskowe, w których młode ptaki dorastają przez pierwszy rok życia. Colin Studds, doktorant z Uniwersytetu Maryland, tłumaczy: Odkryliśmy, że miejsce pobytu ptaków w czasie pierwszej zimy ich życia determinuje z dokładnością do kilkuset mil miejsce, w które będą się udawały na rozród przez całe swoje życie. Ważnym czynnikiem okazuje się dostępność wody i pożywienia w miejscu zimowego pobytu pleszek. W trakcie badań ustalono, że ptaki te migrują każdego roku pomiędzy miejscami rozrodu w Ameryce Północnej i miejscami zimowania w basenie Morza Karaibskiego oraz w Ameryce Południowej. Aby dokładniej zbadać zwyczaje pleszek, wybrano dwie populacje tych zwierząt, zamieszkujące położone niedaleko od siebie, lecz oddzielne stanowiska na Jamajce. Jedno z nich to namorzyny (rodzaj wiecznie zielonego lasu rosnącego nad brzegiem mórz i dużych rzek) bogaty w wodę i insekty, którymi żywią się te ptaki. Drugie miejsce pobytu ptaków było suche i niegościnne, a także ubogie w pożywienie. Zauważono, że w bogatym środowisku dominują głównie dojrzałe samce - mogłoby to sugerować, że są one na tyle silne, by skutecznie chronić swoje terytorium. Na podstawie analizy zebranych przez naukowców piór ustalono również, że ptaki żyjące w bogatszym środowisku szybciej opuszczają zimowisko i powracają na północ, by założyć gniazdo. Dzieje się tak, ponieważ w wyniku lepszego odżywiania szybciej osiągają one wystarczającą masę ciała, by przetrwać długi lot i złożyć jaja na północy. Ponieważ docierają one do miejsca lęgu wcześniej od konkurentów z uboższego środowiska, zwyciężają walkę o dogodniejsze miejsca położone bliżej miejsca zimowego pobytu. Z kolei ptaki mieszkające zimą w uboższym środowisku muszą pokonać dłuższą drogę, zanim znajdą dogodne miejsce do lęgu. Gdy zimą powracają na Jamajkę, znów mają do przebycia większy dystans i ponownie przegrywają konkurencję o korzystniejsze miejsce pobytu. Cykl ten powtarza się co roku, toteż ptak, który nieszczęśliwie wybrał miejsce pierwszego zimowego pobytu, najprawdopodobniej do końca życia będzie skazany na bytowanie w gorszych warunkach. Największym zmartwieniem naukowców badających pleszki jest teraz zmieniający się klimat. Co prawda obecnie zwierzęta te świetnie radzą sobie w środowisku, lecz zdaniem badaczy, należy zbadać dokładniej, jak zmiana warunków bytowania wpłynie na te ptaki. Okazuje się bowiem, że wraz z ociepleniem klimatu później zaczyna się na północy okres zwiększonych opadów. Deszcz jest dla tych ptaków znakiem do odlotu na południe. Gdy klimat się ociepli, a pora obfitych deszczów zacznie nadchodzić później niż zwykle, może się okazać, że ptaki będą zbyt wycieńczone, by dolecieć na północ. Może to się skończyć gwałtownym obniżeniem liczebności populacji, która dociera na Jamajkę zimą. Z tego powodu naukowcy zwracają uwagę, by podjąć kroki mające na celu ochronę bogatych w pożywienie stanowisk na północy, w których ptaki będą mogły odżywiać się lepiej i dzięki temu mieć większe szanse na dotarcie na tereny zimowania.
  17. Historia talidomidu sięga końca lat 50. XX wieku. Substancja ta zrobiła oszałamiającą karierę jako lek antydepresyjny i uspokajający - w samych tylko latach 1957-1961 sprzedawano ją w niemal pięćdziesięciu krajach, w dodatku pod czterdziestoma różnymi nazwami handlowymi. Pechowy zbieg okoliczności sprawił, że lek ten przepisywano głównie kobietom ciężarnym. Powód? Jego wysoka skuteczność w zwalczaniu porannych mdłości. Wówczas nikt nie wiedział, że lek ten powoduje katastrofalne zaburzenia dojrzewania płodu w łonie matki. Dzieci kobiet leczonych talidomidem rodziły się przeważnie z poważnym niedorozwojem kończyn oraz uszkodzeniami m.in. układu nerwowego i jelit. Lek wycofano z rynku zaledwie kilka lat po jego wprowadzeniu, lecz dla około dziesięciu tysięcy dzieci było już zbyt późno... Historia zatoczyła jednak koło. W latach 90. XX wieku okazało się bowiem, że dzięki nowym metodom oczyszczania cząsteczek talidomidu (do stworzenia leku wybierano wyłącznie cząsteczki o odpowiednim przestrzennym układzie atomów) można uzyskać skuteczny lek, którego stosowanie nie powoduje tak poważnych konsekwencji. I choć ze względów bezpieczeństwa zakaz stosowania talidomidu przez kobiety ciężarne jest stosowany do dziś, lek ten jest obecnie skutecznym środkiem stosowanym w leczeniu m.in. szpiczaka mnogiego (rodzaj nowotworu wywodzącego się ze szpiku kostnego) oraz tocznia guzowatego. Zaledwie kilka dni temu ogłoszono także, że związek ten może być skuteczny w leczeniu raka jajnika opornego na inne metody leczenia. Odkrycia dokonali badacze z Centrum badań nad Rakiem Uniwersytetu stanu Minnesota. Prowadzący badania dr Levi Downs mówi: Dla niektórych kobiet rak jajnika stał się chorobą przewlekłą. Standardowa chemioterapia może znacząco zmniejszyć masę nowotworu, lecz często nie daje całkowitego wyleczenia [wówczas mówimy o tzw. remisji choroby - przyp. tłum.]. W pewnym momencie rak nabiera oporności na tego typu leczenie. Właśnie w takich sytuacjach potrzebujemy nowych terapii. W badaniach porównano skuteczność i bezpieczeństwo standardowej chemioterapii oraz chemioterapii połączonej z podawaniem talidomidu. Wszystkie kobiety poddane testom (a było ich 75) przeszły już wcześniej inne rodzaje terapii, lecz zakończyły się one niepowodzeniem, tzn. nie zniszczono całkowicie guza. Okazało się, że spośród kobiet leczonych samą chemioterapią tylko 21% odpowiedziało pozytywnie na leczenie. U pań leczonych kombinacją chemioterapii i talidomidu odsetek ten wyniósł aż 47%. Spośród osób, które zareagowały pozytywnie na leczenie, aż 30% leczonych dwoma lekami naraz uzyskało całkowitą odpowiedź, tzn. udało się całkowicie usunąć nowotwór. Analogiczny odsetek wśród pań, które zareagowały pozytywnie na samą chemioterapię, wynosił zaledwie 18%. Rak jajnika to piąty najczęściej atakujący kobiety nowotwór. W samej Polsce zapada na tę chorobę około 3000 kobiet rocznie, a zaledwie jedna na cztery kobiety, u których ją wykryto, przeżywa pięć lat od momentu diagnozy. Nie bez powodu poszukiwane są nowe metody leczenia tego schorzenia. Pozostaje więc mieć nadzieję, że talidomid, wciąż okryty złą sławą, przejdzie pozytywnie kolejne etapy badań i zostanie dopuszczony do rutynowego leczenia tej choroby.
  18. Choć stosowanie przez armię laserów bojowych wysokiej mocy jest raczej zagadnieniem teoretycznym, już powstaje materiał umożliwiający ochronę przed taką bronią. Badania prowadzone w ośrodku China Lake Naval Warfare Center mają doprowadzić do powstania tarczy nie tylko dla najdroższych machin bojowych, jakimi są okręty, ale też drobniejszego sprzętu, a nawet żołnierzy. Podstawą nowej technologii obronnej są tzw. metamateriały. Wykonane z nich osłony będą w stanie odbijać promienie lasera dzięki ujemnemu współczynnikowi załamania światła. Rozmiary struktur decydujących o właściwościach "tarczy" mają być na tyle małe, aby zabezpieczenie było skuteczne w wypadku każdego niemal typu lasera. Naukowcy rozważają zastosowanie kompozytu składającego się z trzech warstw o klasycznych właściwościach oraz umieszczonych między nimi metamateriałów. "Przekładaniec" ma niewiele ważyć i być na tyle cienki, by możliwe było jego powszechne użycie. Mimo że wspomniane badania mają zapewnione finansowanie, pomysłodawcy nietypowej tarczy wiedzą, że czeka ich trudne zadanie. Ciekawe, czy zdążą je wykonać, zanim lasery dołączą do standardowego uzbrojenia jednostek wojskowych świata.
  19. Każdy, kto interesuje się technikami transmisji danych, świetnie zdaje sobie sprawę z przewagi, jaką mają światłowody nad kablami miedzianymi. Choć z przyczyn ekonomicznych i technicznych te ostatnie wciąż mają się całkiem dobrze, dzięki naukowcom z Ames Laboratory (działającym na Iowa State University) już wkrótce mogą trafić do lamusa. Stojący na czele zespołu badawczego Rana Biswas twierdzi bowiem, że trwają prace nad idealnym sposobem zarządzania i globalnej dystrybucji ogromnych ilości danych w przewodach optycznych. Nowa technologia bazuje na "trójwymiarowych" kryształach fotonicznych, które pełnią rolę filtra, pozwalającego dodawać kanały na drodze światłowodu oraz je odejmować (ang. add-drop filter). Wspomniany filtr pozwala optymalnie wykorzystać dostępne pasmo przez ograniczenie "zasięgu" wybranego kanału jedynie do odcinka łączącego nadawcę z odbiorcą danych. Kanałów tych można dziś zmieścić w światłowodzie do 160, a dzięki opisywanej technice, efektywna pojemność łącza jest zwielokrotniana. Podobne urządzenia nie są co prawda niczym nowym, jednak dotychczas stosowane rozwiązania charakteryzowały się pewnymi ograniczeniami, np. dopiero opisywany kryształ zapewnia stabilną, wysoką jakość sygnału. Obecnie naukowcy pracują nad udoskonaleniem filtra optycznego. Ponieważ od jego rozmiaru zależą obsługiwane długości fal światła, konieczna jest miniaturyzacja kryształów do około 1,5 mikrometra. Jak twierdzą badacze, osiągnięcie tego rozmiaru stanowi niemałe wyzwanie.
  20. Neil Harbisson jest 25-letnim malarzem z achromatopsją, czyli całkowitym niewidzeniem barw. Rozróżnia tylko stopień jasności obrazu, dlatego świat jawi mu się w różnych odcieniach czerni i bieli. Wykorzystując urządzenie o nazwie Eyeborg (w wolnym tłumaczeniu Okoborg od cyborga), po raz pierwszy stworzył serię wielokolorowych prac. Elektroniczny pomocnik przekształcał 360 barw na sygnał dźwiękowy. Wystawę można najpierw zobaczyć w Barcelonie (od 1 lutego do 8 marca), a dopiero od kwietnia w Londynie. Obrazy przedstawiają życie i ważne elementy architektoniczne różnych europejskich państw i miast, np. czerwone londyńskie budki telefoniczne oraz kontenery do recyklingu w stolicy Katalonii. Kiedy malowałem, czułem się, jakbym komponował na płótnie – ekscytuje się student Dartington College of Arts w Devon. Cztery lata temu chłopak spotkał Adama Montandona, cybernetyka, który wygłosił wykład na jego uczelni. Uczony postanowił mu pomóc. Chciał przetworzyć częstotliwość fali światła, która przekłada się na widzianą przez oko barwę, na częstotliwość, a więc wysokość dźwięku. Pierwsze urządzenie, które przedstawił Harbissonowi, było bardzo prymitywne, bo pozwalało "widzieć" jedynie 6 kolorów. Teraz cybernetyk dodał kolejne 354 barwy. Montandon zaprojektował Eyeborga, a produkcją zajęła się współzałożona przez niego firma HMC Interactive z Plymouth. Na głowę nakłada się zestaw z kilku elementów, m.in. aparatu cyfrowego i słuchawek. Wysunięty ku przodowi na wysokości czoła aparat przekazuje dane do umieszczonego w plecaku laptopa. Odpowiedni program spowalnia fale świetlne do częstotliwości fal dźwiękowych. Ostateczny sygnał jest następnie przekazywany do słuchawek. Człowiek musi się tylko nauczyć, jaki dźwięk odpowiada jakiemu kolorowi. Montandon zamierza zminiaturyzować swój wynalazek, tak by gabarytami przypominał odtwarzacz MP3. Harbisson cieszy się, że jego sztuka uległa takiemu wzbogaceniu. Do tej pory malował tylko pejzaże i martwe natury (czyli to, co widział), wykorzystując 2-3 barwy, zazwyczaj podstawowe. Teraz coraz częściej decyduje się na abstrakcje i znacznie większą liczbę kolorów. Na tubkach z farbami znajdują się etykiety i próbki koloru. Chłopak ma przygotowanie zarówno malarskie (jego matka Hiszpanka amatorsko się tym zajmowała) i muzyczne. Gdy był młodszy, grał bowiem na pianinie. Eyeborg pomaga nie tylko przy tworzeniu, ale i w codziennym życiu. Nie przesyła do ucha użytkownika kakofonii bezładnych i ciągłych dźwięków, ponieważ wychwytuje tylko to, co znajduje się dokładnie naprzeciwko. Prace i samo urządzenie można zobaczyć na stronie artysty.
  21. NASA ogłosiła, że jest gotowa do zastąpienia krzemowych układów scalonych chipami zbudowanymi z węgliku krzemu. Takie kości przydadzą się tam, gdzie panują wysokie temperatury, wytrzymują one bowiem nawet 540 stopni Celsjusza.Pierwsze komercyjnie dostępne układy, które wyprodukuje firma Inprox Technology, pojawią się pod koniec bieżącego roku. Zostaną one wykorzystane wewnątrz silników używanych przez NASA, gdzie posłużą do pomiaru różnych parametrów pracy tych urządzeń. Inprox zapowiada jednak, że Agencja nie będzie jedynym klientem firmy. Nowe kości zostaną zaoferowane również przemysłowi motoryzacyjnego.Obecnie NASA stosuje tradycyjne układy scalone, jednak muszą być one umieszczane z dala od silników lub też trzeba je schładzać cieczą. To powoduje, że system jest drogi, trudny w konstrukcji i mniej doskonały. Kości z węgliku krzemu nie muszą być chłodzone nawet w temperaturze 500 stopni Celsjusza. Jedyną wadą węgliku krzemu jest mniejsza wydajność układów związana z mniejszą mobilnością elektronów. Wynosi ona 900 cm2/V-s, podczas gdy w krzemie - 1500 cm2/V-s. Jednak inne zalety równoważą tę wadę.Właściwości SiC są znane od ponad 10 lat, jednak musiała minąć więcej niż dekada, by udało się wyprodukować odpowiedniej jakości tani układ scalony wykorzystujący ten materiał. Technologia szybko jednak idzie naprzód. W ubiegłym roku informowaliśmy o prototypowym układzie, który wytrzymał 1700 godzin w temperaturze 500 stopni. Niedawno identyczna kość pracowała w takich samych warunkach już przez ponad 5000 godzin.Podczas projektowania takiego procesora jednym z największych wyzwań było stworzenie metalowych nóżek, dzięki którym układ komunikuje się zresztą systemu. Pracujący dla NASA Robert Okojie zbudował odpowiedni połączenia, które podczas testów wytrzymały wiele tysięcy godzin w temperaturze 500 stopni Celsjusza.Pierwszy układ z węgliku krzemu zostanie wykorzystany do monitorowania ruchu liniowego wewnątrz silnika odrzutowego.http://kopalniawiedzy.pl/wiadomosc_6227.html
  22. Nvidia twierdzi, że za cztery lata aż trzy z pięciu najpotężniejszych na świecie komputerów będzie korzystało z procesorów graficznych, a nie z CPU. Obaj główni producenci GPU – ATI i Nvidia – już od pewnego czasu mówią o wykorzystaniu ich produktów do obliczeń niezwiązanych z przetwarzaniem grafiki. Takie rozwiązanie może być bardzo korzystne dla właścicieli superkomputerów. Obecnie maszyny te korzystają nawet z dziesiątków czy setek tysięcy procesorów. Współczesne GPU charakteryzują się większą mocą obliczeniową niż CPU, tak więc komputer o tej samej mocy wymagałby zastosowania mniejszej liczby kości. To oznacza, że zarówno jego zbudowanie jak i utrzymanie (tutaj mowa jest przede wszystkim o kosztach energii elektrycznej) byłoby tańsze. Jako przykład niech posłuży superkomputer BlueGene/L. Obecnie jego maksymalna wydajność wynosi 596 teraflopsów. Maszyna korzysta z 213 000 procesorów PowerPC 440. Maksymalna wydajność najnowszych GPU to około 0,5 Tflops. Oznacza to, że BlueGene/L mógłby wykorzystywać mniej więcej 1200 procesorów graficznych w miejsce 213 000 CPU. Do wykorzystania GPU w superkomputerach droga jednak daleka. Należy nie tylko przekonać producentów tych maszyn, by zechcieli używać chipów graficznych, ale również odpowiednio przygotować architekturę i oprogramowanie najpotężniejszych maszyn na świecie.
  23. Dyskusja dotycząca autentyczności Całunu Turyńskiego toczy się już od wielu lat. Chrześcijanie uważają go relikwię, lnianą tkaninę, którą niegdyś owinięto ciało Chrystusa. Profesor Christopher Ramsey z Oksfordu zamierza ponownie przeprowadzić testy, które wykażą, czy na płótnie widnieje twarz Jezusa. Wg niego, pewien rodzaj kontaminacji mógł doprowadzić do tego, że badania z 1988 r. wykazały, że całun jest średniowiecznym falsyfikatem. Metodą datowania węglowego wykazano wtedy, iż powstał między rokiem 1260 a 1390. W najbliższym czasie warto śledzić ramówkę telewizji BBC, ponieważ na podstawie poczynań profesora zostanie nakręcony film dokumentalny. Jego autorzy przedstawią też nowe dowody archeologiczne w sprawie. Ramsey uważa, że do zniekształcenia wyników datowania radioaktywnym węglem-14 wystarczy dużo mniejsze zanieczyszczenie, niż się wydawało jego kolegom po fachu z lat 80. ubiegłego wieku. Według nowej teorii, 2-procentowa kontaminacja oznacza odchylenie aż o 1500 lat. Wniosek ten to pokłosie opublikowanych danych na temat zachowania węgla-14 w atmosferze, o którym nie słyszano, gdy 20 lat temu przeprowadzano testy – tłumaczy reżyser David Rolfe. Gdyby ktoś chciał zawczasu obejrzeć całun, powinien się udać do katedry Św. Jana Chrzciciela w Turynie.
  24. Przy cukrzycy typu 1. komórki beta wysepek Langerhansa trzustki są niszczone przez własny układ odpornościowy chorego. Do tej pory, wyjaśniając, co zapoczątkowuje atak, powoływano się na anormalne komórki układu immunologicznego. Teraz okazuje się jednak, że przyczyna może być zupełnie inna i szukać jej należy jeszcze w życiu płodowym. Podczas badań na myszach zespół Denise Faustman z Harvard Medical School w Bostonie odkrył różnice w strukturze kilku narządów wewnętrznych, w tym trzustki, jeszcze zanim pojawiła się autoagresja. Na tej podstawie wyciągnięto wniosek, że nieprawidłowy rozwój organów w łonie matki predysponuje do wystąpienia chorób autoimmunologicznych. Amerykanie podkreślają, że w ramach wcześniejszych studiów zauważono, że ludzie i myszy z cukrzycą dziecięcą częściej cierpią z powodu utraty słuchu oraz zespołu Sjögrena, który dotyczy ślinianek (powiększają się zwłaszcza te przyuszne). U specjalnie wyselekcjonowanych gryzoni zwracano szczególną uwagę na stan trzustki, ślinianek, języka, nerwów czaszkowych oraz ucha wewnętrznego. We wszystkich wykryto nieprawidłowości strukturalne, w dodatku występowały one także u zwierząt całkowicie pozbawionych układu odpornościowego. Ponieważ wymienione tkanki i narządy tworzą się z komórek embrionalnych, w których występuje czynnik ekspresyjny Hox11, pani Faustman dywaguje, że zaburzenia jego wytwarzania zwiększają jednostkową podatność na atak autoimmunologiczny. Gdy się on rozpoczyna, obejmuje słabe punkty organizmu (Immunology and Cell Biology).
  25. Każdy z nas czuje się czasem smutny i przybity. Jednak, jak wiadomo, niektórzy przeżywają trudne okresy w życiu znacznie ciężej niż inni. Na dodatek problemy związane z pogorszeniem nastroju są często posunięte do tego stopnia, że smutek może trwać latami, a do tego utrudniać codzienne życie. Stan taki nazywamy depresją - jest to choroba wynikająca z zaburzenia w mózgu równowagi poziomu i aktywności związków chemicznych regulujących nastrój. Depresja jest uznawana za chorobę cywilizacjną - aż miliard ludzi na Ziemi w ciągu życia będzie przynajmniej przez pewien czas wykazywać jej objawy. Typowe symptomy depresji to uczucie bezradności, zaniżone poczucie własnej wartości, brak motywacji do codziennego życia, a w skrajnych przypadkach dochodzi nawet do prób samobójczych. Nie bez powodu tak istotne jest zbadanie podstaw depresji oraz opracowanie skutecznej terapii przywracającej równowagę biochemiczną w mózgu. Aby zbadać intensywność objawów depresji, stworzono specjalną skalę, znaną jako Hamilton Rating Scale of Depression (HRSD). Składa się ona z 17-21 pytań, z których każde jest odpowiednio punktowane. Suma punktów decyduje o zakwalifikowaniu chorego do grupy osób o określonej intensywności symptomów. O ile depresję łagodną można pokonać dzięki psychoterapii (a niejednokrotnie nawet dzięki częstym rozmowom), o tyle w poważnej depresji konieczne jest wspomaganie farmakoterapią. Jednym z typów stosowanych w tej chorobie leków są tzw. selektywne inhibitory zwrotnego wchłaniania/wychwytu serotoniny, określane także jako SSRI (od ang. Selective Serotonine Reuptake Inhibitors). Do grupy tej należy słynny Prozac, zwany przez niektórych pigułką szczęścia. Leki te należą do stosunkowo nowej grupy związków, które przedłużają działanie serotoniny, znanej także jako hormon szczęścia. Właśnie na tych specyfikach, przyjmowanych na świecie przez co najmniej 40 milionów ludzi, skupili się badacze. Kilka spośród SSRI zostało zarejestrowanych przez odpowiednie organy zarówno w USA, jak i w krajach europejskich. Mimo to do dziś pojawiają się wątpliwości dotyczące ich rzeczywistej efektywności. Naukowcy z kilku ośrodków amerykańskich i brytyjskich postanowili zebrać wyniki badań przeprowadzonych na potrzeby procesu rejestracji tych leków, a następnie przeprowadzić tzw. metaanalizę, czyli statystyczne podsumowanie i porównanie wyników innych badań. Co ciekawe, już wcześniej dostarczano FDA (Food and Drug Administration), amerykańskiemu urzędowi odpowiedzialnemu m.in. za rejestrację produktów leczniczych, alarmujące wyniki metaanaliz. Z wielu z nich wynikło bowiem, że stosowanie leków antydepresyjnych, w tym SSRI, przynosi zerową lub minimalną poprawę w stosunku do placebo. Z tego powodu badacze postanowili prześledzić dokładniej inne analizy i sprawdzić, czy te niekorzystne wyniki dotyczą wszystkich chorych, czy też dla części z nich rzeczywiście leki typu SSRI mogą się okazać skuteczne. Badacze otrzymali od FDA kopie wyników badań czterech najczęściej stosowanych SSRI i zbadali zależność między stopniem zaawansowania choroby a skutecznością leku. Okazało się, że u osób z umiarkowaną i łagodną depresją leki te nie poprawiają w ogóle stanu psychicznego pacjenta w porównaniu do placebo. Z kolei u chorych z ciężkimi objawami poprawa była minimalnie wyższa niż wartość progowa, powyżej której wynik można uznać za istotny z klinicznego punktu widzenia. Co jest jednak ciekawe, porównywalnie wyższa skuteczność kliniczna w stosunku do placebo nie wynikała z lepszego działania substancji aktywnej na komórki (ta była porównywalna dla chorych w dowolnym stanie zaawansowania depresji). Okazało się bowiem, że chorzy z bardziej zaawansowaną depresją niemal zupełnie nie reagowali pozytywnie na sam fakt przyjmowania tabletek, niezależnie od ich składu. Z tego powodu lek, choć był stosunkowo nieskuteczny, dawał u nich lepsze wyniki w porównaniu do grupy przyjmującej placebo. Innymi słowy: substancja aktywna była tak samo skuteczna niezależnie od stanu zaawansowania depresji, lecz różnica tkwiła w sposobie reagowania na placebo. Wyniki badań skłaniają badaczy do wyrażenia opinii, że przepisywanie Prozaku i pokrewnych mu leków nie ma większego sensu. Ich zdaniem, stosowanie SSRI ma sens dopiero wtedy, gdy inne terapie zawiodły. Może to oznaczać nagły zwrot w nastawieniu lekarzy do tabletek szczęścia i jednocześnie otworzyć drogę nowym metodom leczenia depresji.
×
×
  • Dodaj nową pozycję...