Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36971
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    227

Zawartość dodana przez KopalniaWiedzy.pl

  1. Jeden z głównych dogmatów biologii ewolucyjnej mówi o sukcesie osobników najlepiej dostosowanych do warunków środowiska. I choć w większości przypadków teza ta wydaje się być prawdziwa, na dłuższą metę ewolucyjny wyścig o przetrwanie mogą wygrać organizmy, którym do optymalnej adaptacji wciąż daleko. Głównym źródłem różnic pomiędzy osobnikami, które mogą zadecydować o przetrwaniu lub śmierci danego organizmu, są mutacje. Jeżeli zmiana informacji genetycznej zmienia się w sposób korzystny dla danego osobnika, wówczas ma on większą szansę na przeżycie i przekazanie swoich genów potomstwu (o ile zmiana pojawiła się także w komórkach rozrodczych). Jeśli określona mutacja jest szkodliwa, wówczas najczęściej dochodzi do eliminacji danego osobnika, który przegrywa konkurencję o zasoby środowiska bądź nie wytrzymuje konfrontacji z warunkami zewnętrznymi. Model ten wydaje się prosty i przejrzysty, lecz jego szczegółowa analiza pokazuje, że długofalowe efekty pojedynczych mutacji mogą być zaskakujące. Badaniem zjawiska zajęło się dwoje naukowców z Uniwersytetu Teksańskiego, dr Matthew Cowperthwaite i dr Lauren Ancel Meyers. Badacze stworzyli wspólnie komputerowy model, którego zadaniem była symulacja powstawania mutacji w pojedynczej cząsteczce RNA oraz ich selekcji pod wpływem warunków zewnętrznych . Analiza danych wykazała, że wyewoluowanie organizmu idealnie przystosowanego do określonych warunków do otoczenia może w pewnych sytuacjach wymagać serii mutacji, których wystąpienie jest mało prawdopodobne. Jak tłumaczy dr Cowperthwaite, niektóre cechy łatwo ewoluują - mogą powstać dzięki wielu różnym kombinacjom mutacji. Inne rozwijają się trudniej, tzn. na podstawie złożonego genetycznego "przepisu". Ewolucja powoduje powstanie zmian "łatwych", nawet jeśli nie są to te najlepsze. Swoje przypuszczenia badacze potwierdzili na podstawie symulacji zmian genetycznych zachodzących u wielu gatunków. Ich zdaniem wyniki analiz potwierdzają, że ewolucja rzeczywiście dąży do "promowania" osobników, u których doszło do wytworzenia "łatwych", choć niekoniecznie idealnych cech. Szczegóły swoich badań prezentują w najnowszym numerze czasopisma PLoS Computational Biology.
  2. Firma Fortify Software, która specjalizuje się w produkcji systemów zabezpieczeń dla biznesu, twierdzi, że z badań Open Source Security Study wynika, iż większość opensource'owych rozwiązań nie jest gotowych dla biznesu. Fortify oceniało, czy społeczności pracujące nad różnymi projektami, oferują usługi i zabezpieczenia wymagane w zastosowaniach biznesowych. Okazało się, że proces rozwoju opensource'owego oprogramowania najczęściej nie spełnia przemysłowych wymogów bezpieczeństwa. Ponadto niemal żadna ze społeczności nie zapewnia użytkownikom dostępu do ekspertów, którzy potrafiliby doradzić klientowi biznesowego. Oprogramowanie opensource'owe może być wartościową alternatywą w dzisiejszym świecie korporacyjnym, jednak, podobnie jak ma to miejsce w przypadku oprogramowania komercyjnego, osoby odpowiedzialne za bezpieczeństwo powinny skupić się na błędach w programach - mówi Howard A. Schmidt, były doradca Białego Domu ds. cyberbezpieczeństwa. Zauważa on, że w każdym oprogramowaniu występują niedociągnięcia, jednak procedury testowania i analizowania kodu powinny być bardziej przestrzegane w oprogramowaniu opensource'owym. Dzięki takiej zmianie podejścia Wolne Oprogramowanie będzie miało większą szansę na podbój rynku biznesowego. Larry Suto, znany konsultand ds. bezpieczeństwa IT, sprawdził na zlecenie Fortify 11 najpopularniejszych opensource'owych pakietów. Ponadto Fortify uzyskało od rozwijających je społeczności informacje na temat stosowanych procedur bezpieczeństwa. Pobrano też i przeanalizowane wiele wersji każdego z pakietów, a najważniejsze fragmenty kodu sprawdzono ręcznie. Wśród największych grzechów opensource'owych społeczności należy wymienić brak szczegółowej dokumentacji dotyczącej bezpieczeństwa, brak systemu powiadamiania użytkowników o wykrytych lukach oraz trudności w skontaktowaniu się ze specjalistami odpowiedzialnymi za bezpieczeństwo projektów i skonsultowaniu z nimi wątpliwości. Analizy wykazały też, że największe problemy opensource'owemu oprogramowaniu sprawiają dwa typu luk - dziury umożliwiające ataki SQL injection (znaleziono ich 15 612) oraz cross-site scripting (22 828 znalezionych). Fortify przyznaje, że do przeprowadzenia badań nakłonił firmę fakt rosnącej popularności opensource'owego oprogramowania. Zdaniem firmy analitycznej Gartner, do roku 2011 aż 80% komercyjnych programów będzie zawierało fragmenty otwartego kodu. Fortify zauważa, że z jednej strony biznes coraz chętniej sięga po Wolne Oprogramowanie, z drugiej jednak, zdecydowana większość społeczności nie wdrożyła procedur bezpieczeństwa, które są wymagane na rynku zastosowań korporacyjnych. Z tego też powodu firmy używające opensource'owych rozwiązań narażone są na ukryte koszty związane z samodzielnym testowaniem oprogramowania i produkcją łatek - mówi niezależna konsultantka Jennifer Bayuk. Część opensource'owych projektów staje się jednak coraz bardziej profesjonalna. Wystarczy wspomnieć tutaj przykład Mozilli, która w bieżącym miesiącu wynajęła niezależnego konsultanta, Richa Mogula, który pomoże producentowi Firefoksa w dostosowaniu się do wymagań świata korporacji.
  3. Wynaleziony w 1965 roku w laboratoriach DuPonta kevlar jest używany w kamizelkach kulooodpornych, hełmach i trampolinach, wzmacnia się też nim kable światłowodowe oraz umieszcza w obuwiu czy odzieży. Łatwiej więc chyba powiedzieć, gdzie go nie ma niż wyliczyć możliwe zastosowania. Teraz do korzystnych właściwości tych włókien poliamidowych trzeba będzie dołączyć zwalczenie szkodliwych drobnoustrojów: bakterii, wirusów i grzybów (Industrial & Engineering Chemistry Research). Yuyu Sun i Jie Luo z Uniwersytetu Południowej Dakoty opracowali metodę pokrywania kevlaru substancją zwaną acykliczną N-halaminą. Przetestowano aktywność wynalazku przeciwko E. coli, gronkowcowi złocistemu (Staphylococcus aureus), wirusowi MS2, Candida tropicalis oraz sporom Bacillus subtilis (które miały naśladować wąglika). Okazało się, że na czystym kevlarze w ciągu krótkiego czasu osiadało dużo mikroorganizmów, a na włóknach powleczonych substancją czynną nie było ich wcale bądź bardzo niewiele. Co ważne, powłoka jest trwała i można ją odnawiać. Po naniesieniu acyklicznej N-halaminy nie zmieniły się pierwotne właściwości termiczne i mechaniczne kevlaru. W przyszłości należy przeprowadzić dalsze badania nad jego skutecznością biobójczą. Gdy wszystko pójdzie dobrze, tego typu tkaniny znajdą na pewno zastosowanie w wielu dziedzinach życia i nauki.
  4. Pięćdziesięciosześcioletnia Satya Devi jest prawdziwą rekordzistką, jeśli chodzi o liczbę przeżytych ukąszeń węża. Przez niemal trzy dekady została ugryziona aż 80 (!) razy. Kobieta mieszka w Shimli, stolicy indyjskiego stanu Himachal Pradesh. Pierwsze ukąszenie przeżyła w wieku 28 lat. Pracowała wtedy w polu, gdy znikąd pojawił się wąż i wbił zęby w jej ramię. Fenomenu pani Davi nie pojmują nawet lekarze. Nauki medyczne nie wspominają o takich przypadkach. Nie mam pojęcia, czemu ona tak przyciąga węże – zastanawia się dr Bhupender Bhardwaj. Kobieta powoli umiera, ponieważ w jej organizmie nagromadziło się dużo toksyn. Potrzebuje natychmiastowej interwencji medycznej, ale jej rodzina jest zbyt biedna, by sfinansować leczenie. Władze stanowe i minister ds. rodziny dr Rajeev Bindal deklarują jednak pomoc w uregulowaniu rachunków. Pechowa kobieta nie potrafi zliczyć, ile razy została ugryziona. Osiemdziesiąt to tylko liczba orientacyjna. Były czarne, brązowe i zielone. Zostałam nawet ugryziona, gdy spałam w domu. Moje dzieci spały wtedy ze mną, ale ani one, ani nikt z mojej rodziny nigdy nie ucierpiał. Węże wydawały się podążać za mną i gryzły mnie, kiedy tylko chciały. W ciągu ostatnich 4 lat nie ugryzł jej żaden wąż, zaczęła więc mieć nadzieję, że pech się wreszcie skończył. Niestety, 2 lipca w jej prawą stopę znów wbiły się zęby jadowe żmii. Od 18 dni Devi leży w łóżku. Nie może ruszać nogami i wstaje tylko przy pomocy rodziny. Ma mdłości i nie jest w stanie poprawnie mówić.
  5. Naukowcy z Microsoft Research opublikowali artykuł, w którym opisują opracowaną przez siebie technologią mogącą stanowić poważne zagrożenie dla wyświetlaczy LCD (Nature Photonics). Technologia LCD zdominowała obecnie rynek, ale, jak zauważają specjaliści, jest to bardzo niedoskonały sposób wyświetlania obrazu. Przede wszystkim piksele w LCD nigdy nie gasną, więc nie można uzyskać prawdziwej czerni. Ponadto przełączanie pomiędzy kolorem białym a czarnym trwa przeważnie kilkadziesiąt milisekund, przez co obrazy szybko poruszających się przedmiotów są rozmazane. Trzecią wadą LCD jest fakt, iż oglądany w pełnym słońcu obraz jest słabo widoczny. Główną zaletą LCD jest natomiast fakt, iż to najtańsza znana obecnie technologia produkcji płaskich wyświetlaczy. Microsoft Research informuje, że opracował technologię pozbawioną wad LCD, która jest ponadto tańsza w produkcji. Piksele pomysłu Microsoftu można całkowicie włączyć i wyłączyć, a proces ten trwa zaledwie 1,5 milisekundy. Ponadto w LCD każdy piksel tworzony jest z trzech subpikseli (czerwonego, zielonego i niebieskiego), z których każdy jest kontrolowany za pomocą osobnego obwodu elektrycznego. W przypadku nowej technologii diody emitujące światło czerwone, zielone i niebieskie są umieszczone jedna za drugą i kontrolowane za pomocą jednego obwodu. Diody mogą być zapalane i gaszone w odpowiedniej kolejności, dzięki czemu uzyskamy żądane kolory. Kolejną zaletą technologii Microsoftu jest możliwość tworzenia znacznie jaśniejszych wyświetlaczy. W LCD światło przechodzi przez filtry polaryzujące, warstwę ciekłych kryształów i filtry koloru. W efekcie do naszych oczu dociera zaledwie 5-10 procent emitowanego światła. Badacze z Redmond mówią, że ich technika powoduje, że ilość docierającego światła wynosi 35%. To pozwoli z jednej strony na produkcję jaśniejszych, a więc lepiej widocznych w słońcu, wyświetlaczy, a z drugiej umożliwi zmniejszenie intensywności podświetlenie ekranu, co oznacza mniejsze zużycie energii. Wyświetlacz Microsoftu wykorzystuje technologię mikroluster, które przepuszczają bądź blokują światło. Każdy piksel używa dwóch takich mikroluster. Pierwsze z nich ma 100 mikrometrów średnicy i 100 nanometrów grubości. Zbudowane jest z aluminium, a w środku znajduje się dziura. Drugie lustro, również aluminiowe, jest tak duże, jak średnica otworu w większym lustrze. Umieszczone jest ono bezpośrednio nad dziurą. Jeśli chcemy wyłączyć piksel, a więc uzyskać prawdziwą czerń, wystarczy, że oba lustra odbijają światło z powrotem w kierunku źródła. By włączyć piksel, pomiędzy przezroczystą elektrodą (umieszczona jest między mikrolustrami a diodami) a lustrem, podawane jest napięcie, które wygina większe z luster w kierunku diod. Ma ono wówczas kształt podobny do anteny satelitarnej. Światło przechodzi przez otwór, odbija się od mniejszego mikrolustra, trafia na "antenę", która odbija je w kierunku użytkownika wyświetlacza. Michael Sinclair, który wraz z kolegami opracował nową technologię, mówi, że technologia produkcji nowych wyświetlaczy jest podobna do technologii produkcji wielowarstwowych układów scalonych. Istnieją więc odpowiednie narzędzia. Ponadto proces produkcyjny składa się z mniejszej liczby kroków, więc jest mniej skomplikowana niż produkcja LCD. Sriram Peruvemba z firmy E Ink, która specjalizuje się w tworzeniu papieru elektronicznego, przyznaje, że technologia Microsoftu pod każdym względem przewyższa LCD. Zauważa jednak pewien problem. System mikroluster to matryca złożona z milionów mechanicznych części. A to właśnie podzespoły mechaniczne są najbardziej zawodne. Zespół z Microsoft Research wierzy jednak w swoją technologię i zapowiada, że koncern chce zaoferować tanie płaskie wyświetlacze o dużych przekątnych.
  6. Grafen to, według wielu specjalistów, materiał przyszłości elektroniki. Dwuwymiarowa struktura atomów węgla przewodzi prąd znacznie lepiej niż krzem i umożliwia budowanie superszybkich energooszczędnych tranzystorów. Najnowsze testy wykazały, że grafen jest też najbardziej wytrzymałym materiałem znanym ludzkości. Jeffrey Kysar i James Hone, profesorowie z Columbia University, testowali siłę wiązań atomowych grafenu. Najpierw w krzemowym plastrze wywiercili dziury, w których umieścili kawałki grafenu. Następnie użyli diamentowej sondy, próbując rozerwać wiązania atomowe w grafenie. Kysar i Hone mówią, że dotychczas nikt nie przeprowadzał podobnego eksperymentu, gdyż wymaga on użycia idealnych próbek grafenu, bez przerwanych wiązań czy brakujących atomów. Test wykazał niezwykłą wytrzymałość węglowego materiału. Naukowcy mówią, że gdyby wyprodukować grafenową płachtę i przykryć nią kubek, a następnie próbować zaostrzonym ołówkiem zrobić w płachcie dziurę, to grafen jest na tyle mocny, iż warstwa o grubości jednego atomu wytrzymałaby ciężar samochodu postawionego na ołówku. Oczywiście takiego eksperymentu nie uda się przeprowadzić, gdyż tak duży kawałek grafenu byłby pełen niedoskonałości, a więc znacznie słabszy, niż miniaturowa doskonała próbka. Wiedzieliśmy, że grafen do najbardziej wytrzymały materiał. Obecny eksperyment to potwierdził - mówi Konstantin Novoselov, wynalazca grafenu. Fakt, iż grafen jest tak wytrzymały, to kolejna dobra wiadomość dla przemysłu półprzewodnikowego. Materiały wykorzystywane w elektronice muszą bowiem mieć nie tylko dobre właściwości elektryczne ale i fizyczne. Powinny być wytrzymałe na ciepło i na siły, którym są poddawane podczas produkcji.
  7. Głośna muzyka w pubie czy restauracji prowadzi do spożycia w krótszym czasie większej ilości alkoholu (Alcoholism: Clinical & Experimental Research). Wcześniejsze badania unaoczniły, że szybka muzyka może wywoływać szybkie picie, a obecność muzyki (w porównaniu do sytuacji, gdy jej brak) wydłuża czas spędzany w barze. Po raz pierwszy udało się jednak eksperymentalnie wykazać w realnym kontekście, jak głośność dźwięków wpływa na spożycie alkoholu – cieszy się Nicolas Guéguen, profesor nauk o zachowaniu z Université de Bretagne-Sud. W sobotnie wieczory badacze trzykrotnie odwiedzili dwa bary w średniej wielkości francuskim mieście. W studium uwzględniono 40 mężczyzn w wieku od 18 do 25 lat. Żaden z nich nie miał pojęcia, że jest obserwowany. Za przyzwoleniem właścicieli lokali naukowcy losowo manipulowali głośnością muzyki. Głośność normalna to 72 decybele, a wysoka – 88 dB. W tym czasie odnotowywano konsumpcję "procentów". Okazało się, że głośna muzyka prowadziła do zwiększonego picia w skróconym czasie. Francuski zespół zaproponował dwie teorie wyjaśniające zaobserwowane zjawisko. Wg pierwszej, pasującej do wyników wcześniejszych badań nad muzyką, jedzeniem i piciem, głośne dźwięki zwiększają pobudzenie, co prowadzi do szybszego picia i zamawiania większej liczby drinków. Druga teoria głosi, że hałas utrudnia prowadzenie rozmów, więc zamiast tego ludzie koncentrują się na swoich drinkach.
  8. Amerykańscy lekarze zrealizowali niewielkie studium, w ramach którego udało im się wykazać, że lek na reumatoidalne zapalenie stawów (RZS) przywraca mowę u osób z chorobą Alzheimera (BioMed Central BMC Neurology). Członkowie amerykańskiego Stowarzyszenia Alzheimerowskiego przestrzegają przed przedwczesnym, ich zdaniem, rozbudzaniem nadziei u rodzin chorych. Eksperyment objął 12 pacjentów, próba była więc wyjątkowo mała. Wykorzystano przeciwzapalny lek o nazwie Enbrel (Etanercept), produkowany wspólnie przez dwie firmy farmaceutyczne: Amgen i Wyeth. Poprawę odnotowano tuż po rozpoczęciu jego zażywania. Często widzimy efekty werbalne w ciągu kilku minut od podania pierwszej dawki – opowiada dr Edward Tobinick, dyrektor prywatnego Instytutu Badań Neurologicznych w Los Angeles. Tobinick opracował metodę wstrzykiwania leku w szyję. Stosuje ją u małej grupy pacjentów. Pobiera za to sporą opłatę. Cykl leczenia jednej osoby to koszt rzędu 10-40 tys. dolarów. W styczniu neurolog zaprezentował raport ze studium pojedynczego przypadku. Dołączono do niego film, który robi na widzach spore wrażenie. Wszystko za sprawą natychmiastowej poprawy i dramatycznego w tonie komentarza lektora.
  9. Naukowcy potwierdzili swoją teorię dotyczącą masowego wymierania organizmów morskich w kredzie. Przed 93 milionami lat doszło do olbrzymiej eksplozji wulkanu pod dzisiejszymy Karaibami. Podczas erupcji do wody przedostały się olbrzymie ilości trujących substancji, które zabiły zwierzęta znajdujące się na dole łańcucha pokarmowego. To z kolei przyczyniło się do wymierania kolejnych gatunków. Uczeni od dawna podejrzewali, że winnym wymierania był wulkan, jednak brakowało na to dowodów. Znaleźli je kanadyjscy naukowcy z University of Alberta, Steven Turgeon i Robert Creaser. Zbadali oni poziom izotopów osmu w osadach dennych z Ameryki Południowej i z włoskich gór. W obu przypadkach stosunek osmu-187 do osmu-188 gwałtownie zmniejszył się przed samym wymieraniem. Oznacza to, że w tym czasie do oceanów przedostała się olbrzymia ilość stopionej magmy, która jest bogata w cięższy z izotopów. Ilość wyrzuconej magmy odpowiada wzrostowi wulkanizmu o 30-50 razy. W tamtym czasie jedynie w okolicy dzisiejszych Karaibów znajdowało się na tyle dużo wulkanów, by wyrzucić tyle magmy. Geolog morski Tim Bralower z Pennsylvania State University przyznaje, że jego kanadyjscy koledzy znaleźli dowód na erupcję. Zauważa jednak, że nie wyjaśnili, co naprawdę spowodowało wymieranie. Jedna z teorii mówi bowiem, że sama erupcja nie zabiła zwierząt, wręcz przeciwnie - do wody przedostały się substancje odżywcze, które spowodowały masowy wzrost roślin i zwierząt. Było ich tak dużo, że pozbawiły oceany tlenu i podusiły się.
  10. Kobiety słyną ze swobody zapamiętywania dat rocznic i szczegółów otaczającego świata (wspomnień emocjonalnych), podczas gdy mężczyźni mają niewątpliwy dryg do przechowywania faktów i danych liczbowych (wspomnień taktycznych). Badacze z Instytutu Psychiatrii Królewskiego College'u Londyńskiego uważają, że opisywana różnica ma podłoże genetyczne. Do tworzenia nowych połączeń w mózgu mężczyźni używają innych genów niż kobiety. Zespół profesora Petera Giese zidentyfikował dwa geny, które wydają się spełniać istotną rolę w uczeniu i tworzeniu śladów pamięciowych u panów, ale już nie u przedstawicielek płci pięknej. Nie spodziewaliśmy się istnienia aż takich różnic w obrębie gatunku, ale należy pamiętać, że mężczyźni i kobiety są dalecy od identyczności na poziomie genetycznym, ponieważ ci pierwsi mają chromosom X i Y, a panie dwa chromosomy X. Naukowcy przeprowadzili eksperymenty na myszach. Za pomocą serii testów wykazali, że samce szybciej tworzą wspomnienia przestrzenne, które pomagają im się poruszać np. po labiryntach. Kiedy wyhodowano zwierzęta pozbawione dwóch genów, samce nie były już w stanie wyuczyć się drogi wyprowadzającej z poplątanych korytarzy. Zabieg nie wpłynął zaś na wyniki uzyskiwane przez samice. Giese zaznacza, że podobne różnice płciowe w strategiach zapamiętywania obserwuje się także u ludzi. Dotyczy to m.in. zapamiętywania drogi przez miasto do określonego celu. Kobiety kierują się punktami orientacyjnymi, np. charakterystycznie wygiętym drzewem, a mężczyźni polegają na ogólnej orientacji w przestrzeni. Brytyjczycy twierdzą, że ich odkrycie może być bardzo istotne dla zrozumienia i leczenia różnych chorób, np. choroby Alzheimera. Kobiety zapadają na nią częściej od mężczyzn, co może oznaczać, że sposób tworzenia wspomnień przez panie jest podatniejszy na negatywne oddziaływania.
  11. Lekarze z poznańskiego szpitala im. Wiktora Degi wszczepili, jako pierwsi w Polsce, nowy typ implantu zastępującego krążki międzykręgowe, zwane potocznie dyskami. Wynalazek znacznie poprawia jakość życia chorych, u których doszło z różnych powodów do uszkodzenia tych elastycznych struktur zbudowanych z tkanki łącznej. Właściwości mechaniczne urządzenia zapewniają przywrócenie kręgosłupowi pacjenta ruchliwości bardzo zbliżonej do naturalnej. Implant, nazwany MobiDisc, został zaprojektowany i wyprodukowany przez Francuzów pracujących dla firmy LDR Medical. Składa się z dwóch płytek wykonanych ze specjalnej stali z domieszką chromu i kobaltu, między którymi umieszczony jest ruchomy element odlany z polietylenu wysokiej gęstości. W celu zwiększenia tolerancji dla obcego obiektu, metalowe części powleczone są cienką warstwą tytanu - materiału obojętnego dla organizmu i jednocześnie bardzo trwałego, dzięki czemu zapewniona jest odporność na warunki panujące we wnętrzu ciała. Jak oceniają specjaliści, nowy produkt jest znaczącym krokiem naprzód w dziedzinie chirurgii ortopedycznej. Dzięki znacznej swobodzie, z jaką plastikowy "zawias" może przemieszczać po powierzchni położonej poniżej metalowej płytki, możliwe jest przywrócenie pacjentowi pełnej ruchliwości kręgosłupa. Cały układ ma zdolność do automatycznego powrotu do stanu wyjściowego, gdy nie działają nań siły zewnętrzne - ta cecha, wraz ze stosunkowo wysoką elastycznością polietylenowej wkładki, zapewnia, że cały implant nie zablokuje się w nieoczekiwanym momencie. Najważniejszą innowacją, jaką niesie ze sobą nowa technologia, jest możliwość wykonywania ruchu we wszystkich kierunkach, w których przemieszcza się naturalny krążek międzykręgowy. Poprzednia, pierwsza generacja sztucznych dysków była zdolna wyłącznie do wyginania się wraz z kręgosłupem oraz uczestniczenia w obracaniu tułowia (czyli, mówiąc językiem fizyki, miały one trzy stopnie swobody). W przypadku nowego typu urządzenia plastikowa wkładka jest dodatkowo zdolna do przesuwania się względem metalowych płytek. Pozwala to na uzyskanie znacznie większej ruchomości całego układu i zapewnienie mu maksymalnej możliwej liczby sześciu stopni swobody. Zwiększa to także żywotność implantu, gdyż może on ustawić się w sposób zapewniający optymalny rozkład działających nań sił. Właściwości mechaniczne wynalazku firmy LDR Medical pozwalają na przywrócenie pacjentowi całkowicie naturalnej ruchliwości kręgosłupa. Przedstawiciele Narodowego Funduszu Zdrowia wyrazili aprobatę dla wprowadzenia nowej technologii do rutynowego stosowania. Duży wpływ na tę decyzję miał zapewne fakt, że cena nowego typu implantu jest praktycznie identyczna w porównaniu do starszego, mniej doskonałego odpowiednika - cała procedura wstawiania sztucznego dysku kosztuje około 9 tysięcy złotych. Biorąc pod uwagę fakt, iż może to przywrócić do pełnej sprawności osobę, która wcześniej była całkowicie niezdolna do jakiejkolwiek aktywności, jest to z pewnością świetna inwestycja.
  12. Pomiar stężenia białek transportujących cholesterol jest lepszym wskaźnikiem ryzyka zawału serca, niż ilość poszczególnych "frakcji" cholesterolu w osoczu krwi - takie wnioski przedstawiają badacze na podstawie badania obejmującego aż 27 tysięcy pacjentów. O swoim odkryciu donoszą na łamach prestiżowego czasopisma The Lancet. Odkrycie może stać się istotnym krokiem na drodze do zmiany obowiązujących od lat standardów oceny zagrożenia atakiem serca. Zdaniem autorów studium, do uzyskania wiarygodnych danych na temat zagrożenia zawałem warto stosować badanie poziomu dwóch protein, apolipoproteiny B100 (apoB100) oraz apolipoproteiny A1 (apoA1). Przeprowadzona analiza statystyczna wykazała, że samo zaburzenie stosunku stężeń tych dwóch białek oznacza aż 54% ryzyka choroby, zaś uznawane obecnie za standard porównanie poziomu "dobrego" i "złego" cholesterolu (odpowiednio: HDL i LDL) pozwala na ocenę zaledwie 34% całkowitego ryzyka. Badanie poziomu apolipoprotein można określić jako rozwinięcie stosowanej dotychczas metody. Warto bowiem wiedzieć, że apoB100 jest jednym ze składników LDL, czyli tzw. "złego cholesterolu", będącego w rzeczywistości kompleksem białkowo-lipidowym, którego zadaniem jest transport lipidów z wątroby do innych organów. ApoA1 wchodzi z kolei w skład HDL, odpowiedzialnego m.in. za transport cholesterolu do wątroby, gdzie dochodzi do jego wiązania i usuwania z organizmu wraz z żółcią. Co ciekawe, zaledwie rok temu przeprowadzono podobne badanie, które przyniosło dokładnie przeciwne rezultaty. Jego autorami byli badacze biorący udział w Framingham Heart Study, prowadzonej przez wiele lat analizie stanu zdrowia populacji niewielkiego miasteczka w Stanach Zjednoczonych. Naukowcy stwierdzili, że badanie stosunku apoA1/ApoB100 nie zwiększa skuteczności oceny ryzyka zawału. Warto jednak zaznaczyć, że badanie to obejmowało zaledwie 3300 osób, czyli ośmiokrotnie mniej, niż studium, którego wyniki opublikowano w The Lancet. Inni eksperci wymieniają także inne wady przeprowadzonego studium. Twierdzą oni między innymi, że analizie poddano wyłącznie dane na temat osób po zawale, przez co nie jest pewne, czy uzyskane informacje można odnieść dla całej populacji. Pojawiają się także wątpliwości natury technicznej - naukowcy badali krew przechowywaną w ujemnych temperaturach, przez co wiarygodność rezultatów może być zaburzona. Pomimo kilku niedociągnięć, opublikowane wyniki można uznać za potwierdzenie coraz częstszej ostatnio hipotezy, że badanie stosunku apoA1/apoB100 może być bardziej wiarygodne od pomiaru stężenia całych apolipoprotein poszczególnych rodzajów. Na pytanie, kiedy nowa technika mogłaby zostać wprowadzona do pratyki klinicznej, pracujący przy Framingham Heart Study lekarz Peter Wilson odpowiada: Kluczem jest technologia. Pomiar [stężenia] cholesterolu jest wiarygodny, a my wiemy, co znaczą jego wyniki. Nie mamy doświadczenia z apolipoproteinami w środowisku klinicznym. Nieliczne szpitale, jak ten w szwedzkim mieście Uppsala, planują wprowadzenie w najbliższym czasie testów nowej generacji jako uzupełnienie tradycyjnej metody. Czy poprawi to jakość diagnostyki tego niezwykle częstego zaburzenia, przekonamy się najprawdopodobniej za kilka lat.
  13. Inżynierowie z japońskiego Uniwersytetu Tokai oraz Indyjskiego Instytutu Techologii w mieście Kharagpur stworzyli prototyp nowego typu igły do pobierania krwi, której ukłucie jest całkowicie bezbolesne. Inspiracją do stworzenia urządzenia był aparat gębowy samicy komara. Opracowany przyrząd ma średnicę 60 mikrometrów, czyli ok. 1/15 milimetra. To znacznie mniej, niż wynosi rozmiar tradycyjnych igieł do strzykawek, których przekrój wynosi kilka dziesiątych milimetra. Nowy typ urządzenia zaprojektowano głównie z myślą o zastosowaniu go do celów takich jak pomiar poziomu glukozy we krwi, podawanie insuliny czy innych leków. Zaprojektowana igła wykorzystuje kilka nowatorskich rozwiązań w porównaniu do starszych modeli, opracowanych przez inne zespoły. Najważniejszą różnicą jest zastosowanie odmiennego materiału - zamiast stosownego dotychczas dwutlenku krzemu, który okazał się zbyt kruchy, zastosowano tytan. Nowy prototyp jest także dłuższy od poprzedników. Sięga na trzy milimetry w głąb skóry, dzięki czemu jest w stanie wbić się bezpośrednio w położone pod skórą naczynia włosowate. Miniaturowy aparat jest wyposażony w pompkę służącą do pobierania krwi. Warto dodać, że zasysanie cieczy zachodzi w sposób przerywany, podobnie jak u komara, nie zaś ciągle, jak w większości pokrewnych produktów. Obecnie inżynierów czeka prawdopodobnie najtrudniejsze zadanie. Potrzebne jest opracowanie rozwiązań, które pozwolą na masową produkcję nowego typu igieł. Bez rozwiązania tego problemu nie będzie możliwe upowszechnienie się wynalazku. Gdyby jednak udało się rozwiązać ten problem, być może z biegiem czasu bolesne ukłucie igły od strzykawki stałoby się tylko nieprzyjemnym wspomnieniem.
  14. O szkodliwości niedosypiania czytaliśmy wielokrotnie. Okazuje się jednak, że z punktu widzenia układu krwionośnego jeszcze bardziej niekorzystne jest spanie zbyt długo. O odkryciu informują specjaliści z North Carolina School of Public Health. Przeprowadzone przez Amerykanów studium, którego wyniki opublikowało czasopismo Stroke, objęło 93000 kobiet w wieku pomenopauzalnym. Badacze ustalili, że optymalną długością snu jest siedem godzin dziennie, a odstępstwa od tej normy są wyraźnie szkodliwe dla układu krążenia. Co ciekawe jednak, ryzyko zawału serca rośnie znacznie bardziej u osób śpiących ponad 9 godzin dziennie, niż u osób poświęcających na sen poniżej sześciu godzin na dobę. Zagrożenie zawałem wzrasta u osób śpiących zbyt krótko o 14 procent, zaś u śpiochów aż o 60-70 procent! Wyniki te zostały, oczywiście, skorygowane o inne czynniki ryzyka, takie jak poziom cholesterolu we krwi czy ciśnienie tętnicze. Mechanizm odpowiedzialny za wzrost ryzyko zawału nie jest znany. Najpopularniejszym wśród specjalistów wytłumaczeniem jest fakt, iż długość snu i jego jakość nie zawsze idą w parze. Osoby śpiące wyjątkowo długo często robią to "nieefektywnie", tzn. ich organizm nie regeneruje się. W wielu przypadkach sen jest przerywany epizodami nieświadomych wybudzeń i bezdechów, które mogą znacznie zaburzać komfort organizmu. Ocenia się także, że pogorszenie stanu zdrowia może wynikać nie z samej nieprawidłowej długości snu, co z jego przyczyny. Najczęściej mówi się w tym kontekście o depresji, która powoduje wydłużenie średniego czasu spoczynku. Zmniejszenie ilości snu także jest wyraźnie szkodliwe, co objawia się m.in. wyrzutem znacznej ilości hormonów stresu do krwi. Jak zaznacza Sylvia Wassertheil-Smoller, badaczka z nowojorskiego Albert Einstein College, samo nastawienie budzika nie rozwiązuje problemów zdrowotnych śpiochów, a problemy zdrowotne osób śpiących zbyt krótko nie kończą się na ilości czasu spędzanej w łóżku. Jej zdaniem należy sięgnąć głębiej i zwalczyć przyczynę patologii: jeżeli kobieta nie śpi dostatecznie długo, może próbować redukować stres lub stosować inne metody, by spać dłużej. Jeżeli regularnie śpi dłużej niż 9 godzin, warto skonsultować to z lekarzem. Powinna także zadbać o to, by ograniczyć inne czynniki ryzyka zawału na czele z podwyższonym ciśnieniem krwi. Autorzy studium zatrzegają co prawda, że dotyczyło ono wyłącznie określonej populacji, lecz zdaniem niektórych ekspertów podobne wyniki mogłoby powtórzyć się także przy analizie innych grup.
  15. W żołądku meksykańskiej mumii sprzed ok. 700 lat znaleziono DNA Helicobacter pylori. Oznacza to, że Indianie cierpieli na wrzody żołądka jeszcze przed przybyciem na te tereny europejskich odkrywców, a wywołujące je bakterie przywędrowały do Ameryk 11 tys. lat temu wraz z osadnikami z Azji (BMC Microbiology). Mumifikacja zaszła ok. 1350 r. n.e. Archeolodzy doszli do takiego wniosku, analizując położenie ciała i pochowane z nim przedmioty. Dzięki takim odkryciom można zrewidować nasze wyobrażenia o historii chorób. H. pylori znajdowano w próbkach kału mumii z Chile oraz Egiptu, jednak po raz pierwszy odkryto je w tkance przewodu pokarmowego mumii z Ameryki Północnej. Poza H. pylori, natrafiono również na ślad materiału genetycznego innych bakterii, np. wywołujących gruźlicę oraz trąd. Mumie stanowią ważne źródło informacji, ponieważ choroby często nie pozostawiają śladów na kościach. Szefowa zespołu, Yolanda Lòpez-Vidal z Universidad Nacional Autónoma de México (UNAM), tłumaczy, że objęte badaniami mumie znaleziono w jaskini pogrzebowej La Ventana na pustyni Chihuahua i jaskini na terenie stanu Durango (w sumie było ich 6). Do mumifikacji doszło w wyniku szybkiego wysuszenia. Wyjaśniła też, że narządy wewnętrzne odwadniają się jako ostatnie. Błyskawiczna dehydratacja zapobiegała uszkodzeniu tkanek przez bakterie i grzyby, zachowując zarówno same organy, jak i DNA mikroorganizmów. Meksykanie zbadali 6 próbek (4 z żołądka, 1 z języka/podniebienia miękkiego oraz 1 z mózgu) dwóch osób: dorosłego mężczyzny i niemowlęcia płci męskiej. By nie uszkodzić otaczających tkanek ani materiału ubrania, narządy oglądano za pomocą endoskopu. Pobrane tkanki zbadano na obecność H. pylori, wykorzystując reakcję łańcuchową polimerazy.
  16. Brytyjska informacja telefoniczna 118118 przeprowadziła wywiady z 2 tys. osób. Dzięki temu stwierdzono, że sposób, w jaki człowiek korzysta z klawiatury swojego telefonu, dostarcza innym wielu informacji nt. jego osobowości. Ukuto nawet termin tekstopil, analogiczny do dobrze wszystkim znanego seksapilu. Na początkowych etapach znajomości ponad trzy czwarte kobiet (76%) ocenia charakter potencjalnego chłopaka na podstawie stylu SMS-owania. Co więcej, 88% pań woli po wymienieniu się numerami telefonów wysyłać wiadomości tekstowe niż rozmawiać w realu. Podejście to można wyjaśnić za pomocą innego spostrzeżenia. Aż 37% ankietowanych kobiet uważa, że mężczyzna, który dzwoni po zdobyciu upragnionego numeru, jest zdesperowany. Pisanie SMS-ów nie wywołuje podobnego wrażenia. Mimo że w SMS-ach często pojawiają się różnego rodzaju skróty, 41% pań straciło zainteresowanie partnerem, zauważając błędy ortograficzne i gramatyczne. Dla dwóch trzecich kobiet bardziej pociągające są dłuższe wiadomości z wyważoną dawką flirtu i humoru niż zaszyfrowane/zbyt krótkie SMS-y. Przedstawicielki płci pięknej (56%) nie przepadają za liścikami w stylu instrukcji, np. zawierającymi zaproszenie do spotkania w określonym miejscu i czasie. Zdecydowanie nie odpowiadają im też sarkazm oraz niedwuznaczne komunikaty.
  17. Zespół profesora Tadayoshi Kohno z University of Washington, w skład którego wchodził Bruce Schneier, znany specjalista ds. kryptografii, poinformował, że takie programy jak Windows Vista, Word i Google Desktop przechowują dane w niezaszyfrowanych obszarach dysku, nawet wówczas, gdy pliki na których pracujemy, są szyfrowane. Oznacza to, że osoby korzystające z częściowego szyfrowania są narażone na utratę danych. Kohno uważa, że podobny problem dotyczy wielu programów i systemów operacyjnych. Okazuje się, że dane przechowywane na dyskach, na których stworzono zaszyfrowane i ukryte partycje, wcale nie są bezpieczne. Narażone są nawet informacje, które przechowujemy na zaszyfrowanych klipsach USB, które podłączamy do do komputera z niecałkowicie zaszyfrowanym dyskiem twardym. Wystarczy bowiem otworzyć ukryty wolumin, by informacje o nim zostały zapisane do rejestru Windows. Ponadto jeśli edytujemy zaszyfrowane plik, to zostanie on dodany do listy ostatnio otwieranych plików. W przypadku Worda, gdy włączona jest funkcja autozapisywania, atakujący, używając prostych wordowskich narzędzi do odzyskiwania plików, może przeczytać informacje, które chcielibyśmy chronić. Podobnie nasze tajemnice może ujawnić Google Desktop, który indeksuje bardzo wiele różnych rodzajów plików. Włączona opcja "Wyszukiwanie zaawansowane" ujawnia dane z zaindeksowanych zaszyfrowanych plików. Nikt nie wie, jak dużo chronionych kryptograficznie danych jest dostępnych na nieszyfrowanych częściach dysku. Amerykańscy badacze informują jednak, że podczas eksperymentów byli w stanie uzyskać dostęp do większości zaszyfrowanych plików Worda. Kohno podkreśla, że nie ma tutaj mowy o błędzie w Google Desktop czy Wordzie. Problem leży w sposobie ich współpracy z szyfrowanymi partycjami. Specjaliści dokonali swojego odkrycia badając sposób pracy programu TrueCrypt. Pozwala on zabezpieczyć hasłem dostęp do całego dysku i zaszyfrować oraz ukryć jego dowolną partycję. Dzięki temu cyberprzestępca, który włamie się na nasz komputer, nawet nie będzie wiedział, że są na nim przechowywane jakieś dodatkowe dane oprócz tych, które zobaczy po włamaniu. Okazuje się jednak, że wśród niezaszyfrowanych danych można znaleźć informacje, które chcielibyśmy chronić. Wyniki badań ekspertów prowadzą więc do wniosku, że jeśli chcemy zachować poufność danych, powinniśmy szyfrować całą zawartość dysku twardego. Nie wiadomo bowiem, jakie ślady który program pozostawi w niezaszyfrowanych częściach.
  18. Para Japończyków z Hiroszimy od 2004 roku sprzedawała święcące przez ponad 10 lat talizmany do telefonów komórkowych. Na ich nieszczęście okazało się, że paski błyszczą dzięki radioaktywnemu trytowi. Czterdziestoletni Ichiro Shimozaki i 45-letni Kyoko Fujii sprzedali, wg rzecznika policji, 5,5 tys. pasków i zarobili 1620 dolarów. Importowali tryt z Wielkiej Brytanii i oferowali swój towar za pośrednictwem strony internetowej. Każdy z talizmanów zawierał dawkę pierwiastka 27-krotnie przekraczającą dopuszczalne normy. Poza tym w Kraju Kwitnącej Wiśni przed rozpoczęciem sprzedaży produktu stwarzającego ryzyko napromieniowania należy to zgłosić władzom. Ministerstwo Zdrowia twierdzi, że stężenie trytu w paskach nadal jest zbyt niskie, by realnie zagrozić zdrowiu użytkowników.
  19. Od paru lat słyszymy o konieczności zabezpieczania samolotów pasażerskich w systemy obrony przed rakietami ziemia-powietrze. Testy tego typu systemów trwają od pewnego czasu, a ich konstruktorzy osiągnęli właśnie swój cel. Pierwszy system "JetEye" zainstalowano w komercyjnie obsługiwanej maszynie. Boeing 767 American Airlines odbył rutynowy lot pomiędzy Nowym Jorkiem a Los Angeles. Wkrótce w system zostaną wyposażone dwie kolejne maszyny. "JetEye" znajduje lecącą w kierunku samolotu rakietę dzięki wykrywaniu gazów wydobywających się z jej silnika, namierza ją i oszukuje jej systemy naprowadzające za pomocą lasera działającego w podczerwieni. Przemysł lotniczy sceptycznie przyjmuje pomysły instalowania tego typu urządzeń w samolotach. Już obecnie lotnictwo cywilne przeżywa kryzys związany z wysokimi kosztami paliwa. Ocenia się, że wyposażenie całej światowej floty w systemy "JetEye" może kosztować ponad 20 miliardów dolarów. Do tego dochodzą koszty utrzymania i konserwacji urządzeń oraz związane z tym konieczne przestoje samolotów. Obecnie ryzyko ataków na samoloty za pomocą wyrzutni rakietowych wydaje się stosunkowo niewielkie. Dochodziło jedynie do pojedynczych takich przypadków. Jest to spowodowane zapewne faktem, że nowoczesne ręczne wyrzutnie rakiet ziemia-powietrze są trudno dostępne. Ponadto większości z nich jest w stanie zaatakować maszynę lecącą nie wyżej niż 3000 metrów, więc są groźne tylko dla samolotów w pobliżu lotnisk. Wywiady państw Zachodu obawiają się jednak, że zagrożenie może wzrosnąć. Już teraz wiadomo, że Rosja sprzedała Iranowi dość nowoczesne wyrzutnie SA-14, a z Iranu mogły one trafić do różnych grup wspieranych przez Teheran.
  20. Niektórzy rodzice dzieci autystycznych oceniają wyrazy twarzy bardzo podobnie do osób z zaburzeniem, chociaż go u nich nie zdiagnozowano. Odkrycie dostarcza kolejnych dowodów na potwierdzenie związku między genami a autyzmem (Current Biology). Ralph Adolphs i zespół z Kalifornijskiego Instytutu Technologii w Pasadenie przeprowadzili badania psychologiczne 42 rodziców dzieci z autyzmem. Piętnaście osób uznano za społecznie powściągliwe. Oznacza to, że nie potrafią czerpać przyjemności z pogawędki, mają też bardzo niewielu bliskich przyjaciół, którzy zapewniają im wsparcie i mogą liczyć na odwzajemnienie. Dwie grupy rodziców maluchów z autyzmem i kontrolną grupę 20 rodziców zdrowych dzieci zaproszono potem do udziału w eksperymencie polegającym na ocenie wyglądu serii twarzy. Ich zadanie polegało na rozsądzeniu, czy sfotografowani ludzie są szczęśliwi, czy przestraszeni. Wszystkie trzy grupy wypadły jednakowo dobrze, w 83% sytuacji prawidłowo odszyfrowując emocje osoby z fotografii. Po głębszej analizie okazało się jednak, że rodzice społecznie powściągliwi podejmowali decyzję głównie w oparciu o układ ust, a nie oczu. To uderzające podobieństwo do prawidłowości zaobserwowanych wcześniej u osób z autyzmem – podkreśla Adolphs. Ludzie neurotypowi wykazują bowiem tendencję do określania cudzych emocji przede wszystkim na podstawie wyglądu oczu. W ramach wcześniejszych studiów wykazano, że rodzeństwo dzieci z autyzmem spędza nieproporcjonalnie dużo czasu na spoglądaniu na usta partnera interakcji. Amerykanie jako pierwsi wykazali, że analogiczne zachowanie występuje również u rodziców. Badania obrazowe mózgu potwierdziły, że przetwarzają oni informacje na temat twarzy inaczej niż reszta uczestniczących w eksperymencie dorosłych. Skoro pewne cechy (np. introwersja czy lekkie skłonności obsesyjne) mogą być przekazywane z pokolenia na pokolenie, śledzenie ich u rodziców powinno pomóc w wykryciu podłoża genetycznego. Poza interpretacją wyrazów twarzy, warto się też skupić na problemach komunikacyjnych i powtarzających się, stereotypowych zachowaniach.
  21. Choć nieświadomie, niemal stale oceniamy odległości. Robimy to, wybierając drogę, a nawet sięgając po coś. Okazuje się zaś, że style myślenia (niezależny i współzależny) wpływają na nasze postrzeganie przestrzeni. Aradhna Krishna z University of Michigan, Rongrong Zhou z hongkońskiej politechniki i Shi Zhang z Uniwersytetu Kalifornijskiego w Los Angeles zaplanowali serię eksperymentów. Ich uczestnicy mieszkali w Chinach kontynentalnych, Hongkongu oraz USA. Na podstawie wyników uzyskanych w testach podzielono ich na dwie grupy: 1) myślących niezależnie (skoncentrowanych na sobie) i 2) osób współzależnych, czyli skupionych na relacjach interpersonalnych. Naukowcy stwierdzili istnienie znacznych różnic między obywatelami Wschodu i Zachodu. Niezależne samokonstruowanie (ang. self-construal) dominuje w kulturach zachodnich, gdzie ludzie wierzą we wrodzoną odrębność poszczególnych osób i postrzegają siebie jako autonomiczne, niezależne osoby. Współzależne konstruowanie jest za to powszechniejsze na Wschodzie, gdzie ludzie wierzą w połączenie bytów i uznają siebie za element większej grupy społecznej. Chcąc określić, jak obie grupy oceniają odległości, psycholodzy zaplanowali prosty, ale wiele wyjaśniający eksperyment. Ochotników poproszono, by wyobrazili sobie, że idą na stadion futbolowy kupić bilety na mecz. Wszyscy dostali mapę z wyrysowanymi dwoma trasami: prostą i z zakrętami. Mieli oszacować liczbę kropek na każdej z nich. Niezależni myśliciele gorzej oceniali odległość, gdy musieli wziąć pod uwagę wiele wskazówek, np. uwzględnić krętość drogi. Skoncentrowani na grupie dla odmiany lepiej oceniali dystans, ale byli podatni na inny rodzaj błędów przestrzennych: gdy linie na mapie się przecinały, jedna z odciętych półprostych częściej wydawała im się dłuższa (Journal of Consumer Research). Nasze dane wskazują, że oceniając odległości, osoby z niezależnym konstruowaniem z większym prawdopodobieństwem zwracają uwagę tylko na centralną część bodźca, ignorując kontekst i informacje z tła. Dla odmiany współzależni są w stanie wyjść poza podstawowy wymiar, np. bezpośrednią odległość, i włączyć do osądu inne dane, np. konfigurację trasy. W tego typu zadaniach prowadzi to do większej trafności. Planując długą podróż, dobrze więc mieć w swojej ekipie kogoś z kultury kolektywistycznej, kto nie sprowadzi wszystkich na manowce, twierdząc, że do bazy jest już blisko, podczas gdy naprawdę do przebycia pozostało wiele kilometrów.
  22. Globalne ocieplenie przynosi coraz bardziej mierzalne straty dla gospodarki i stawia przed państwami kolejne wyzwania. Najnowsze badania wykazują, że wzrost temperatury będzie miał większy, niż dotychczas sądzono, wpływ na topnienie śniegu na zachodzie USA. Związane jest z tym ryzyko częstszych pożarów lasów, może pojawić się też problem z zaopatrzeniem w wodę rolnictwa i miast. Amerykańscy naukowcy, wśród nich profesor Noah Diffenbaugh z Purdue University, odkryli, iż wzrost temperatury ma dwukrotnie większy wpływ niż wykazywały poprzednie badania. Dzięki zaawansowanym technologiom możliwe było prześledzenie wpływu pokrywy śniegu na klimat. Profesor Diffenbaugh mówi, że zwiększenie się tempa topnienia śniegu ma w skali lokalnej bardziej zgubne skutki, niż sama emisja gazów cieplarnianych. Gazy cieplarniane przyczyniają się do zwiększenia temperatury, jednak na powierzchni znacznie większy wpływ ma ocieplanie spowodowane szybkim znikaniem śniegu - stwierdził uczony. Śnieg mocniej odbija promienie słoneczne, niż roślinność czy ziemia. Im więc dłużej w ciągu roku on leży, tym mniej ogrzewa się powierzchnia. Gdy jednak topnieje wcześniej niż zwykle, ziemia absorbuje zwiększone porcje energii cieplnej, co z kolei powoduje, że kolejny śnieg utrzyma się krócej, a to prowadzi do kolejnego zwiększonego nagrzewania powierzchni. Dla zachodnich rejonów USA pokrywa śnieżna i tempo jej topnienia ma zasadnicze znaczenie przy zaopatrywaniu w wodę rolnictwa i ludności. Jest też niezwykle ważne dla samej przyrody. Diffenbaugh ostrzega, że zwiększone tempo topnienia śniegów spowoduje, iż w miesiącach letnich pojawią się poważne problemy z zaopatrzeniem w wodę. Obecny system zaopatrzenia zależy od rezerw wody zawartych w śniegu, który utrzymuje się górach. Jego wczesne topnienie oznacza, że wiosną w zbiornikach będzie zbyt dużo wody, a latem będzie jej za mało - dodaje profesor. Gregg M. Garfin, zastępca dyrektora w wydziale Studiów nad Ziemią na University of Arizona mówi: Wczesne topnienie śniegu i zwiększona temperatura gruntu mogą skutkować zwiększonym wymieraniem lasów i ryzykiem pożarów. Jeśli te przewidywania się sprawdzą, ekosystem północnych i środkowych regionów Gór Skalistych czekają dramatyczne zmiany, takie jak utrata habitatów zwierząt, pożary, zwiększona erozja gleby i zmniejszające się wpływy z turystyki. Sezon turystyczny może kończyć się nawet dwa miesiące wcześniej niż obecnie. W ciągu ostatnich 50 lat sezon turystyczny skrócił się o 10-15 dni. Gdy prognozujemy przyszłość widzimy, że zmiany te będą zachodziły szybciej. Przed 50 laty emisja gazów cieplarnianych była stosunkowo mała w porównaniu z tym, co czeka nas przez kolejne kilkadziesiątlat, jeśli nie zmienimy sposobu pozyskiwania energii - stwierdza Diffenbaugh. Uczeni porównali stworzony przez siebie model klimatyczny z danymi historycznymi i okazało się, że uzyskali wysoką zgodność.
  23. Grupa współpracujących ze sobą kanadyjskich i francuskich naukowców informuje o dokonaniu ważnego odkrycia dotyczącego kobiecej fizjologii. Badaczom udało się ustalić genetyczne podłoże procesu owulacji. Odkrycie jest efektem kooperacji pomiędzy ekspertami z Uniwersytetu w Montrealu oraz Uniwersytetu im. Ludwika Pasteura w Strasburgu. Ustalili oni, że za proces jajeczkowania jest odpowiedzialny gen Lrh1. Jak tłumaczy pracujący dla kanadyjskiej uczelni dr Bruce D. Murphy, Lrh1 jest kluczowy dla regulacji owulacji. Dotychczas jego udział w kobiecej płodności nie był jasny, lecz odkryliśmy, że gen reguluje liczne mechanizmy związane z owulacją, które mogą wpływać na proces zapłodnienia. Aby zbadać rolę genu, badacze skorzystali z bardzo popularnej metody - zastosowali model zwierzęcy. Na potrzeby eksperymentu przygotowano genetycznie zmodyfikowane myszy, w których gen Lrh1 był wybiórczo blokowany w jajniku. Zauważono, że jego inaktywacja skutecznie powstrzymuje jajeczkowanie. Dr Murphy uważa, że zdobytą wiedzę można zastosować w celu kontroli urodzeń - "wyłączenie" genu mogłoby skutecznie zablokować uwalnianie komórki jajowej z jajnika, co pozwoliłoby na zapobieganie ciąży. Co ważne, wiele wskazuje na to, że tak zaprojektowana metoda antykoncepcji byłaby pozbawiona większości efektów ubocznych związanych ze stosowaniem obecnych pigułek opartych o hormony steroidowe. Działanie tych ostatnich wykracza często daleko poza wpływ na kobiecy układ rozrodczy. Naukowiec proponuje także manipulowanie aktywnością Lrh1 w dokładnie odwrotnym celu. Jego zdaniem aktywacja genu mogłaby ułatwić wielu parom spełnienie marzenia o własnym dziecku. Jest to niezwykle istotne, gdyż niepowodzenia rozrodu dotykają aż piętnastu procent par w krajach rozwiniętych. Być może odpowiednia stymulacja owulacji na poziomie pojedynczych genów przyniosłaby rozwiązanie tego problemu. Wyniki badań międzynarodowego zespołu publikuje czasopismo Genes & Development.
  24. Na każdym kroku zalewani jesteśmy informacjami o nowych programach dietetycznych. Zdaniem ich twórców każdy z nich zapewnia błyskawiczną utratę masy, poprawę samopoczucia i mnóstwo innych korzyści. A jak jest w rzeczywistości? Izraelscy naukowcy postanowili porównać skuteczność trzech popularnych diet i ich wpływ na stan zdrowia. Na początek mamy dobrą wiadomość: wszystkie trzy badane metody odchudzania rzeczywiście prowadzą do zmniejszenia masy ciała. Co więcej, niektóre z nich pomagają ustabilizować poziom lipidów oraz glukozy w osoczu krwi, ułatwiając zapobieganie wielu schorzeniom, na czele z cukrzycą typu 2 oraz zawałem serca. Analiza objęła trzy programy żywieniowe. Pierwszy z nich to dieta niskocukrowa, zwana dietą Atkinsa, zgodnie z którą istotniejsze od ilości przyjmowanych kalorii jest obniżenie ilości spożywanych węglowodanów. Drugim z badanych sposobów na obniżenie masy ciała była dieta niskotłuszczowa, ustalona według zasad AHA (American Heart Association - czołowej organizacji badającej choroby serca). Jej założenia obejmują restrykcję kaloryczną do 1500 kcal dla kobiet i 1800 kcal dla mężczyzn, redukcję zawartości cholesterolu w pożywieniu do 200 mg dziennie oraz obniżenie ilości spożywanych tłuszczów tak, by nie pochodziło z nich więcej niż 30% kalorii (z czego maksymalnie jedna trzecia wartości energetycznej mogła pochodzić z tłuszczów nienasyconych). Badano także dietę śródziemnomorską, która zakłada identyczną restrycję kaloryczną jak przy diecie niskotłuszczowej oraz dodatkowo redukcję ilości przyjmowanych tłuszczów tak, by ich wartość energetyczna nie przekraczała 35% dziennej normy. Zgodnie z jej założeniami, głównym źródłem tłuszczów powinna być oliwa z oliwek i niewielkie ilości orzechów, zaś przyjmowane pokarmy zwierzęce powinny obejmować głównie ryby oraz drób. W badaniu wzięły udział 322 umiarkowanie otyłe osoby, których średni wiek wynosił 52 lata. Każdą z osób poproszono o dostosowanie się do zasad jednego z trzech programów odchudzania. Wszyscy pacjenci pracowali w jednym mieście, toteż każdego dnia zapraszano ich do spożywania obiadu w wyznaczonym miejscu, gdzie kucharze dbali o dostosowanie składu posiłku do określonej diety. Przez dwa lata od rozpoczęcia eksperymentu każdy z jego uczestników był raz na miesiąc ważony, a dodatkowo co pół roku wykonywano u nich szerszy zakres badań, m.in. mierzono poziom glukozy oraz cholesterolu we krwi. Zauważono, że najszybciej chudnie się przez pierwsze sześć miesięcy od rozpoczęcia odżywiania według nowego schematu, zaś później przychodzi okres znacznego spowolnienia spadku masy ciała. Ile dokładnie kilogramów udało się zrzucić badanym osobom? Te, które korzystały z diety niskotłuszczowej, schudły o około trzy kilogramy w dwa lata. O połowę lepsze wyniki, odpowiednio: 4,5 oraz 4,6 kilograma, uzyskały osoby odchudzające się zgodnie z założeniami diety śródziemnomorskiej oraz metody Atkinsa. Zauważono jednocześnie, że kobietom wyraźnie służy dieta śródziemnomorska, dzięki której chudły one kilkakrotnie szybciej, niż panie stosujące pozostałe schematy odżywiania. Prowadzący badanie naukowcy są bardzo zadowoleni z wyjątkowo wysokiej dyscypliny, jaką odznaczali się ich podopieczni. Ze stosowania diety zrezygnowało zaledwie 5% osób w ciągu roku oraz 15% w ciągu dwóch lat. To niezwykle mało w porównaniu do innych tego typu eksperymentów, w których podobny odsetek wynosi niekiedy nawet 60% w ciągu 12 miesięcy. Zauważono także inne pozytywne efekty odchudzania, lecz dotyczyło to głównie metody Atkinsa oraz diety śródziemnomorskiej. Badacze obliczyli, że obniżenie zawartości węglowodanów w pożywieniu znacznie podnosi poziom frakcji HDL ("dobrego cholesterolu"), zaś stosowanie diety śródziemnomorskiej wyraźnie poprawia stan zdrowia osób, które z powodu otyłości zapadły na cukrzycę typu drugiego. Gdy dziennikarze serwisu WebMD zapytali główną autorkę badań, dr Iris Shai, która z diet jest najlepsza, badaczka odpowiedziała krótko: nie sądzę, byśmy mogli powiedzieć, że jest jedna dieta pasująca w każdej sytuacji. Jej zdaniem każdy z trzech badanych schematów odchudzania działa, ale tylko wtedy, kiedy uda się wytrwać w postanowieniu przez co najmniej pół roku, a następnie zachowa się wystarczająco wiele silnej woli, by nie przytyć ponownie. Z tego powodu zalecenie dr Shai jest proste: należy wybrać taką dietę, której jesteśmy w stanie przestrzegać. Inna specjalistka, rzeczniczka prasowa Amerykańskiego Stowarzyszenia Dietetyków dr Lona Sandon, dostrzega w wynikach badań Izraelczyków potwierdzenie zdobytej dotychczas wiedzy: jak wykazano w tym badaniu oraz w wielu innych, wykonanych wcześniej, dowolna metoda odchudzania działa na krótką metę, gdyż większość masy ciała jest tracona w ciągu pierwszych sześciu miesięcy. Zapytana o to, która z diet jest najlepsza w celu poprawy ogólnego stanu zdrowia, odpowiada: dieta śródziemnomorska wygląda na najlepsze rozwiązanie w dalszej perspektywie. O wynikach badań zespołu dr Shai donosi jedno z czołowych czasopism medycznych świata, The New England Journal of Medicine.
  25. Badacze z University of Washington zaprezentowali narzędzie, które pozwoli programistom na tworzenie interfejsów dostosowujących się do możliwości wzrokowych i motorycznych indywidualnego użytkownika. System Supple został pokazany na spotkaniu Stowarzyszenia na Rzecz Rozwoju Sztucznej Inteligencji (Association for the Advancement of Artificial Intelligence - AAAI). Technologie pomagające człowiekowi są obecnie tworzone z założeniem, że to człowiek ma się do nich dostosować. My przyjęliśmy, że oprogramowanie powinno dostosować się do użytkownika - mówi doktorant Krzysztof Gajos, szef zespołu badawczego. To dowód, iż automatycznie generowane spersonalizowane interfejsy naprawdę działają. Nasz program jest gotowy do rynkowego debiutu - stwierdził profesor Dan Weld. Użytkownik, który zaczyna korzystać z nowego interfejsu, najpierw musi poświęcić nieco czasu na jego dostosowanie do własnych możliwości. Na ekranie wyświetla się krąg z kropek. Każda z nich się zapala, a wtedy użytkownik powinien jak najszybciej na nią kliknąć. Zadanie powtarzane jest z kropkami o różnych rozmiarach. W ramach innych testów operator komputera musi kliknąć w danym punkcie i przeciągnąć, wybrać pozycję z listy oraz kilkukrotnie kliknąć w jednym punkcie. Kursorem można operować za pomocą dowolnego urządzenia wskazującego. Pełnosprawnej osobie test zajmuje około 20 minut. Osoba niepełnosprawna ruchowo musi przeznaczyć na testy nawet 90 minut. Na podstawie tak zebranych danych tworzony jest, osobny dla każdego programu, matematyczny model interfejsu optymalnego dla danej osoby. Uczeni sprawdzili swój program na sześciu pełnosprawnych i 11 niepełnosprawnych osobach. Okazało się, że jeden standardowy interfejs nie jest rozwiązaniem. Jesteśmy skłonni sądzić, że damy sobie radę z jednym uniwersalnym sposobem projektowania interfejsu. Jednak jeśli popatrzymy na uzyskane przez nas wyniki, okaże się, że interfejs, który jednej osobie pomaga w posługiwaniu się komputerem, przeszkadza innej, z innymi możliwościami motorycznymi i wzrokowymi - powiedział Gajos. Profesor Kurt Johson, specjalista ds. rehabilitacji, który był odpowiedzialny za koordynację testów mówi, że znacznie lepiej jest zmienić środowisko, czyli dostosować cały interfejs, niż korzystać z dodatkowych programów pomagających w używaniu komputera. Supple przyda się wielu osobom, które mają ograniczone funkcje fizyczne. Od starszych osób ze słabym wzrokiem po osoby, którym trzęsą się ręce - dodaje. Zastosowanie Supple wymaga jednak nowego podejścia do sposobu projektowania interfejsu, dlatego też Gajos sądzi, że narzędzie zostanie najpierw wdrożone w aplikacjach internetowych.
×
×
  • Dodaj nową pozycję...