
Wirtualny kot a ludzki mózg
By
KopalniaWiedzy.pl, in Technologia
-
Similar Content
-
By KopalniaWiedzy.pl
Francuscy lekarze ze zdumieniem dowiedzieli się, że 44-letni normalnie funkcjonujący mężczyzna niemal nie ma... mózgu. Obrazowanie medyczne wykazało, że czaszkę prawie całkowicie wypełniał płyn mózgowo-rdzeniowy.
W czaszce zdrowego człowieka znajdują się cztery niewielkie komory, wypełnione płynem. U Francuza były one tak powiększone, że prawie nie było miejsca na mózg. Została mu tylko cienka warstwa komórek mózgowych.
Ma żonę, czworo dzieci i pracuje jako urzędnik państwowy – napisali lekarze w piśmie do specjalistycznego pisma medycznego „Lancet”.
Mężczyzna trafił do szpitala, gdyż skarżył się na bóle nogi. Lekarze, którzy czytali jego kartę choroby, dowiedzieli się, że jako dziecko miał on założony dren, który odprowadzał z czaszki nadmiar płynu i dren ten został usunięty gdy mężczyzna miał 14 lat.
Lekarze najpierw przeprowadzili tomografię komputerową, a następnie rezonans magnetyczny. Byli zdumieni tym, co zobaczyli. Najbardziej zdumiewa mnie to, jak tak niewielki mózg poradził sobie z czynnościami życiowymi. On nie powinien żyć – mówi doktor Max Muenke, specjalista ds. uszkodzeń mózgu w Narodowym Instytucie Badań Ludzkiego Genomu.
U mężczyzny przeprowadzono testy na inteligencję, które wykazały IQ na poziomie 75 punktów. To mniej niż średnie 100 punktów, jednak nie można mężczyzny uznać za upośledzonego.
Jeśli jakiś proces zachodzi bardzo powoli, prawdopodobnie przez dziesięciolecia, różne części mózgu moją przejąć rolę tych obszarów, które zostały zredukowane – mowi Muenke.
« powrót do artykułu -
By KopalniaWiedzy.pl
Ssaki o dużych mózgach zwykle występują z mniejszej liczbie w danej lokalizacji niż ssaki o mniejszych mózgach, wynika z najnowszych badań. Naukowcy z University of Reading stali na czele międzynarodowej grupy, której celem było zbadanie, dlaczego lokalne populacje takich ssaków jak myszy, małpy, kangury i lisy tak bardzo różnią się liczebnością na lokalny obszarach, nawet jeśli mamy do czynienia z podobnymi gatunkami.
Uczeni wykorzystali metody statystyczne do przebadania różnych scenariuszy dla setek gatunków i stwierdzili, że ogólny trend dla ssaków jest taki, że im gatunek ma większy mózg, w tym mniejszym zagęszczeniu występuje. Gdy np. rozważamy dwa gatunku i podobnej diecie i masie ciała, okazuje się, że to wielkość mózgu jest wskazówką co do zagęszczenia zwierząt na danym obszarze.
Większe mózgi kojarzą się z większą inteligencją. W tym przypadku to większe mózgi powstrzymują zwierzęta przed życiem w zbyt dużym zagęszczeniu. Może mieć to związek z faktem, że większy mózg wymaga więcej żywności i innych zasobów, a zatem potrzebuje więcej przestrzeni, by zaspokoić te potrzeby, mówi doktor Manuela Gonzalez-Suarez, która stała na czele grupy badawczej.
Zrozumienie, dlaczego na różnych obszarach występuje różne zagęszczenie zwierząt jest istotne z punktu widzenia ich ochrony. Mniejsze zagęszczenie powoduje, że gatunek bardziej jest narażony na wymarcie, z drugiej strony większe lokalne zagęszczenie zwiększa ekspozycję gatunku na takie zagrożenia, jak istnienie dróg, dodaje.
Bardzo interesująco wypada porównanie zagęszczenia, masy ciała i masy mózgu. Otóż przeciętna mysz waży 0,016 kilograma, jej mózg ma wagę 0,0045 kg, a gatunek żyje w niezwykle dużym zagęszczeniu wynoszącym 600 osobników na km2. W dużym zagęszczeniu 86 osobników na km2 żyją też wiewiórki. To zwierzęta warzące 0,325 kg, których masa mózgu wynosi 0,006 kg.
Powszechnie występującym zwierzęciem jest też lis rudy (2,6 osobnika na km2), ssak ważący 4,3 kg o masie mózgu 0,047 kg. Z kolei makak berberyjski (11 kg masy ciała, 0,095 kg masy mózgu) występuje w liczbie 36 osobników na km2. Natomiast tygrys, który waży 185 kg i ma mózg o masie 0,276 kg występuje w liczbie 0,14 osobnika na km2. Podobnie zresztą 4-tonowy słoń z mózgiem o masie 4,5 kg, którego liczebność na obszarach występowania to 0,58 osobnika na km2.
Ze schematu tego wyraźnie wyłamuje się człowiek. Lokalne zagęszczenie naszego gatunku bardzo się różni, dochodząc do 26 000 osobników na km2 w Monako.
Wielkość mózgu nie jest jedynym czynnikiem decydującym o zagęszczeniu ssaków. Różne środowiska mają różne stabilność oraz różne gatunki konkurujące, więc to również ma wpływ. Konieczne są dalsze badania nad wpływem rozmiarów mózgów w różnych środowiskach, stwierdzają autorzy badań.
Naukowcy zauważają też, że istnieją wyraźne wyjątki od reguły. Na przykład ludzie wykorzystali inteligencję do pokonania problemu ograniczonej ilości zasobów na danym terenie. Możemy importować żywność z całego świata co teoretycznie pozwala nam żyć w wielkiej liczbie w dowolnym miejscu na Ziemi. Niektóre inteligentne gatunki również mogły częściowo poradzić sobie z tymi ograniczeniami, stwierdzają badacze.
Na potrzeby badań naukowcy wzięli pod lupę 656 nielatających ssaków lądowych. Związek wielkości mózgu z zagęszczeniem populacji jest szczególnie widoczny wśród ssaków mięsożernych oraz naczelnych, a mniej widoczny wśród gryzoni i torbaczy.
Przykładem takich oczywistych zależności może być porównanie makaków berberyjskich z siamangiem wielkim. Oba gatunki małp mają podobną dietę i podobną masę ciała. Jednak mózg makaka waży 95 gramów, a zwierzę występuje w zagęszczeniu 36 osobników na km2. Z kolei mózg siamanga waży 123 gramy, a zagęszczenie populacji wynosi 14 osobników na km2.
« powrót do artykułu -
By KopalniaWiedzy.pl
W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.
« powrót do artykułu -
By KopalniaWiedzy.pl
Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.
« powrót do artykułu -
By KopalniaWiedzy.pl
Podczas gdy dorośli przetwarzają różne zadania w wyspecjalizowanych obszarach mózgu w jednej z półkul, niemowlęta i dzieci używają do tego celu obu półkul. To może być przyczyną, dla której dzieci znacznie łatwiej regenerują się po urazach mózgu niż dorośli. Autorzy najnowszych badań skupili się na języku i odkryli, że dzieci podczas przetwarzania języka mówionego używają obu półkul mózgu.
To bardzo dobra wiadomość dla dzieci, które odniosły urazy mózgu. Użycie obu półkul zapewnia mechanizm kompensujący po urazie. Na przykład, jeśli w wyniku udaru zaraz po urodzeniu dojdzie do uszkodzenia lewej półkuli mózgu, dziecko nauczy się języka korzystając z prawej półkuli. Dziecko z mózgowym porażeniem dziecięcym, które uszkodzi tylko jedną półkulę, może rozwinąć wszystkie potrzebne zdolności poznawcze w drugiej półkuli. Nasze badania pokazują, jak to jest możliwe, mówi profesor Elissa L. Newport, dyrektor Center for Brain Plasticity and Recovery, które jest wspólnym przedsięwzięciem Georgetown University i MedStar National Rehabilitation Network.
Niemal wszyscy dorośli przetwarzają mowę tylko w lewej półkuli. Potwierdzają to zarówno badania obrazowe jak i fakt, że po udarze, który dotknął lewą półkulę, ludzie często tracą zdolność do przetwarzania mowy.
Jednak u bardzo małych dzieci uraz jednej tylko półkuli rzadko prowadzi do utraty zdolności językowych. Nawet, jeśli dochodzi do poważnego zniszczenia lewej półkuli, dzieci nadal potrafią korzystać z języka. To zaś sugeruje – jak zauważa Newport – że dzieci przetwarzają język w obu półkulach. Jednak tradycyjne metody obrazowania nie pozwalały na obserwowanie tego zjawiska. Nie było jasne, czy dominacja lewej półkuli w zakresie zdolności językowych jest widoczna już od urodzenia, czy rozwija się z wiekiem, stwierdza uczona.
Teraz, dzięki funkcjonalnemu rezonansowi magnetycznemu udało się wykazać, że u małych dzieci żadna z półkul nie ma w tym zakresie przewagi. Lateralizacja pojawia się z wiekiem. Ustala się ona w wieku 10-11 lat.
W najnowszych badaniach udział wzięło 39 zdrowych dzieci w wieku 4–13 lat, których wyniki porównano z 14 dorosłymi w wieku 18–29 lat. Obie grupy zmierzyły się z zadaniem polegającym na rozumieniu zdań. W czasie rozwiązywania zadania każdy z uczestników poddany był skanowaniu za pomocą fMRI, a wyniki potraktowano indywidualnie. Później stworzono mapę aktywności mózgu dla grup wiekowych 4–6 lat, 7–9 lat, 10–13 lat i 18–29 lat.
Badacze stwierdzili, że wyniki uśrednione dla każdej z grup pokazują, iż nawet u małych dzieci występuje preferencja (lateralizacja) lewej półkuli mózgu w czasie przetwarzania mowy. Jednak znaczny odsetek najmłodszych dzieci wykazuje silną aktywację prawej półkuli mózgu. U osób dorosłych prawa półkula aktywuje się podczas rozpoznawania ładunku emocjonalnego niesionego z głosem. Natomiast u dzieci bierze ona udział i w rozpoznawaniu mowy i w rozpoznawaniu ładunku emocjonalnego.
Naukowcy sądzą, że jeśli udałoby im się przeprowadzić podobne badania u jeszcze młodszych dzieci, to obserwowaliby jeszcze większe zaangażowanie prawej półkuli mózgu w przetwarzanie języka.
Obecnie Newport i jej grupa skupiają się na badaniach przetwarzania mowy w prawej półkuli mózgu u nastolatków i młodych dorosłych, u których lewa półkula mózgu została poważnie uszkodzona podczas udaru zaraz po urodzeniu.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.