Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Uczeni zasymulowali opuszczenie ciała
dodany przez
KopalniaWiedzy.pl, w Psychologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
University of Manchester i ARM chcą połączyć milion procesorów ARM, by symulować działanie ludzkiego mózgu. Specjaliści mówią, że uda się w ten sposób przeprowadzić symulację 1% mózgu.
Pracami nad komputerem SpiNNaker kieruje Steve Furber, znany projektant procesorów ARM i pracownik naukowy University of Manchester.
Do budowy maszyny zostaną wykorzystane procesory, które będą w liczbie 18 zamykane w pojedynczej obudowie. „Taka paczka zapewnia mocy peceta w małej przestrzeni i przy wykorzystaniu jednego wata" - oświadczył uniwersytet. Maszyna będzie symulowała pracę mózgu przesyłając niewielkie ilości danych.
Naukowcy chcą dzięki niej lepiej zrozumieć, jak działa mózg.
Psycholodzy już stworzyli sieci neuronowe, które symulują stany patologiczne. Używają ich do testowania różnych terapii, sprawdzania, która jest najbardziej efektywna - mówi Furber. Obecnie wiarygodność takich sieci jest ograniczona ich mocą obliczeniową, mamy jednak nadzieję, że SpiNNaker znacząco ją zwiększy. Nie wiemy, jak działa mózg jako system przetwarzający informacje i musimy się tego dowiedzieć. Mamy nadzieję, że nasza maszyna przyczyni się do poszerzenia wiedzy - dodaje.
-
przez KopalniaWiedzy.pl
Międzynarodowa grupa naukowców chce zrealizować prawdopodobnie najbardziej ambitny projekt obliczeniowy w historii ludzkości. W ramach Living Earth Simulator (LES) ma powstać symulacja wszystkiego, co dzieje się na Ziemi - od globalnych zmian pogodowych, poprzez rozprzestrzenianie się chorób czy transakcje finansowe po sytuację na drogach lokalnych. LES ma pozwolić naukowcom zrozumieć to, co dzieje się na naszej planecie, zbadać wpływ ludzi na zmiany w społeczeństwie czy działanie sił przyrody na naszą rzeczywistość.
Doktor Dirk Helbing ze Szwajcarskiego Instytutu Technologicznego, przewodniczący projektu FuturICT w ramach którego ma powstać LES, zauważa, że wiele zmian i problemów na Ziemi jest związanych z ludzką aktywnością, ale wciąż w pełni nie rozumiemy tego, w jaki sposób działa społeczeństwo czy gospodarka. Dodaje, że dzięki takim narzędziom jak Wielki Zderzacz Hadronów wiemy więcej o wszechświecie niż o własnej planecie.
Zgodnie z wizją Helbinga, LES najpierw musiałby zostać wyposażony w gigantyczną bazę danych dotyczących Ziemi i ludzkości. Symulator nie działałby na pojedynczym komputerze, ale w sieci potężnych superkomputerów, które jeszcze nie istnieją. Uczony dodaje, że o ile odpowiedni sprzęt jeszcze nie istnieje, to dysponujemy już danymi potrzebnymi do działania LES. Helbing planuje włączyć do LES wiele źródeł informacji, takich jak np. Planetary Skin. To rozwijany przez NASA projekt, w ramach którego ma powstać sieć czujników zbierających dane z ziemi, wody, powietrza i przestrzeni kosmicznej. Z LES mogłyby zostać zintegrowane też Wikipedia, Google Maps czy rządowa brytyjska baza data.gov.uk. Po zintegrowaniu dziesiątków takich źródeł danych musiałby framework (szkielet) do zbudowania modeli obliczeniowych, symulujących to, co dzieje się na planecie.
Technologia konieczna do skonstruowania LES może pojawić się już w nadchodzącej dekadzie. Symulatorowi potrzebne będą np. dobrze rozwinięte sieci semantyczne, które nie tylko będą w stanie przetworzyć dane, ale również je zrozumieć. Dla obecnych systemów komputerowych informacje dotyczące np. zanieczyszczenia powietrza wyglądają tak samo jak dane dotyczące migracji ludności. Jednak jeśli chcemy stworzyć prawdziwą symulację procesów na Ziemi musimy dysponować komputerami, które potrafią odróżnić od siebie i zrozumieć takie dane w odpowiednim kontekście. Jednocześnie LES musi być w stanie zrozumieć, wyodrębnić i usunąć informacje dotyczące konkretnych osób. Tylko wówczas bowiem uda się osiągnąć pożądany efekt - symulować niemal wszystko, bez jednoczesnych obaw o zachowanie prywatności.
Oczywiście taka symulacja będzie wymagała olbrzymiej mocy obliczeniowej, ale jej uzyskanie nie powinno stanowić większego problemu. Specjaliści szacują bowiem, że już obecnie Google dysponuje 39 000 serwerów, które miesięcznie przetwarzają eksabajt danych. Jeśli prace nad LES rzeczywiście rozpoczną się w nadchodzącej dekadzie, to uzyskanie znacznie większej mocy obliczeniowej będzie stosunkowo łatwe. Pete Warden, twórca projektu OpenHeatMap i specjalista ds. przetwarzania danych zauważa, że dla LES będzie przydatna jedynie niewielka część z kilkuset eksabajtów danych, jakie są corocznie wytwarzane przez ludzkość. A skoro tak, to moc obliczeniowa nie będzie wąskim gardłem systemu. Jego zdaniem znacznie trudniejsze będzie uzyskanie dostępu do danych oraz wstępna eliminacja nieprzydatnych informacji.
W ciągu ostatnich lat stało się np. jasne, że potrzebujemy lepszych wskaźników niż PKB do oceny rozwoju społeczeństwa i jego dobrobytu - mówi Helbing. LES ma właśnie pokazać stan społeczeństwa, rozwoju opieki zdrowotnej, edukacji czy ochrony środowiska. Zdaniem Helbinga, dzięki takiemu projektowi ludzkość będzie mogła stać się szczęśliwsza.
-
przez KopalniaWiedzy.pl
Profesor Bruce Lee i jego zespół z University of Pittsburgh twierdzą, że gdy wzrasta liczba zachorowań na okresowe choroby zakaźne, zamykanie szkół na kilkanaście dni może tylko pogorszyć sytuację. W czasie wzrostu zakażeń A/H1N1 wiele szkół w USA zostało czasowo zamkniętych. Lee, profesor medycyny, epidemiologii i informatyki biomedycznej, przeprowadził serię symulacji komputerowych, w których wykorzystał dane ze spisu ludności i na ich podstawie stworzył reprezentatywną symulację dla hrabstwa Allegheny, biorąc pod uwagę jego populację, system szkolnictwa, zatrudnienia, więzi społeczne, miejsce zamieszkania. Symulował w ten sposób rozprzestrzenianie się epidemii wśród 1 200 000 osób, w tym 200 000 dzieci w wieku szkolnym, które uczęszczały do niemal 300 szkół.
Seria symulacji wykazała, że zamykanie szkół znacząco obniża rozprzestrzenianie się epidemii tylko wówczas, gdy przerwa trwa co najmniej 8 tygodni. Zamykanie szkół natychmiast po wybuchu epidemii ma mniejsze znaczenie, niż to, by pozostały zamknięte później.
Co więcej, zamknięcie ich na krótki czas może tylko pogorszyć sytuację, gdyż młodzież wróci do szkół gdy epidemia obejmuje więcej osób, niż w czasie, gdy szkoły zamknięto, a więc istnieje znacznie większe ryzyko, iż wśród powracających znajdzie się sporo nosicieli. Ponadto symulacje wykazały, że identyfikowanie chorych uczniów i odsyłanie ich do domów ma minimalny wpływ na rozprzestrzenianie się choroby. Nie było też znaczących różnic pomiędzy zamykaniem pojedynczych szkół, a zamknięciem wszystkich placówek na danym terenie.
Wyniki badań zostały opublikowane w Journal of Public Health Management and Practice.
-
przez KopalniaWiedzy.pl
Zdaniem specjalistów z IBM-a, w ciągu najbliższych 10 lat powstaną komputery, których możliwości obliczeniowe dorównają ludzkiemu mózgowi. Już w tej chwili naukowcy potrafią dokładnie symulować na komputerze mózg kota.
O odtworzeniu wirtualnego mózgu zwierzęcia poinformował Dharmendra Modha, który w IBM-ie jest odpowiedzialny za badania nad inteligentnym przetwarzaniem. Podobnymi osiągnięciami mogą pochwalić się naukowcy z czołowych uniwersytetów świata.
Zaledwie przed rokiem DARPA przyznała Błękitnemu Gigantowi i pięciu uniwersytetom grant na stworzenie wirtualnego mózgu i symulowanie jego możliwości obliczeniowych, a już obecnie dokonano dwóch bardzo ważnych kroków. Pierwszy to przeprowadzenie w czasie rzeczywistym symulacji pracy ponad miliarda neuronów i 10 bilionów synaps. To więcej niż ma do dyspozycji mózg kota.
Drugi z ważnych kroków to stworzenie algorytmu o nazwie BlueMatter, który szczegółowo opisuje wszystkie połączenia w obszarach korowych i podkorowych ludzkiego mózgu. Jego dokładne mapowanie pozwoli nam zrozumieć, w jaki sposób mózg przetwarza informacje.
Podczas swoich badań naukowcy wykorzystują najnowsze osiągnięcia neurologii, nanotechnologii oraz doświadczenia z budowy superkomputerów.
Nie wiadomo, czy rzeczywiście w ciągu najbliższych 10 lat uda się komputerowo odtworzyć zdolności ludzkiego mózgu. Jednak tempo prac napawa optymizmem i niewykluczone, że około roku 2020 maszyny będą miały zdolności obliczeniowe podobne do naszych mózgów.
-
przez KopalniaWiedzy.pl
Choć wydawałoby się, że nawilżanie łzami powierzchni oka nie jest zbyt skomplikowane, to nieprawda. Naukowcy z Uniwersytetu w Delaware opracowali model matematyczny, który pozwala szczegółowo opisać ten wyspecjalizowany system. Co więcej, wykazali, że niemożliwe jest jednak możliwe...
Jeśli zrozumiemy dynamikę filmu łzowego, będziemy w stanie wynaleźć lepsze metody leczenia zespołu suchego oka – wyjaśnia Kara Maki.
Dzięki symulacjom komputerowym Maki i Richard Braun odkryli, że łzy mogą spływać pośrodku gałki ocznej, a nie wyłącznie w pobliżu kącików. Każde mrugnięcie przypomina pociągnięcie pędzla. Na powierzchni oka rozprowadzana jest nowa warstwa łez, która przypomina pokrycie ściany farbą.
Jeśli jednak jesteśmy smutni, kroimy cebulę albo na dworze staje się bardzo zimno, powstaje za dużo cieczy. Pokonuje ona napięcie powierzchniowe i pojawiają się dobrze wszystkim znane krople. Dotąd eksperci przypuszczali, że łzy trzymają się boków gałki ocznej, gdzie grubość filmu jest największa. Model Amerykanów, który uwzględniał wiele czynników, m.in. lepkość, napięcie powierzchniowe i siłę ciążenia, uzmysłowił im jednak, że niektóre "grochy" mogą się przemieszać samym środkiem.
Spostrzeżenia akademików z Delaware pokrywają się z tym, co zaobserwowali ich koledzy po fachu z Uniwersytetu Stanowego Ohio. Opisali oni przypadek mężczyzny, który przez 6 minut nie zamykał oczu.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.