Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Uczeni zasymulowali opuszczenie ciała
dodany przez
KopalniaWiedzy.pl, w Psychologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Najdłuższa i najbardziej szczegółowa w historii symulacja połączenia się dwóch gwiazd neutronowych pokazuje, jak powstają czarne dziury i rodzą się dżety. Autorami symulacji są członkowie międzynarodowego zespołu badawczego, na czele którego stali naukowcy z Instytutu Fizyki Grawitacyjnej im. Maxa Plancka. Jej stworzenie wymagało 130 milionów godzin pracy procesorów, a symulacja – tak szczegółowo, jak to możliwe – obrazuje to, co dzieje się w ciągu... 1,5 sekundy.
Łączące się gwiazdy neutronowe są dla astronomów niezwykle interesującym celem badań. W procesie tym dochodzi do emisji fal grawitacyjnych, neutrin i fal elektromagnetycznych.
Podczas jej przygotowywania twórcy symulacji wzięli pod uwagę zjawiska opisane w ogólnej teorii względności, oddziaływanie strumieni neutrin czy magnetohydrodynamikę. Wszystkie je możemy rejestrować i badać, pogłębiając naszą wiedzę o kosmosie.
A dzięki symulacjom komputerowym możemy lepiej zrozumieć pochodzenie i powstawanie tych sygnałów.
Uczeni wykorzystali do symulacji japoński superkomputer Fugaku, który w latach 2020–2022 był najpotężniejszym superkomputerem na świecie. W każdym momencie tworzenia symulacji jednocześnie pracowało od 20 do 80 tysięcy procesorów. Dzięki tak potężnej mocy obliczeniowej możliwe było uwzględnienie zjawisk opisanych przez ogólną teorię względności, emisji neutrin czy zjawisk magnetohydrodynamicznych.
Symulacja opisuje dwie gwiazdy neutronowe, o masie 1,25 i 1,65 razy większej od masy Słońca, które okrążają się 5-krotnie. Wówczas pojawiają się pierwsze sygnały, które potrafimy badań na Ziemi, czyli fale grawitacyjne. Następnie dochodzi do połączenia gwiazd, w wyniku czego powstaje czarna dziura otoczona dyskiem materiału. W dysku, w wyniku efektu dynama magnetohydrodynamicznego i obrotu czarnej dziury, dochodzi do szybkiego wzmocnienia pola magnetycznego. To powoduje odpływ energii wzdłuż osi obrotu czarnej dziury.
Sądzimy, że to ten odpływ energii napędzany przez pole magnetyczne, zasila rozbłyski gamma. To by się zgadzało z tym, co wiemy z dotychczasowych obserwacji i wzbogaca naszą wiedzę o zjawiskach zachodzących podczas łączenia się gwiazd neutronowych, stwierdził Masaru Shibata, dyrektor wydziału Obliczeniowej Astrofizyki Relatywistycznej. Dalsza część symulacji pokazała spodziewaną emisję neutrin, dostarczyła informacji na temat ilości materii wyrzucanej w przestrzeń międzygwiezdną oraz wskazała na możliwość pojawienia się kilonowej, w wyniku której wytwarzane są wielkie ilości metali ciężkich.
To, czego się właśnie dowiedzieliśmy o tworzeniu się dżetów i dynamice pola magnetycznego jest kluczowe do zinterpretowania i zrozumienia łączenia się gwiazd neutronowych oraz towarzyszących temu zjawisk, dodaje Shibata.
Źródło: Jet from Binary Neutron Star Merger with Prompt Black Hole Formation
« powrót do artykułu -
przez KopalniaWiedzy.pl
University of Manchester i ARM chcą połączyć milion procesorów ARM, by symulować działanie ludzkiego mózgu. Specjaliści mówią, że uda się w ten sposób przeprowadzić symulację 1% mózgu.
Pracami nad komputerem SpiNNaker kieruje Steve Furber, znany projektant procesorów ARM i pracownik naukowy University of Manchester.
Do budowy maszyny zostaną wykorzystane procesory, które będą w liczbie 18 zamykane w pojedynczej obudowie. „Taka paczka zapewnia mocy peceta w małej przestrzeni i przy wykorzystaniu jednego wata" - oświadczył uniwersytet. Maszyna będzie symulowała pracę mózgu przesyłając niewielkie ilości danych.
Naukowcy chcą dzięki niej lepiej zrozumieć, jak działa mózg.
Psycholodzy już stworzyli sieci neuronowe, które symulują stany patologiczne. Używają ich do testowania różnych terapii, sprawdzania, która jest najbardziej efektywna - mówi Furber. Obecnie wiarygodność takich sieci jest ograniczona ich mocą obliczeniową, mamy jednak nadzieję, że SpiNNaker znacząco ją zwiększy. Nie wiemy, jak działa mózg jako system przetwarzający informacje i musimy się tego dowiedzieć. Mamy nadzieję, że nasza maszyna przyczyni się do poszerzenia wiedzy - dodaje.
-
przez KopalniaWiedzy.pl
Międzynarodowa grupa naukowców chce zrealizować prawdopodobnie najbardziej ambitny projekt obliczeniowy w historii ludzkości. W ramach Living Earth Simulator (LES) ma powstać symulacja wszystkiego, co dzieje się na Ziemi - od globalnych zmian pogodowych, poprzez rozprzestrzenianie się chorób czy transakcje finansowe po sytuację na drogach lokalnych. LES ma pozwolić naukowcom zrozumieć to, co dzieje się na naszej planecie, zbadać wpływ ludzi na zmiany w społeczeństwie czy działanie sił przyrody na naszą rzeczywistość.
Doktor Dirk Helbing ze Szwajcarskiego Instytutu Technologicznego, przewodniczący projektu FuturICT w ramach którego ma powstać LES, zauważa, że wiele zmian i problemów na Ziemi jest związanych z ludzką aktywnością, ale wciąż w pełni nie rozumiemy tego, w jaki sposób działa społeczeństwo czy gospodarka. Dodaje, że dzięki takim narzędziom jak Wielki Zderzacz Hadronów wiemy więcej o wszechświecie niż o własnej planecie.
Zgodnie z wizją Helbinga, LES najpierw musiałby zostać wyposażony w gigantyczną bazę danych dotyczących Ziemi i ludzkości. Symulator nie działałby na pojedynczym komputerze, ale w sieci potężnych superkomputerów, które jeszcze nie istnieją. Uczony dodaje, że o ile odpowiedni sprzęt jeszcze nie istnieje, to dysponujemy już danymi potrzebnymi do działania LES. Helbing planuje włączyć do LES wiele źródeł informacji, takich jak np. Planetary Skin. To rozwijany przez NASA projekt, w ramach którego ma powstać sieć czujników zbierających dane z ziemi, wody, powietrza i przestrzeni kosmicznej. Z LES mogłyby zostać zintegrowane też Wikipedia, Google Maps czy rządowa brytyjska baza data.gov.uk. Po zintegrowaniu dziesiątków takich źródeł danych musiałby framework (szkielet) do zbudowania modeli obliczeniowych, symulujących to, co dzieje się na planecie.
Technologia konieczna do skonstruowania LES może pojawić się już w nadchodzącej dekadzie. Symulatorowi potrzebne będą np. dobrze rozwinięte sieci semantyczne, które nie tylko będą w stanie przetworzyć dane, ale również je zrozumieć. Dla obecnych systemów komputerowych informacje dotyczące np. zanieczyszczenia powietrza wyglądają tak samo jak dane dotyczące migracji ludności. Jednak jeśli chcemy stworzyć prawdziwą symulację procesów na Ziemi musimy dysponować komputerami, które potrafią odróżnić od siebie i zrozumieć takie dane w odpowiednim kontekście. Jednocześnie LES musi być w stanie zrozumieć, wyodrębnić i usunąć informacje dotyczące konkretnych osób. Tylko wówczas bowiem uda się osiągnąć pożądany efekt - symulować niemal wszystko, bez jednoczesnych obaw o zachowanie prywatności.
Oczywiście taka symulacja będzie wymagała olbrzymiej mocy obliczeniowej, ale jej uzyskanie nie powinno stanowić większego problemu. Specjaliści szacują bowiem, że już obecnie Google dysponuje 39 000 serwerów, które miesięcznie przetwarzają eksabajt danych. Jeśli prace nad LES rzeczywiście rozpoczną się w nadchodzącej dekadzie, to uzyskanie znacznie większej mocy obliczeniowej będzie stosunkowo łatwe. Pete Warden, twórca projektu OpenHeatMap i specjalista ds. przetwarzania danych zauważa, że dla LES będzie przydatna jedynie niewielka część z kilkuset eksabajtów danych, jakie są corocznie wytwarzane przez ludzkość. A skoro tak, to moc obliczeniowa nie będzie wąskim gardłem systemu. Jego zdaniem znacznie trudniejsze będzie uzyskanie dostępu do danych oraz wstępna eliminacja nieprzydatnych informacji.
W ciągu ostatnich lat stało się np. jasne, że potrzebujemy lepszych wskaźników niż PKB do oceny rozwoju społeczeństwa i jego dobrobytu - mówi Helbing. LES ma właśnie pokazać stan społeczeństwa, rozwoju opieki zdrowotnej, edukacji czy ochrony środowiska. Zdaniem Helbinga, dzięki takiemu projektowi ludzkość będzie mogła stać się szczęśliwsza.
-
przez KopalniaWiedzy.pl
Profesor Bruce Lee i jego zespół z University of Pittsburgh twierdzą, że gdy wzrasta liczba zachorowań na okresowe choroby zakaźne, zamykanie szkół na kilkanaście dni może tylko pogorszyć sytuację. W czasie wzrostu zakażeń A/H1N1 wiele szkół w USA zostało czasowo zamkniętych. Lee, profesor medycyny, epidemiologii i informatyki biomedycznej, przeprowadził serię symulacji komputerowych, w których wykorzystał dane ze spisu ludności i na ich podstawie stworzył reprezentatywną symulację dla hrabstwa Allegheny, biorąc pod uwagę jego populację, system szkolnictwa, zatrudnienia, więzi społeczne, miejsce zamieszkania. Symulował w ten sposób rozprzestrzenianie się epidemii wśród 1 200 000 osób, w tym 200 000 dzieci w wieku szkolnym, które uczęszczały do niemal 300 szkół.
Seria symulacji wykazała, że zamykanie szkół znacząco obniża rozprzestrzenianie się epidemii tylko wówczas, gdy przerwa trwa co najmniej 8 tygodni. Zamykanie szkół natychmiast po wybuchu epidemii ma mniejsze znaczenie, niż to, by pozostały zamknięte później.
Co więcej, zamknięcie ich na krótki czas może tylko pogorszyć sytuację, gdyż młodzież wróci do szkół gdy epidemia obejmuje więcej osób, niż w czasie, gdy szkoły zamknięto, a więc istnieje znacznie większe ryzyko, iż wśród powracających znajdzie się sporo nosicieli. Ponadto symulacje wykazały, że identyfikowanie chorych uczniów i odsyłanie ich do domów ma minimalny wpływ na rozprzestrzenianie się choroby. Nie było też znaczących różnic pomiędzy zamykaniem pojedynczych szkół, a zamknięciem wszystkich placówek na danym terenie.
Wyniki badań zostały opublikowane w Journal of Public Health Management and Practice.
-
przez KopalniaWiedzy.pl
Zdaniem specjalistów z IBM-a, w ciągu najbliższych 10 lat powstaną komputery, których możliwości obliczeniowe dorównają ludzkiemu mózgowi. Już w tej chwili naukowcy potrafią dokładnie symulować na komputerze mózg kota.
O odtworzeniu wirtualnego mózgu zwierzęcia poinformował Dharmendra Modha, który w IBM-ie jest odpowiedzialny za badania nad inteligentnym przetwarzaniem. Podobnymi osiągnięciami mogą pochwalić się naukowcy z czołowych uniwersytetów świata.
Zaledwie przed rokiem DARPA przyznała Błękitnemu Gigantowi i pięciu uniwersytetom grant na stworzenie wirtualnego mózgu i symulowanie jego możliwości obliczeniowych, a już obecnie dokonano dwóch bardzo ważnych kroków. Pierwszy to przeprowadzenie w czasie rzeczywistym symulacji pracy ponad miliarda neuronów i 10 bilionów synaps. To więcej niż ma do dyspozycji mózg kota.
Drugi z ważnych kroków to stworzenie algorytmu o nazwie BlueMatter, który szczegółowo opisuje wszystkie połączenia w obszarach korowych i podkorowych ludzkiego mózgu. Jego dokładne mapowanie pozwoli nam zrozumieć, w jaki sposób mózg przetwarza informacje.
Podczas swoich badań naukowcy wykorzystują najnowsze osiągnięcia neurologii, nanotechnologii oraz doświadczenia z budowy superkomputerów.
Nie wiadomo, czy rzeczywiście w ciągu najbliższych 10 lat uda się komputerowo odtworzyć zdolności ludzkiego mózgu. Jednak tempo prac napawa optymizmem i niewykluczone, że około roku 2020 maszyny będą miały zdolności obliczeniowe podobne do naszych mózgów.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.