Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Powstała najdłuższa i najbardziej szczegółowa symulacja połączenia gwiazd neutronowych

Recommended Posts

Najdłuższa i najbardziej szczegółowa w historii symulacja połączenia się dwóch gwiazd neutronowych pokazuje, jak powstają czarne dziury i rodzą się dżety. Autorami symulacji są członkowie międzynarodowego zespołu badawczego, na czele którego stali naukowcy z Instytutu Fizyki Grawitacyjnej im. Maxa Plancka. Jej stworzenie wymagało 130 milionów godzin pracy procesorów, a symulacja – tak szczegółowo, jak to możliwe – obrazuje to, co dzieje się w ciągu... 1,5 sekundy.

Łączące się gwiazdy neutronowe są dla astronomów niezwykle interesującym celem badań. W procesie tym dochodzi do emisji fal grawitacyjnych, neutrin i fal elektromagnetycznych.

Podczas jej przygotowywania twórcy symulacji wzięli pod uwagę zjawiska opisane w ogólnej teorii względności, oddziaływanie strumieni neutrin czy magnetohydrodynamikę. Wszystkie je możemy rejestrować i badać, pogłębiając naszą wiedzę o kosmosie.

A dzięki symulacjom komputerowym możemy lepiej zrozumieć pochodzenie i powstawanie tych sygnałów.
Uczeni wykorzystali do symulacji japoński superkomputer Fugaku, który w latach 2020–2022 był najpotężniejszym superkomputerem na świecie. W każdym momencie tworzenia symulacji jednocześnie pracowało od 20 do 80 tysięcy procesorów. Dzięki tak potężnej mocy obliczeniowej możliwe było uwzględnienie zjawisk opisanych przez ogólną teorię względności, emisji neutrin czy zjawisk magnetohydrodynamicznych.

Symulacja opisuje dwie gwiazdy neutronowe, o masie 1,25 i 1,65 razy większej od masy Słońca, które okrążają się 5-krotnie. Wówczas pojawiają się pierwsze sygnały, które potrafimy badań na Ziemi, czyli fale grawitacyjne. Następnie dochodzi do połączenia gwiazd, w wyniku czego powstaje czarna dziura otoczona dyskiem materiału. W dysku, w wyniku efektu dynama magnetohydrodynamicznego i obrotu czarnej dziury, dochodzi do szybkiego wzmocnienia pola magnetycznego. To powoduje odpływ energii wzdłuż osi obrotu czarnej dziury.

Sądzimy, że to ten odpływ energii napędzany przez pole magnetyczne, zasila rozbłyski gamma. To by się zgadzało z tym, co wiemy z dotychczasowych obserwacji i wzbogaca naszą wiedzę o zjawiskach zachodzących podczas łączenia się gwiazd neutronowych, stwierdził Masaru Shibata, dyrektor wydziału Obliczeniowej Astrofizyki Relatywistycznej. Dalsza część symulacji pokazała spodziewaną emisję neutrin, dostarczyła informacji na temat ilości materii wyrzucanej w przestrzeń międzygwiezdną oraz wskazała na możliwość pojawienia się kilonowej, w wyniku której wytwarzane są wielkie ilości metali ciężkich.

To, czego się właśnie dowiedzieliśmy o tworzeniu się dżetów i dynamice pola magnetycznego jest kluczowe do zinterpretowania i zrozumienia łączenia się gwiazd neutronowych oraz towarzyszących temu zjawisk, dodaje Shibata.

Źródło: Jet from Binary Neutron Star Merger with Prompt Black Hole Formation


« powrót do artykułu

Share this post


Link to post
Share on other sites

Bardzo ciekawa praca, nawet odkrywcza, ale może nie przesadzajmy...

W dniu 3.06.2025 o 10:57, KopalniaWiedzy.pl napisał:

Jej stworzenie wymagało 130 milionów godzin pracy procesorów

Gdyby tak było, to uczeni musieliby rozpocząć obliczenia prawie 15 tys. lat temu, a jakoś mi się nie wydaje. :)
Faktycznie, to imponujące wyzwanie, ale chodzi raczej o coś, co na polski można by przełożyć jako 130 milionów "procesorogodzin" (może liczni koledzy informatycy podpowiedzą). Dzielenie 130 milionów przez te, dajmy, średnio 50 tysięcy procków i tak robi wrażenie - jakieś trzy miesiące obliczeń (może krócej, ale nie wiem...).

W dniu 3.06.2025 o 10:57, KopalniaWiedzy.pl napisał:

Dzięki tak potężnej mocy obliczeniowej możliwe było uwzględnienie zjawisk opisanych przez ogólną teorię względności, emisji neutrin czy zjawisk magnetohydrodynamicznych.

Dobrze, że nie po raz pierwszy (ale to jednak Japonia, a nie USA :)), choć i tak jest to nieścisłe, gdyż sugeruje, że wcześniej tego wszystkiego nie uwzględniano.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Prezydent Trump nie ustaje w wysiłkach na rzecz ograniczenia finansowania nauki. Wcześniej informowaliśmy o propozycji obcięcia budżetu NASA na naukę. Tym razem na celowniku jego administracji znalazł się superkomputer Horizon. Mimo, że prezydent twierdzi, że utrzymanie dominacji USA na rynku najbardziej wydajnych maszyn obliczeniowych jest jego priorytetem, działania Białego Domu mogą opóźnić lub całkowicie zniweczyć plany budowy maszyny Horizon, która ma stanąć na University of Texas w Austin.
      Stany Zjednoczone dominują na rynku superkomputerów. To w tym kraju tradycyjnie już znajduje się największa liczba spośród 500 najbardziej wydajnych maszyn świata. Jednak dominacja ta jest coraz mniejsza. Obecnie na liście TOP500 superkomputerów znajdują się 173 maszyny z USA – w tym 5 z 10 najpotężniejszych – a przed 10 laty w USA stały 232 takie maszyny.
      Horizon ma być najpotężniejszym superkomputerem na amerykańskiej uczelni wyższej. Obecnie miano takiej maszyny należy do superkomputera Frontera, również znajdującego się na University of Texas. Maksymalna moc obliczeniowa Frontery to 23,52 Pflops (Pflops to 1015 operacji zmiennoprzecinkowych na sekundę), teoretyczna szczytowa wydajność tej maszyny to 38,75 Pflops. Frontera znajduje się obecnie na 52. miejscu na liście TOP500. W chwili powstania był 5. najbardziej wydajnym superkomputerem na świecie. Dla porównania, najpotężniejszy polski superkomputer Helios GPU, z maksymalną mocą obliczeniową 19,14 Pflops zajmuje obecnie 69. pozycję.
      Horizon, którego koszt ma wynieść 520 milionów dolarów, będzie 10-krotnie bardziej wydajny od Frontery. Znalazłby się na 10. miejscu obecnej listy. Obecnie jednak nie wiadomo czy i kiedy powstanie. Wszystko przez działania Białego Domu, który chce uniemożliwić Narodowej Fundacji Nauki (NFC) wydatkowanie 234 milionów dolarów, jakie Kongres przyznał jej w ubiegłym miesiącu na program Major Research Equipment and Facilities Construction (MREFC). Zdecydowana większość tej kwoty – 154 miliony USD – miało zostać przeznaczone na budowę Horizona, a resztę NFC ma zamiar wydać na wieloletni program unowocześniania stacji antarktycznej McMurdo i niewielką infrastrukturę naukową w kraju.
      Pieniądze przyznane na MFERC to część znacznie większej kwoty 1,9 biliona USD zatwierdzonej w marcu jako awaryjne wydatki w celu uniknięcia przerw w pracy w wyniku możliwego zamknięcia rządu federalnego.
      Prezydent Trump sprzeciwił się takim działaniom i zapowiedział, że wstrzyma wydatkowanie 2,9 miliarda USD, w tym właśnie 234 milionów dolarów dla Narodowej Fundacji Nauki. Stwierdził bowiem, że nie są to wydatki awaryjne. Prawdopodobnie takie działanie byłoby nielegalne, gdyż zgodnie z prawem prezydent może albo wstrzymać całość wydatków (1,9 biliona), albo żadnego.
      Jeśli jednak Trump dopnie swego, budowa Horizona może co najmniej poważnie się opóźnić. Texas Advanced Computing Center (TACC) ma fundusze wystarczające na prace nad superkomputerem przez 3–4 miesiące. W zbudowanie i oprogramowanie komputera zaangażowanych jest 80 specjalistów z TACC oraz prywatne firmy.
      Naukowcy z niecierpliwością czekają na nowy superkomputer. Pozwoli on na symulowanie zarówno ewolucji galaktyk, jak i rozprzestrzeniania się wirusów w aerozolach. Mikrobiolodzy mówią, że zastosowanie Horizona w połączeniu z algorytmami sztucznej inteligencji sprawi, że obliczenia związane z wirusami będą 100-krotnie bardziej wydajne, niż obliczenia prowadzone na Fronterze.
      Uruchomienie Horizona planowane jest na połowę przyszłego roku. Frontera używa technologii z 2019 roku. Starzeje się i nie możemy go już dłużej używać, stwierdzają naukowcy. Już samo opóźnienie prac nad Horizonem to poważny problem. Może to bowiem oznaczać unieważnienie umowy pomiędzy TACC a Nvidią na dostarczenie tysięcy zaawansowanych procesorów graficznych. W związku z rozwojem sztucznej inteligencji zapotrzebowanie na takie układy jest ogromne, więc nie wiadomo, kiedy znowu Nvidia mogłaby dostarczyć tylu układów, ile potrzebuje Horizon.
      Zatrzymanie prac nad superkomputerem oznaczałoby też zmarnowanie 100 milionów USD, które dotychczas wydano na maszynę.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Teleskop Hubble'a dokonał unikatowych pomiarów, z których wynika, że dżet wydobywający się z obiektu GW170817 porusza się z prędkością przekraczającą 99,97% prędkości światła. Wykryta w sierpniu 2017 roku fala grawitacyjna GW170817 była niezwykłym i jedynym dotychczas zarejestrowanym wydarzeniem swego rodzaju. Pochodziła ze zlania się dwóch gwiazd neutronowych i zabłyśnięcia kilonowej SSS17a, trwała wyjątkowo długo i była powiązana z emisją promieniowania gamma.
      Wydarzenie było tak niezwykłe, że zaczęło obserwować je kilkadziesiąt teleskopów z całego świata. Okazało się, że to pierwszy obiekt, w przypadku którego powiązano fale grawitacyjne z obecnością światła, a powstały w czasie rozbłysku dżet zawiera ilość energii porównywalną z ilością produkowaną przez wszystkie gwiazdy Drogi Mlecznej w ciągu roku. GW170817 zostało wykorzystane m.in. do potwierdzenia Ogólnej Teorii Względności. Wykrycie GW170817 było niezwykle ważnym momentem w rozwoju astronomii w dziedzinie czasu, która bada zmiany ciał niebieskich w czasie.
      Teleskop Hubble'a zaczął obserwować to wydarzenie już 2 dni po jego odkryciu. Gwiazdy neutronowe zapadły się w czarną dziurę, która zaczęła wciągać okoliczną materię. Utworzył się szybko obracający się dysk materii, z którego biegunów wydobywa się potężny dżet. Naukowcy od wielu lat analizują dane dostarczone przez Hubble'a i inne teleskopy obserwujące GW170817.
      Zespół pracujący pod kierunkiem Kunala P. Mooleya z California Institute of Technology połączył dane z Hubble'a z danym dostarczonymi przez grupę radioteleskopów. Dane radiowe zebrano 75 i 230 dni po eksplozji. Obliczenie prędkości dżetu wymagało wielomiesięcznych szczegółowych analiz, mówi Jay Anderson ze Space Telescope Science Institute.
      Początkowe pomiary Hubble'a wykazały, że dżet porusza się z pozorną prędkością wynoszącą 7-krotność prędkości światła. Późniejsze pomiary za pomocą radioteleskopów pokazały, że dżet zwolnił do pozornej 4-krotnej prędkości światła.
      Jako, że nic nie może poruszać się szybciej niż światło, tak duża prędkość dżetu jest złudzeniem. Ponieważ dżet porusza się w kierunku Ziemi niemal z prędkością światła, światło wyemitowane później ma do przebycia krótszą drogę niż to, wyemitowane wcześniej. Dżet goni własne światło. Przez to obserwatorowi wydaje się, że od emisji światła z dżetu minęło mniej czasu niż w rzeczywistości. To zaś powoduje przeszacowanie prędkości obiektu. Z naszych analiz wynika, że dżet w momencie pojawienia się poruszał się z prędkością co najmniej 99,97% prędkości światła, mówi Wenbin Lu z Uniwersytetu Kalifornijskiego w Los Angeles.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Akademickim Centrum Komputerowym Cyfronet AGH oficjalnie uruchomiono najpotężniejszy superkomputer w Polsce. Uroczyste uruchomienie Atheny, bo tak nazwano maszynę, towarzyszyło inauguracji roku akademickiego. Maszyna dołączyła do innych superkomputerów z Cyfronetu – Zeusa, Prometeusza i Aresa.
      Maksymalna teoretyczna wydajność nowego superkomputera wynosi 7,71 PFlop/s, a maksymalna wydajność zmierzona testem Linpack osięgnęła 5,05 PFlop/s, co dało Athenie 105. pozycję na liście 500 najpotężniejszych superkomputerów na świecie. Polski superkomputer jest jedną z najbardziej ekologicznych maszy na świecie. Na liście Green500 zajął niezwykle wysoką, 9. pozycję. Do pracy potrzebuje bowiem 147 kW, zatem osiąga imponującą wydajność 29,9 GFlops/wat.
      Athena zbudowana jest z 48 serwerów. W skład każdego z nich wchodzą dwa 64-rdzeniowe procesory AMD EPYC oraz 8 kart GPGPU NVIDIA A100. Do wymiany danych pomiędzy serwerami służy wydajna infrastruktura wewnętrzna o przepustowości 4 x 200 Gb/s na serwer.
      Na liście TOP500 znajdziemy w sumie 5 polskich superkomputerów, z czego 3 z Cyfronetu. Obok Atheny są to Ares (290. pozycja, 2,34 PFlop/s) oraz Prometheus (475. pozycja, 1,67 PFlop/s).
      Nasze superkomputery są bardzo potrzebne polskiej nauce i innowacyjnej gospodarce. Czasem jestem pytany, dlaczego nie wystarczy jeden superkomputer? Odpowiedź jest bardzo prosta: po pierwsze są ogromne potrzeby użytkowników, po drugie każdy z superkomputerów ma swoją specyfikę, wynikającą z jego architektury, zainstalowanych procesorów i architektury pamięci operacyjnej. Uruchamiana dziś uroczyście Athena swoją wielką moc obliczeniową osiąga dzięki procesorom graficznym GP GPU. Są to bardzo nowoczesne i bardzo wydajne procesory graficzne Ampere A100 SXM3 firmy Nvidia. Architektura Atheny przeznaczona jest przede wszystkim dla obliczeń metodami sztucznej inteligencji oraz dla potrzeb medycyny, w tym walki z pandemią COVID-19, mówi dyrektor Akademickiego Centrum Komputerowego Cyfronet AGH prof. Kazimierz Wiatr. Uczony dodaje, że w ubiegłym roku maszyny te wykonały ponad 5,5 miliona zadań obliczeniowych na potrzeby polskiej nauki.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy teoretyczni z Lawrence Berkeley National Laboratory (LBNL) sądzą, że znaleźli dowód na istnienie aksjonów, teoretycznych cząstek tworzących ciemną materię. Ich zdaniem aksjony mogą być źródłem wysokoenergetycznego promieniowania X otaczającego pewną grupę gwiazd neutronowych.
      Istnienie aksjonów postulowane jest od lat 70. ubiegłego wieku. Zgodnie z hipotezami mają powstawać one we wnętrzach gwiazd i pod wpływem pola magnetycznego zmieniać się w fotony. Mają też tworzyć ciemną materię, która stanowi 85% masy wszechświata i której istnienia wciąż bezpośrednio nie udowodniono. Widzimy jedynie jej oddziaływanie grawitacyjne na zwykłą materię.
      Grupa gwiazd neutronowych, o której mówią naukowcy z LBNL to Magnificient 7. Są one świetnym miejscem do testowania obecności akcjonów, gdyż wiadomo, że gwiazdy te posiadają silne pola magnetyczne, są dość blisko siebie – w odległości kilkuset lat świetlnych – i powinny emitować niskoenergetyczne promieniowanie X oraz światło ultrafioletowe.
      Wiemy, że gwiazdy te są nudne i w tym przypadku jest to dobra cecha, mówi Benjamin Safdi, który stał na czele grupy badawczej.
      Gdyby Magnificient 7 były pulsarami, to tłumaczyłoby to odkrytą emisję w paśmie X. Jednak pulsarami nie są i żadne znane wyjaśnienie nie pozwala wytłumaczyć rejestrowanej emisji. Jeśli zaś otaczające Magnificient 7 promieniowanie pochodziło ze źródła lub źródeł ukrytych za pulsarami, to byłyby one widoczne w danych uzyskanych z teleskopów kosmicznych XMM-Newton i Chandra. A żadnego takiego źródła nie widać. Dlatego też Safdi i jego współpracownicy uważają, że źródłem są aksjony.
      Naukowcy nie wykluczają całkowicie, że nadmiar promieniowania można wyjaśnić w innych sposób niż istnieniem aksjonów. Mają jednak nadzieję, że jeśli takie alternatywne wyjaśnienie się pojawi, to również i ono będzie związane ze zjawiskiem wykraczającym poza Model Standardowy.
      Jesteśmy dość mocno przekonani, że to nadmiarowe promieniowanie istnieje i bardzo mocno przekonani, że mamy tutaj do czynienia z czymś nowym. Gdybyśmy zyskali 100% pewności, że to, co obserwujemy, spowodowane jest obecnością nieznanej cząstki, byłoby to wielkie odkrycie. Zrewolucjonizowałoby to fizykę, mówi Safdi.
      W tej chwili nie twierdzimy, że odkryliśmy aksjony. Twierdzimy, że dodatkowe promieniowanie X może być wyjaśnione przez aksjony, dodaje doktor Raymond Co z University of Minnesota.
      Safdi mówi, że kolejnym celem jego badań bądą białe karły. Gwiazdy te również mają bardzo silne pole magnetyczne i powinny być wolne od promieniowania X. Jeśli i tam zauważymy nadmiarowe promieniowanie X, będziemy coraz bardziej przekonani, że znaleźliśmy coś, co wykracza poza Model Standardowy, dodaje uczony.
      W ostatnim czasie aksjony cieszą się większym zainteresowaniem niż zwykle, gdyż kolejne eksperymenty nie dostarczyły dowodów na istnienie WIMP-ów (słabo oddziałujących masywnych cząstek), które również są kandydatem na cząstki tworzące ciemną materię.
      Aksjony to cała rodzina cząstek. Mogą istnieć setki cząstek podobnych do aksjonów (ALP) tworzących ciemną materię, a teoria strun pozwala na istnienie wielu typów ALP.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Granty obliczeniowe poświęcone badaniom nad koronawirusem SARS-CoV-2 oraz wywoływaną przez niego chorobą COVID-19 mają pierwszeństwo w kolejce dostępu do zasobów najszybszego superkomputera w Polsce – Prometheusa – i uzyskują najwyższy priorytet w uruchamianiu. Dotychczas zarejestrowane zespoły badają m.in. przeciwciała obecne w czasie zakażenia, cząsteczki wykazujące potencjalne działanie hamujące infekcję oraz możliwości rozwoju szczepionek.
      Ponad 53 tysiące rdzeni obliczeniowych zespolonych w jednej maszynie oraz infrastruktura towarzysząca pozwalają na szybkie przetwarzanie dużych danych medycznych, biologicznych i chemicznych. Zarówno zasoby obliczeniowe, jak i narzędzia pozwalające z nich efektywnie korzystać są dostępne dla naukowców za pośrednictwem Infrastruktury PLGrid (rejestracja możliwa jest poprzez portal: https://portal.plgrid.pl/registration/form). Specjaliści z ACK CYFRONET AGH udzielają pełnego wsparcia przy uruchomieniu programów na zasobach Prometheusa.
      Oprócz przyspieszonej procedury grantowej naukowcy prowadzący badania korzystają z priorytetu obsługi zgłoszeń helpdesk.
      Część mocy obliczeniowej Prometheusa jest udostępniona w ramach partnerstwa europejskiego PRACE do przeprowadzenia pan-europejskiego hackatonu mającego na celu wypracowanie nowych rozwiązań w walce z koronawirusem. Wspierany przez wszystkie państwa europejskie hackaton dostępny jest pod adresem https://euvsvirus.org/. Do tych zasobów dostęp mają również badacze z Polski.
      Cyfronet udostępnia również zasoby w ramach federacji EGI – rozproszonej infrastruktury obliczeniowej, która skupia zasoby ponad 250 jednostek z całego świata. Federacja EGI wspólnie z amerykańską organizacją Open Science Grid (OSG) połączyły siły, by wspierać projekty badawcze dotyczące COVID-19.
      Dodatkowo za pośrednictwem rozwijanego przez Cyfronet portalu EOSC (European Open Science Cloud) dostępne jest stworzone na Uniwersytecie w Utrechcie narzędzie Haddock, które służy modelowaniu biomolekularnemu.
      ACK CYFRONET AGH uczestniczy również w projekcie EOSC Synergy, w ramach którego udostępniono zasoby chmury obliczeniowej na rzecz walki z wirusem.
      Superkomputer Prometheus służy medycynie nie od dziś ­– zainstalowane w jego zasobach specjalistyczne pakiety oprogramowania są na co dzień wykorzystywane m.in. w badaniach związanych z modelowaniem cząsteczek leków, do analiz danych z mikromacierzy DNA, identyfikacji białek i przewidywania ich roli w procesach biologicznych.
      ACK CYFRONET AGH od wielu lat wspiera projekty i inicjatywy związane z rozwojem medycyny i farmacji. Wchodzi w skład konsorcjum realizującego projekt SANO, którego celem jest wprowadzenie kompletnie nowych rozwiązań diagnostycznych i terapeutycznych wynikających z wytworzenia nowych, obliczeniowych biomarkerów chorób, zindywidualizowanych względem poszczególnych pacjentów.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...