Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Japonia, USA i Chiny w wyścigu o eksaflopsowy superkomputer

Rekomendowane odpowiedzi

Japonia chce odzyskać miano kraju, w którym znajduje się najpotężniejszy superkomputer świata. Chce być też pierwszym państwem, które uruchomi eksaflopsową maszynę.

Nad takim właśnie superkomputerem, o nazwie Fugaku, pracuje firma Fujitsu PRIMEHPC. Fugaku, nazwany tak od góry Fuji, ma zastąpić K Computer, maszynę, która do sierpnia bieżącego roku pracowała w instytucie badawczym Riken.

Japończycy zapowiadają debiut Fugaku na około roku 2021. Muszą się spieszyć, bo w tym samym terminie w USA i Chinach mają również staną eksaflopsowe maszyny.

Pojawienie się maszyn o wydajności liczonej w eksaflopach będzie oznaczało olbrzymi skok mocy obliczeniowej.

Obecnie najpotężniejszym superkomputerem na świecie jest amerykański Summit, którego maksymalna zmierzona moc obliczeniowa wynosi 148,6 TFlop/s. Na drugim miejscu znajdziemy również amerykańską maszynę Sierra (94,64 TFlop/s), a dwa kolejne miejsca należą do superkomputerów Państwa Środka. Są to Sunway TaihyLight (93,01 TFlop/s) i Tianhe-2A (61,44 TFlop/s). Najszybszy obecnie japoński superkomputer, AI Bridging Cloud Infrastructure (ABCI) uplasował się na 8. pozyci listy TOP500, a jego wydajność to 19,88 TFlop/s.

Warto też wspomnieć, że prototyp Fugaku, maszyna A64FX i mocy obliczeniowej 1,99 TFlop/s trafił na 1. miejsce listy Green500. To lista maszyn, które dostarczają najwięszej mocy obliczeniowej na jednostkę energii. Wynik A64FX to 16,876 GFlops/wat.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak sie tylko zastanawiam czy w tym zacnym gronie 500-set najszybszych kompow swiata znalazlo sie  jedno a moze i wiecej miejsc dla polskich maszynek ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

FLOPS to skrót od Floating Operations Per Second. Tam nie ma miejsca na łamańce p/s, zaś końcowe S musi być zawsze w odmianie i wyrazach pokrewnych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Usher napisał:

Tam nie ma miejsca na łamańce p/s

Bo? Z wiki: FLOPS nie jest jednostką SI, ale można go interpretować jako jednostkę o wymiarze 1/s. Zatem: jak można interpretować  FLOPS/s? Nie mam problemu z odróżnieniem FLOPa od FLOPSa. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Albo FLOPS albo FLO/s. Nigdy p/s. Popatrz na mph lub ppm.

Edytowane przez Usher
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Usher napisał:

Albo FLOPS albo FLO/s. Nigdy p/s. Popatrz na mph.

No tak, tylko w słowie mile nie ma litery p, która jest w słowie operation. No i dlaczego FLO a nie FO albo FOP? Tak ortodoksyjne podejście w przypadku nieformalnej jednostki musi mieć jakieś uzasadnienie gramatyczne? , typu biernik równy mianownikowi czy cóś....  

Tak, jest piątek, wieczór, czasu dużo, to i troluję tu bez sensu :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
On 11/22/2019 at 6:22 PM, Jajcenty said:

Bo? Z wiki: FLOPS nie jest jednostką SI, ale można go interpretować jako jednostkę o wymiarze 1/s. Zatem: jak można interpretować  FLOPS/s? Nie mam problemu z odróżnieniem FLOPa od FLOPSa. 

FLOPS/s to jest przyspieszenie :)

On 11/22/2019 at 4:48 PM, Astro said:

P.S. Przy okazji pytanie do wiedzących. O ile nie dziwi mnie dominacja x86-64 (cena, energia - chociaż warto spojrzeć na GREEN500), to dziwi mnie zmniejszający się udział AMD względem Intela. Skąd toto? Marketing?

Podejrzewam, że sprzęt Intela jest lub był wydajniejszy energetycznie niż AMD. Przynajmniej tak było kiedy składałem sprzęt w 2014. Procesor intela pobierał znacznie mniej prądu i wymagał mniejszego zasilacza - w połączeniu z resztą sprzętu w tym GPU - oraz mniejszego chłodzenia. W skali superkomputera oszczędności idą w miliony.

Ale to może się zmienić, bo AMD i Intel pokazał nowe procesory 25 listopada i wygląda na to, że tym razem AMD jest w ofensywie. Z resztą wystarczy popatrzeć na wykres ich akcji, które odbiły się od dna w 2015-2016 i ostro prą w górę. Cieszy mnie to, bo mam sentyment do AMD z czasów dzieciństwa. Po za tym konkurencja na rynku jest dobra dla klientów, a Intel ma skłonności do stosowania brudnych chwytów. Chociażby z tego tygodnia, kiedy to znieśli embargo informacyjne na kilka godzin przed prezentacją AMD, aby uniknąć bezpośredniego porównania z konkurencją.

https://www.youtube.com/watch?v=vuaiqcjf0bs

Link do YT powyżej się nie rozwinął, ale to nie spam :)

Nie mogę już edytować posta, więc poniżej zamieszczam link do video o nowych procesorach AMD.

 

Wow, forum skleja posty! :)

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.11.2019 o 17:48, Astro napisał:

P.S. Przy okazji pytanie do wiedzących. O ile nie dziwi mnie dominacja x86-64 (cena, energia - chociaż warto spojrzeć na GREEN500), to dziwi mnie zmniejszający się udział AMD względem Intela. Skąd toto? Marketing?

Superkomputery planuje się 2-4 lata do przodu, w 2017 nawet AMD nie wiedziało jak będzie wyglądać ZEN2, teraz to już wiadomo i jest sporo projektów na bazie nowych CPU Epyc na rdzeniu Rome.

P.S. AMD dopiero w 2018 roku wydało CPU zdolny do konkurowania z ofertą Intela na tym rynku.(byli prawie dekadę w dołku)

Edytowane przez rahl

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.11.2019 o 19:39, Jajcenty napisał:

No tak, tylko w słowie mile nie ma litery p, która jest w słowie operation.

P jest z "per" jak w "mile PER hour". Read bold letters: FLoating Operation Per Second, Mile Per Hour, Part Per Million.

W dniu 22.11.2019 o 19:39, Jajcenty napisał:

No i dlaczego FLO a nie FO albo FOP?

Pytanie powinno brzmieć „Dlaczego FL, a nie F?”. A dlaczego herc jest Hz, grej jest Gy,  deka jest da, a paskal jest Pa (a nie P lub Pl)? A dlaczego simens to S?

A dlaczego w tejże Wikipedii "Assume Stupidity" to ASS? https://en.wikipedia.org/wiki/Wikipedia:Assume_stupidity

Tak swoją drogą to flops i herc mają ten sam wymiar [1/s].

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 11.12.2019 o 10:40, Usher napisał:

Dlaczego FL, a nie F?”. A dlaczego... 

Może dlatego, że te symbole są już zarezerwowane, przez inne jednostki.

W dniu 11.12.2019 o 10:40, Usher napisał:

Tak swoją drogą to flops i herc mają ten sam wymiar [1/s].

Nie jest taki sam, porównujesz 1 Flo/s vs. 1 cykl/s.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I tak co roku chcecie bić pianę?

2008:

2009:

2010:

itd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Odkryty w południowo-zachodnich Chinach zestaw drewnianych narzędzi sprzed 300 tysięcy lat daje nam wgląd w życie, dietę oraz warunki środowiskowe, w jakich żyli ówcześni ludzie. To niezwykłe znalezisko. I to podwójnie niezwykłe. Dotychczas znaliśmy jedynie dwa zestawy drewnianych narzędzi z paleolitu, jeden odkryty w Europie i jeden z Afryki. Służyły do polowań. Tutaj zaś mamy narzędzia do pracy w ziemi. W skład zestawu wchodzi 35 narzędzi wykonanych głównie z sosny i gatunków drzew o twardym drewnie Znajdują się w nim kije do kopania, haki oraz niewielkie narzędzia ręczne.
      Odkrycia dokonano na stanowisku Gantangquing. Drewniane narzędzia znaleziono w towarzystwie narzędzi kamiennych, młotków wykonanych z poroża i kości ze śladami nacięć. Wiek stanowiska określono na 361–250 tysięcy lat, a drewniane narzędzia znaleziono w warstwach sprzed około 300 tysięcy lat. To wyjątkowe odkrycie, gdyż pokazuje moment w historii, gdy wcześni ludzie używali zaawansowanych drewnianych narzędzi do pozyskiwania pożywienia spod ziemi. Przygotowanie takich przedmiotów wymagało takiego poziomu zaawansowania i rzemiosła, które przeczą założeniu, jakoby homininy z tamtych terenów nie korzystały z zaawansowanych narzędzi, mówi profesor Bo Li z University of Wollongong.
      W zestawie widzimy narzędzia o różnym przeznaczeniu. Dwa duże kije do kopania przypominają te z Poggetti Vecchi we Włoszech, datowane na 171 tysięcy lat. Cztery unikatowe haki mogły służyć do przecinania korzeni. Badania śladów zużycia wykazały celowe polerowanie i obecność materiału, wskazującego na wykopywanie bulw i korzeni. To wskazuje, że ich użytkownicy spożywali dietę roślinną, w tym orzechy, owoce kiwi i bulwy roślin wodnych. To też pokazuje różnice w diecie pomiędzy współcześnie żyjącymi grupami ludźmi. O ile na współczesnych stanowiskach w Europie (jak Schöningen w Niemczech) widzimy dowody świadczące o polowaniu na duże zwierzęta, w subtropikalnym Gantanquing mamy unikatowe ślady strategii przetrwania polegającej na diecie roślinnej, dodaje Li.
      Źródło: 300,000-year-old wooden tools from Gantangqing, southwest China, https://www.science.org/doi/10.1126/science.adr8540

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Najdłuższa i najbardziej szczegółowa w historii symulacja połączenia się dwóch gwiazd neutronowych pokazuje, jak powstają czarne dziury i rodzą się dżety. Autorami symulacji są członkowie międzynarodowego zespołu badawczego, na czele którego stali naukowcy z Instytutu Fizyki Grawitacyjnej im. Maxa Plancka. Jej stworzenie wymagało 130 milionów godzin pracy procesorów, a symulacja – tak szczegółowo, jak to możliwe – obrazuje to, co dzieje się w ciągu... 1,5 sekundy.
      Łączące się gwiazdy neutronowe są dla astronomów niezwykle interesującym celem badań. W procesie tym dochodzi do emisji fal grawitacyjnych, neutrin i fal elektromagnetycznych.
      Podczas jej przygotowywania twórcy symulacji wzięli pod uwagę zjawiska opisane w ogólnej teorii względności, oddziaływanie strumieni neutrin czy magnetohydrodynamikę. Wszystkie je możemy rejestrować i badać, pogłębiając naszą wiedzę o kosmosie.
      A dzięki symulacjom komputerowym możemy lepiej zrozumieć pochodzenie i powstawanie tych sygnałów.
      Uczeni wykorzystali do symulacji japoński superkomputer Fugaku, który w latach 2020–2022 był najpotężniejszym superkomputerem na świecie. W każdym momencie tworzenia symulacji jednocześnie pracowało od 20 do 80 tysięcy procesorów. Dzięki tak potężnej mocy obliczeniowej możliwe było uwzględnienie zjawisk opisanych przez ogólną teorię względności, emisji neutrin czy zjawisk magnetohydrodynamicznych.
      Symulacja opisuje dwie gwiazdy neutronowe, o masie 1,25 i 1,65 razy większej od masy Słońca, które okrążają się 5-krotnie. Wówczas pojawiają się pierwsze sygnały, które potrafimy badań na Ziemi, czyli fale grawitacyjne. Następnie dochodzi do połączenia gwiazd, w wyniku czego powstaje czarna dziura otoczona dyskiem materiału. W dysku, w wyniku efektu dynama magnetohydrodynamicznego i obrotu czarnej dziury, dochodzi do szybkiego wzmocnienia pola magnetycznego. To powoduje odpływ energii wzdłuż osi obrotu czarnej dziury.
      Sądzimy, że to ten odpływ energii napędzany przez pole magnetyczne, zasila rozbłyski gamma. To by się zgadzało z tym, co wiemy z dotychczasowych obserwacji i wzbogaca naszą wiedzę o zjawiskach zachodzących podczas łączenia się gwiazd neutronowych, stwierdził Masaru Shibata, dyrektor wydziału Obliczeniowej Astrofizyki Relatywistycznej. Dalsza część symulacji pokazała spodziewaną emisję neutrin, dostarczyła informacji na temat ilości materii wyrzucanej w przestrzeń międzygwiezdną oraz wskazała na możliwość pojawienia się kilonowej, w wyniku której wytwarzane są wielkie ilości metali ciężkich.
      To, czego się właśnie dowiedzieliśmy o tworzeniu się dżetów i dynamice pola magnetycznego jest kluczowe do zinterpretowania i zrozumienia łączenia się gwiazd neutronowych oraz towarzyszących temu zjawisk, dodaje Shibata.
      Źródło: Jet from Binary Neutron Star Merger with Prompt Black Hole Formation


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prezydent Trump nie ustaje w wysiłkach na rzecz ograniczenia finansowania nauki. Wcześniej informowaliśmy o propozycji obcięcia budżetu NASA na naukę. Tym razem na celowniku jego administracji znalazł się superkomputer Horizon. Mimo, że prezydent twierdzi, że utrzymanie dominacji USA na rynku najbardziej wydajnych maszyn obliczeniowych jest jego priorytetem, działania Białego Domu mogą opóźnić lub całkowicie zniweczyć plany budowy maszyny Horizon, która ma stanąć na University of Texas w Austin.
      Stany Zjednoczone dominują na rynku superkomputerów. To w tym kraju tradycyjnie już znajduje się największa liczba spośród 500 najbardziej wydajnych maszyn świata. Jednak dominacja ta jest coraz mniejsza. Obecnie na liście TOP500 superkomputerów znajdują się 173 maszyny z USA – w tym 5 z 10 najpotężniejszych – a przed 10 laty w USA stały 232 takie maszyny.
      Horizon ma być najpotężniejszym superkomputerem na amerykańskiej uczelni wyższej. Obecnie miano takiej maszyny należy do superkomputera Frontera, również znajdującego się na University of Texas. Maksymalna moc obliczeniowa Frontery to 23,52 Pflops (Pflops to 1015 operacji zmiennoprzecinkowych na sekundę), teoretyczna szczytowa wydajność tej maszyny to 38,75 Pflops. Frontera znajduje się obecnie na 52. miejscu na liście TOP500. W chwili powstania był 5. najbardziej wydajnym superkomputerem na świecie. Dla porównania, najpotężniejszy polski superkomputer Helios GPU, z maksymalną mocą obliczeniową 19,14 Pflops zajmuje obecnie 69. pozycję.
      Horizon, którego koszt ma wynieść 520 milionów dolarów, będzie 10-krotnie bardziej wydajny od Frontery. Znalazłby się na 10. miejscu obecnej listy. Obecnie jednak nie wiadomo czy i kiedy powstanie. Wszystko przez działania Białego Domu, który chce uniemożliwić Narodowej Fundacji Nauki (NFC) wydatkowanie 234 milionów dolarów, jakie Kongres przyznał jej w ubiegłym miesiącu na program Major Research Equipment and Facilities Construction (MREFC). Zdecydowana większość tej kwoty – 154 miliony USD – miało zostać przeznaczone na budowę Horizona, a resztę NFC ma zamiar wydać na wieloletni program unowocześniania stacji antarktycznej McMurdo i niewielką infrastrukturę naukową w kraju.
      Pieniądze przyznane na MFERC to część znacznie większej kwoty 1,9 biliona USD zatwierdzonej w marcu jako awaryjne wydatki w celu uniknięcia przerw w pracy w wyniku możliwego zamknięcia rządu federalnego.
      Prezydent Trump sprzeciwił się takim działaniom i zapowiedział, że wstrzyma wydatkowanie 2,9 miliarda USD, w tym właśnie 234 milionów dolarów dla Narodowej Fundacji Nauki. Stwierdził bowiem, że nie są to wydatki awaryjne. Prawdopodobnie takie działanie byłoby nielegalne, gdyż zgodnie z prawem prezydent może albo wstrzymać całość wydatków (1,9 biliona), albo żadnego.
      Jeśli jednak Trump dopnie swego, budowa Horizona może co najmniej poważnie się opóźnić. Texas Advanced Computing Center (TACC) ma fundusze wystarczające na prace nad superkomputerem przez 3–4 miesiące. W zbudowanie i oprogramowanie komputera zaangażowanych jest 80 specjalistów z TACC oraz prywatne firmy.
      Naukowcy z niecierpliwością czekają na nowy superkomputer. Pozwoli on na symulowanie zarówno ewolucji galaktyk, jak i rozprzestrzeniania się wirusów w aerozolach. Mikrobiolodzy mówią, że zastosowanie Horizona w połączeniu z algorytmami sztucznej inteligencji sprawi, że obliczenia związane z wirusami będą 100-krotnie bardziej wydajne, niż obliczenia prowadzone na Fronterze.
      Uruchomienie Horizona planowane jest na połowę przyszłego roku. Frontera używa technologii z 2019 roku. Starzeje się i nie możemy go już dłużej używać, stwierdzają naukowcy. Już samo opóźnienie prac nad Horizonem to poważny problem. Może to bowiem oznaczać unieważnienie umowy pomiędzy TACC a Nvidią na dostarczenie tysięcy zaawansowanych procesorów graficznych. W związku z rozwojem sztucznej inteligencji zapotrzebowanie na takie układy jest ogromne, więc nie wiadomo, kiedy znowu Nvidia mogłaby dostarczyć tylu układów, ile potrzebuje Horizon.
      Zatrzymanie prac nad superkomputerem oznaczałoby też zmarnowanie 100 milionów USD, które dotychczas wydano na maszynę.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niewidoczna z Ziemi strona Księżyca zawiera znacznie mniej wody, niż część widoczna – donoszą chińscy naukowcy. Takie zaskakujące wnioski płyną z badań próbek bazaltu zebranych przez misję Chang'e-6. Wyniki badań, opublikowane na łamach Nature, pozwolą lepiej zrozumieć ewolucję ziemskiego satelity.
      Dostarczone na Ziemię próbki zawierały mniej niż 2 mikrogramy wody w gramie. Nigdy wcześniej nie zanotowano tak mało H2O na Księżycu. Wcześniejsze badania próbek ze strony widocznej z Ziemi zawierały nawet do 200 mikrogramów wody na gram.
      Naukowcy potrafią mierzyć zawartość wody w materiale z dokładnością do 1–1,5 części na milion. Już widoczna strona Księżyca jest niezwykle sucha. A ta niewidoczna całkowicie zaskoczyła naukowców. Nawet najbardziej suche pustynie na Ziemi zawierają około 2000 części wody na milion. To ponad tysiąckrotnie więcej, niż zawiera jej niewidoczna z Ziemi część Księżyca, mówi główny autor badań, profesor Hu Sen z Instytutu Geologii i Geofizyki Chińskiej Akademii Nauk.
      Obecnie powszechnie przyjęta hipoteza mówi, że Księżyc powstał w wyniku kolizji Ziemi z obiektem wielkości Marsa. Do zderzenia doszło 4,5 miliarda lat temu, a w wyniku niezwykle wysokich temperatur, będących skutkiem zderzenia, Księżyc utracił wodę i inne związki lotne. Debata o tym, jak dużo wody pozostało na Księżycu, trwa od dekad. Dotychczas jednak dysponowaliśmy wyłącznie próbkami ze strony widocznej z Ziemi.
      Chińska misja Chang'e-6 została wystrzelona w maju 2024 roku, wylądowała w Basenie Południowym – Aitken i w czerwcu wróciła z niemal 2 kilogramami materiału. To pierwsze w historii próbki pobrane z niewidocznej części Księżyca.
      Zespół profesora Hu wykorzystał 5 gramów materiału, na który składało się 578 ziaren o rozmiarach od 0,1 do 1,5 milimetra. Po przesianiu i dokładnej analizie okazało się, że 28% z nich stanowi bazalt. I to on właśnie został poddany badaniom.
      Ilość wody w skałach księżycowych to bardzo ważny test hipotezy o pochodzeniu Księżyca. Jeśli w skałach byłoby 200 części wody na milion lub więcej, byłoby to poważne wyzwanie dla obecnie obowiązującej hipotezy i naukowcy musieliby zaproponować nowy model powstania Księżyca, wyjaśnia profesor Hu. Wyniki badań jego zespołu stanowią więc potwierdzenie tego, co obecnie wiemy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...