Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Cray, AMD i Intel zbudują pierwsze amerykańskie eksaskalowe superkomputery

Rekomendowane odpowiedzi

Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.

Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.

Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.

Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.

Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.

Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.

Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.

Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.

W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.

Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?

Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.

Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.

Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ostatni akapit chyba miał dotyczyć Aurory, a nie Frontiera.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe, tak w kontekście supremacji kwantowego komputera od googla... co będzie za 2 lata?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Regularne spożywanie niewielkich ilości suszonych jagód goji może chronić przed związanym z wiekiem zwyrodnieniem plamki żółtej (AMD). To główna przyczyna utraty wzroku u seniorów. Badania przeprowadzone na Uniwersytecie Kalifornijskim w Davies sugerują, że nasiona goji mogą zapobiegać lub opóźniać rozwój AMD.
      W niewielkich randomizowanych badaniach wzięło udział 27 zdrowych dorosłych osób w wieku 45–65 lat. W grupie badanej znalazło się 13 osób, które przez 90 dni pięć razy w tygodniu spożywały 28 gramów nasion goji. Okazało się, że u osób tych doszło do zwiększenia poziomu luteiny i zeaksantyny. To karotenoidy obecne w siatkówce oka, które filtrują szkodliwe światło niebieskie i chronią siatkówkę przed działaniem wolnych rodników. Oba związki chronią nasze oczy przed negatywnymi skutkami starzenia się. W grupie kontrolnej znajdowało się zaś 14 osób, którym podawano komercyjny suplement diety, mający poprawiać stan zdrowia oczu. U osób tych poziom luteiny i zeaksantyny nie zwiększył się.
      Luteina i zeaksantyna są jak filtry słoneczne dla naszych oczu. Im wyższy ich poziom w siatkówce, tym silniejszy efekt ochronny. Nasze badania pokazują, że nawet u osób o zdrowych oczach poziom obu związków można podnieść, jedząc codziennie niewielką garść jagód goji, mówi główna autorka badań, doktorantka Xiang Li.
      Li pochodzi z Chin, gdzie jagody goji są składnikiem zup, herbat i przekąsek. Mówi się, że „rozjaśniają oczy”. Dlatego też młoda uczona postanowiła sprawdzić, czy rzeczywiście mają jakikolwiek wpływ na zdrowie oczu. Istnieje wiele chorób oczu, więc nie jest jasne, do czego odnosi się „rozjaśnianie oczu”, mówi.
      Wraz z zespołem zbadała aktywne składniki jagód i okazało się, że zawierają one duże ilości luteiny i zeaksantyny, o których wiadomo, iż redukują ryzyko chorób powiązanych z AMD. Nasze badania pokazały, że jagody goji mogą poprawić poziom pigmentów u zdrowych ludzi bardziej, niż przyjmowanie wysokich dawek suplementów. W następnym kroku naszych badań chcemy sprawdzić wpływ jagód goji na osoby z wczesnym stadium AMD, stwierdza współautorka badań, profesor Glenn Yiu.
      Autorzy badań ostrzegają przed zbytnim optymizmem, podkreślając, że były one prowadzone na małej grupie ochotników.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      AMD konsekwentnie zdobywa coraz silniejszą pozycję na rynku. Firma analityczna Mercury Research, z której usług korzystają m.in. AMD i Intel, poinformowała, że IV kwartał 2019 roku był już 9. kwartałem z kolei, w którym AMD zwiększało swoje udziały w rynku procesorów.
      Analityków zaskoczyły niewielkie postępy na rynku desktopów oraz centrów bazodanowych. W ciągu trzech ostatnich miesięcy ubiegłego roku AMD zyskało tam, odpowiednio, 0,2 i 0,3 punktu procentowego. Największe zaś postępy firma zanotowała na rynku urządzeń przenośnych, gdzie pomiędzy październikiem a grudniem 2019 roku wzrosły o 1,5 punktu procentowego.
      Obecnie AMD posiada 4,5% rynku serwerów (+ 1,4 pp rok do roku), 18,3% rynku desktopów (+2,4 pp rdr), 16,2% rynku urządzeń mobilnych (+ 4,0 pp rdr). Całkowity udział AMD w rynku układów x86 wynosi obecnie 15,5%. Ostatnio tak dobrym wynikiem firma mogła pochwalić się przed niemal 7 laty.
      Sprzedaż desktopowych CPU wzrosła dzięki dużemu popytowi na highendowe procesory dla graczy oraz dlatego, że Intel zwiększył dostawy tanich procesorów. AMD zanotowało bardzo silny wzrost sprzedaży układów z serii Ryzen 3000, a Intel duży wzrost w segmencie i9. Większość wzrostu obu firm pochodziło ze sprzedaży procesorów o największej liczbie rdzeni, mówi Dean McCarron z Mercury Research.
      Warto też zauważyć, że AMD zdominował Black Friday i Cyber Monday na Amazonie, gdzie jego procesory często zajmowały pierwszych 10 pozycji wśród najchętniej kupowanych układów. To jednocześnie pokazuje, że rynek klienta indywidualnego jest znacznie mniejszy niż rynek OEM, na którym tradycyjnie dominuje Intel. Koncern jest szczególnie silny w segmencie przedsiębiorstw i administracji państwowej. Klienci ci pozostają wierni platformie Intela, gdyż unikają w ten sposób kosztownych i długotrwałych procesów związanych z przejściem na inna platformę sprzętową.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...