Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

W Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie

Recommended Posts

Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.

Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.

Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.

Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.

Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Może dlatego, że Forschungszentrum Jülich to potężne centrum naukowo-badawcze, jedno z największych w Europie, więc lepiej, by stał tam silniejszy superkomputer. Mają też doświadczenie z jednymi z najpotężniejszych maszyn na świecie.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Trzeba będzie jeszcze poczekać, nim dowiemy się, kto zostanie hejnalistą Wieży Mariackiej w Krakowie. Okazało się bowiem, że kandydaci, którzy poradzili sobie z przesłuchaniem kwalifikacyjnym z zakresu gry na trąbce, nie zaliczyli niestety testów sprawnościowych. W związku z tym w najbliższych tygodniach ogłoszony zostanie kolejny nabór. Jak podkreślił oficer prasowy komendanta miejskiego Państwowej Straży Pożarnej (PSP) Bartłomiej Rosiek, do tego czasu kandydaci, którzy nie przeszli testów sprawnościowych, będą mogli poprawić swoją kondycję fizyczną.
      Zgłosiło się 35 osób, w tym 3 kobiety. Etap gry na trąbce przeszło 6 kandydatów (w gronie tym nie było ani jednej kobiety). Później, tak jak inne osoby ubiegające się o pracę w straży pożarnej, kandydaci na hejnalistę musieli wziąć udział w testach sprawnościowych. Podciągali się na drążku, biegali po kopercie i poddawali się próbie wydolnościowej "beep test". W konkursie na hejnalistę i tak obniżyliśmy kryteria, ale kandydaci i tak ich nie spełnili - powiedział Rosiek.
      W związku z tym anulowano kolejne etapy naboru do służby, m.in. sprawdzian braku lęku wysokości.
      W grudniu ogłoszono nabór na stanowisko stażysty w służbie przygotowawczej - strażaka-hejnalisty w Komendzie Miejskiej PSP w Krakowie. Przewidziano aż 2 etaty. Jest to skutek m.in. tego, że po latach służby w marcu 2020 r. na emeryturę odszedł Jan Sergiel.
      Sergiel powiedział w wywiadzie udzielonym rok temu portalowi Kraków.pl, że trafił na wieżę przypadkiem; wystartował w konkursie ogłoszonym przez Radio Kraków, bo chciał się sprawdzić, a że wygrałem, to musieli mnie przyjąć. Grać na trąbce nauczył się w orkiestrze OSP Budzów. Potem – w czasie służby wojskowej – grałem w orkiestrze reprezentacyjnej Pomorskiego Okręgu Wojskowego. Z tą ostatnią zaliczyłem też wiele występów estradowych czy na dancingach. Można powiedzieć, że byłem ograny w różnych gatunkach. Muszę przyznać, że gdy startowałem w konkursie na hejnalistę, nie wiedziałem, że hejnał wygrywają strażacy!
      Hejnalista pracuje przez 24 godziny, później ma 48 godzin przerwy. Wygrywa hejnał o każdej pełnej godzinie - od 8 do 7 następnego dnia. Na jednej zmianie pracuje 2 hejnalistów. Hejnał mariacki wygrywa się na 4 strony świata: dla króla (na Wawel), dla rajców miejskich (na Rynek), dla gości (na Bramę Floriańską) i dla komendanta (na Komendę Straży Pożarnej).
      Warto przypomnieć, że 16 kwietnia 1927 roku Polskie Radio po raz 1. transmitowało w południe hejnał mariacki z Krakowa.
      Na stronie Poczet Krakowski, na której można zobaczyć przysięgę trębacza z 1671 r., dawne zapisy nutowe hejnału, hejnalicę i hejnalistów na obrazach czy hejnałowe trąbki, podkreślono, że pierwsza wzmianka o hejnale pochodzi z 1392 r. Nie wiemy, jak brzmiała odgrywana wówczas melodia. Kto wie, czy Kraków nie jest miastem, które najdłużej na świecie podtrzymuje tradycję odgrywania hejnału...

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zakończyła się konserwacja figur i płaskorzeźb ołtarza Wita Stwosza w bazylice Mariackiej. Efekty kilkuletnich prac będzie można zobaczyć za kilka tygodni, gdy wszystkie elementy zostaną zamontowane, a rusztowania usunięte.
      Cieszymy się, że prace konserwatorskie przy rzeźbach i płaskorzeźbach zakończyły się - powiedział Polskiej Agencji Prasowej arcyprezbiter kościoła Mariackiego ksiądz infułat Dariusz Raś. Za kilka tygodni sprzed ołtarza znikną rusztowania, wtedy będzie można go podziwiać w całej okazałości i wtedy zapraszamy na uroczyste otwarcie i ocenę efektu końcowego [...] - dodał.
      Jak można przeczytać na stronie internetowej bazyliki Mariackiej, obecny projekt konserwatorski jest konsekwencją działań rozpoczętych w latach 2011–2012 , kiedy to z inicjatywy SKOZK [Społecznego Komitetu Odnowy Zabytków Krakowa] i bazyliki Mariackiej, reprezentowanej przez ks. infułata dra Dariusza Rasia, powołano Komisję Konserwatorską do przeprowadzenia oceny stanu zachowania ołtarza Wita Stwosza. Przewodniczącym komisji [...] był prof. dr Władysław Zalewski. Powstały po tych pracach raport określił stan ołtarza jako "stabilny", lecz "zagrożony", ze stale pogłębiającymi się obszarami zniszczeń. Dał on asumpt do podjęcia kompleksowych prac badawczych i konserwatorskich nad ołtarzem. W 2013 r. Międzyuczelniany Instytut Konserwacji i Restauracji Dzieł Sztuki przeprowadził pełną inwentaryzację ołtarza metodą skaningu laserowego 3D i stworzył najnowszą dokumentację pomiarową w postaci ortoplanów i rysunków wektorowych.
      Prace konserwatorskie rozpoczęły się we wrześniu 2015 r. Ich wykonawcą został Międzyuczelniany Instytut Konserwacji i Restauracji Dzieł Sztuki (ta jednostka naukowo-badawcza skupia dwa wydziały: Konserwacji i Restauracji Dzieł Sztuki Akademii Sztuk Pięknych w Krakowie oraz Akademii Sztuk Pięknych w Warszawie).
      Konserwatorzy powrócili do rozwiązań kolorystycznych najbliższych oryginałowi Wita Stwosza. W poniedziałek (14 grudnia) Komisji Konserwatorskiej zaprezentowano odnowione elementy ołtarza (ok. 200). Kierownik prac badawczo-konserwatorskich, prof. krakowskiej ASP Jarosław Adamowicz, tłumaczy, że choć bezpośrednie prace przy ołtarzu się kończą, specjalistów czekają jeszcze analizy i opracowanie pełnej dokumentacji konserwatorskiej.
      Wykonano ogrom prac, gdyż konserwacji poddano wszystkie rzeźby i elementy snycerskie. Dzięki oczyszczeniu z zabrudzeń, przemalowań, retuszów i uzupełnień akumulujących się w ciągu 500 lat (ołtarz powstawał w latach 1477-89) odsłonięto pierwotną kolorystykę; zmienił się np. dominujący błękit teł w kwaterach i szafie głównej.
      Na jednej z figur ze sceny zaśnięcia Marii Panny (na boku apostoła św. Jakuba) odczytano datę 1486 r. Poprzedza ona o 3 lata przyjętą w literaturze fachowej datę poświęcenia ołtarza. Oprócz tego specjaliści potwierdzili istnienie inskrypcji zaświadczających o konserwacji ołtarza w 1638 i 1795 r.
      Przeprowadzono badania dendrochronologiczne. Rzeźby badano w podczerwieni, UV, promieniowaniu rentgenowskim oraz za pomocą ręcznego spektrometru fluorescencji rentgenowskiej i mikroskopu elektronowego. Sporządzono także dokumentację opisową, fotograficzną i rysunkową poszczególnych scen.
      Warto przypomnieć, że po II wojnie światowej ołtarz był konserwowany na Wawelu w latach 1946-50. Oddano go do kościoła Mariackiego w 1957 r. Krótki film przedstawiający konserwację (Notatnik operatora Kraków. Konserwacja Ołtarza Mariackiego) można obejrzeć w Repozytorium Cyfrowym.
      W XX w. prace konserwatorskie prowadzono kilkukrotnie. W latach 1932-34, za czasów archiprezbitera ks. dr. Józefa Kulinowskiego, zespół kierowany przez prof. Juliana Makarewicza podjął próbę odsłonięcia pierwotnych polichromii i korekty zabiegów z XIX w. Dokonano także zachowawczej konserwacji formy rzeźbiarskiej. W latach 1946-50 przeprowadzono wspominane już wcześniej prace związane z rozpoznaniem i naprawą zniszczeń powstałych po zagrabieniu ołtarza przez Niemców. Następnie dwukrotnie, w 1986 r. pod kierunkiem Aleksandry Bogdanowskiej oraz w 1999 r. pod kierunkiem prof. Mariana Paciorka, podjęto prace nad oczyszczeniem struktury nastawy ołtarzowej i wykonaniem drobnych retuszy wcześniejszych uzupełnień polichromii i złoceń. W latach 90. zabezpieczano osypujące się złocenia, zlecano retusze wcześniejszych uzupełnień ubytków polichromii oraz prowadzono odwierty, które miały pomóc w określeniu stanu zachowania struktury drewna.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas remontu tzw. Domu Opata w Krakowie znaleziono około 10 000 monet pochodzących z czasów Stanisława Augusta Poniatowskiego. Odkrycia dokonano w czasie budowy hotelu i apartamentowca na ul. Stradomskiej. Po konserwacji monety trafią do Muzeum Archeologicznego w Krakowie. Specjaliści mówią, że – ze względu na historyczny charakter Stradomia – możliwe są kolejne odkrycia.
      Monety zostały prawdopodobnie ukryte w lnianym worku, który z czasem uległ rozkładowi. Jak powiedział „Gazecie Krakowskiej” Dominik Szobak, przedstawiciel firmy Angel Poland, która jest inwestorem budowy w przypadku napotkania na nowe znalezisko, wykonujemy na nasz koszt kompleksowe badania przy użyciu najnowszych dostępnych technologii. Następnie drobiazgowo zabezpieczamy artefakty i sporządzamy szczegółową dokumentację, co przyczynia się do wzbogacania zasobów muzealnych i jest przedmiotem badań oraz publikacji naukowych. Współpracujemy w tej materii blisko z Małopolskim Wojewódzkim Konserwatorem Zabytków oraz pozostałymi instytucjami i urzędami, które są kompetentne w tej materii.
      Muzeum Archeologiczne w Krakowie każdego roku podpisuje z kierownikami prac archeologicznych prowadzonych na terenie miasta, kilkadziesiąt umów na przejęcie ewentualnych znalezisk. Tych interesujących jest niewiele, zaledwie kilka rocznie. A ostateczna decyzja odnośnie tego, gdzie taki skarb trafi, należy do konserwatora zabytków.
      Tak duża liczba monet z XVIII wieku to na pewno skarb. Rodzą się przy tym od razu fascynujące pytania: kto go krył i dlaczego? Czy ukrył tylko na chwilę czy na dłużej? A jeśli na chwilę, to dlaczego znajdujemy ten jego skarb dopiero teraz? Może ukrył i zmarł?. Staramy się precyzyjnie ustalić czas pochodzenia znaleziska, dokładny moment i okoliczności jego ukrycia oraz przyczyny tego, że w tym ukryciu pozostał. Mógł to być pożar, mogła być nagła śmierć, mógł być konflikt, niekoniecznie polityczny, ale np. sąsiedzki. Wszystko to wymaga zbadania, co jest z jednej strony żmudne, ale jeszcze bardziej piękne i fascynujące, skomentował dla „Gazety Krakowskiej” Jacek Górski, dyrektor Muzeum Archeologicznego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...