Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' eksaskala' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 2 wyniki

  1. Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem. Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu. Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii. Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych. Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla. W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań. Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center. Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach. Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym. Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych. Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego. « powrót do artykułu
  2. Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku. Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę. Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów. Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów. Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio. Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe. Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami. Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania. W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC. Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach? Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku. Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD. Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku. « powrót do artykułu
×
×
  • Dodaj nową pozycję...