Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Sześć polskich maszyn na TOP500

Recommended Posts

Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops.

Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops.

Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows.

W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów).

Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495.


Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce.

Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową.

W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD.

Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell.

Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej.

Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows.

Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.

Share this post


Link to post
Share on other sites

Za to 495 na 500 PC ma Windowsa,  :)  a na taką supermaszyne większości z nas niestety nie stać  :D

Share this post


Link to post
Share on other sites

[...] Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 24. pozycji korzysta m.in. z układów Nvidia GT200.

 

Może i to drobnostka, ale maszyna Tsubame uplasowała się na 29. pozycji ;-)

Share this post


Link to post
Share on other sites

wie ktos gdzie w polsce znajduja sie te superkomputery ?

jeden chyba w Gdańsku jest politechnice/uniwersytecie.

Share this post


Link to post
Share on other sites
wie ktos gdzie w polsce znajduja sie te superkomputery ?

jeden chyba w Gdańsku jest politechnice/uniwersytecie.

Pozycja:         Komputer:

68    Politechnika Gdańska

221   Uniwersytet Warszawski

331   Cyfronet, Kraków

337   PCSS Poznań

373   Nasza Klasa :) , prawdopodobnie Wrocław Poznań

495   Communications Company (P1), nie wiem gdzie :D

 

http://www.top500.org/country/systems/164

Share this post


Link to post
Share on other sites

Dzięki za sprostowanie :) Sugerowałem się adresem firmy. Dlatego napisałem "prawdopodobnie". Jak widać, serwery wcale nie muszą być blisko.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Europa ma prawdopodobnie jedne z najbardziej rozdrobnionych rzek na świecie. W samej Polsce jest 77 tys. sztucznych barier – średnio jedna na km rzeki czy strumyka – wynika z badań opublikowanych w Nature. Naukowcy komentują, że konstrukcje te szkodzą bioróżnorodności, a istnienie wielu z nich nie ma ekonomicznego sensu.
      W ramach projektu AMBER koordynowanego przez walijski Uniwersytet Swansea oszacowano, że w 36 europejskich krajach jest co najmniej 1,2 mln barier w nurcie wodnym rzeki. A to oznacza, że na 4 kilometry rzeki przypadają średnio 3 bariery zbudowane przez człowieka (0,74 bariery na 1 km). Polska jest powyżej europejskiej średniej: na 1 km strumyka przypada u nas 1 bariera. Rekordzistką jest jednak Holandia, gdzie na kilometr rzeki przypada prawie 20 barier.
      To zaskakująco wysokie liczby w stosunku do tego, co wiadomo było wcześniej. Ponad 60 proc. konstrukcji jest bowiem na tyle niewielkich (mają np. poniżej 2 m wysokości), że były dotąd pomijane w statystykach. W zakrojonych na dużą skalę badaniach opracowano Atlas Zapór AMBER – pierwszą kompleksową ogólnoeuropejską inwentaryzację zapór. Zarejestrowano tam tysiące dużych zapór, ale i znacznie większą liczbę niższych struktur, takich jak jazy, przepusty, brody, śluzy i rampy, które były dotąd niewidoczne w statystykach, a są głównymi sprawcami fragmentacji rzek. Wyniki badań – koordynowanych przez Barbarę Belletti – opublikowano w Nature. W ramach projektu powstała też aplikacja AMBER, w której każdy może pomóc dokumentować brakujące dotąd w statystykach bariery.
      Ponieważ policzenie wszystkich barier nie było fizycznie możliwe, naukowcy w badaniach terenowych przewędrowali wzdłuż 147 rzek (2,7 tys. km) i odnotowywali wszelkie sztuczne bariery w ich nurtach. Na tej podstawie oszacowano, ile barier może być w Europie.
      Jeden ze współautorów badania prof. Piotr Parasiewicz, kierownik Zakładu Rybactwa Rzecznego w Instytucie Rybactwa Śródlądowego im. S. Sakowicza zaznacza, że bariery te są ogromnym utrudnieniem w migracji ryb rzecznych nie tylko takich jak łososie, pstrągi, jesiotry, węgorze, ale także płotki czy leszcze. Za sprawą konstrukcji rzecznych gatunki te mają coraz trudniejsze warunki do przeżycia.
      To jednak nie jedyny minus. Jeśli na rzekach mamy tysiące barier, to zamieniamy nasze rzeki w stawy - mówi naukowiec. Powyżej bariery tworzy się bowiem często zalew, w którym woda płynie bardzo powoli, a lepiej radzą sobie tam organizmy charakterystycznie nie dla rzek, ale właśnie stawów. Z ryb są to choćby karpie czy leszcze. A to zwykle gatunki mniej wyspecjalizowane i bardziej pospolite.
      Bariery zmieniają też temperaturę wody (powyżej bariery jest często ona cieplejsza niż poniżej). A w dodatku blokują przepływ osadów i materii. A w poprzegradzanej rzece wolniej zachodzą procesy samooczyszczania.
      Ponadto z danych dostarczonych przez wolontariuszy w ramach aplikacji AMBER wynikło, że ponad 10 proc. europejskich barier jest nieużytecznych. Gdyby więc je usunąć, nie miałoby to żadnego ekonomicznego znaczenia. A to by oznaczało, że w Europie można by było rozebrać ok. 150 tys. barier bez żadnych strat ekonomicznych. Za to z zyskiem dla środowiska i dla ludzi – ocenia prof. Parasiewicz.
      Jednym z praktycznych wyników naszego projektu jest to, że Unia Europejska zadeklarowała w swoim Programie Bioróżnorodności do 2030 r., że udrożni 25 tys. km rzek – komentuje prof. Parasiewicz.
      AMBER otrzymał finansowanie z unijnego programu badań naukowych i innowacji "Horyzont 2020". Celem tego projektu jest zastosowanie zarządzania adaptacyjnego do eksploatacji zapór i innych barier w celu osiągnięcia bardziej zrównoważonego wykorzystania zasobów wodnych i skuteczniejszego przywrócenia ciągłości ekosystemów rzecznych. W ramach projektu opracowano narzędzia i symulacje, które mają pomóc przedsiębiorstwom wodociągowym i zarządcom rzek zmaksymalizować korzyści płynące z barier i zminimalizować ich wpływ na środowisko.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po raz pierwszy w historii udało się zdobyć klucz szyfrujący, którym Intel zabezpiecza poprawki mikrokodu swoich procesorów. Posiadanie klucza umożliwia odszyfrowanie poprawki do procesora i jej analizę, a co za tym idzie, daje wiedzę o luce, którą poprawka ta łata.
      W tej chwili trudno jest ocenić rzeczywisty wpływ naszego osiągnięcia na bezpieczeństwo. Tak czy inaczej, po raz pierwszy w historii Intela udało się doprowadzić do sytuacji, gdy strona trzecia może wykonać własny mikrokod w układach tej firmy oraz przeanalizować poprawki dla kości Intela, mówi niezależny badacz Maxim Goryachy. To właśnie on wraz z Dmitrym Sklyarovem i Markiem Ermolovem, którzy pracują w firmie Positive Technolgies, wyekstrahowali klucz szyfrujący z układów Intela. Badacze poinformowali, że można tego dokonać w przypadku każdej kości – Celerona, Pentium i Atoma – opartej na mikroarchitekturze Goldmont.
      Wszystko zaczęło się trzy lata temu, gdy Goryachy i Ermolov znaleźli krytyczną dziurę Intel SA-00086, dzięki której mogli wykonać własny kod m.in. w Intel Management Engine. Intel opublikował poprawkę do dziury, jednak jako że zawsze można przywrócić wcześniejszą wersję firmware'u, nie istnieje całkowicie skuteczny sposób, by załatać tego typu błąd.
      Przed pięcioma miesiącami badaczom udało się wykorzystać tę dziurę do dostania się do trybu serwisowego „Red Unlock”, który inżynierowie Intela wykorzystują do debuggowania mikrokodu. Dzięki dostaniu się do Red Unlock napastnicy mogli
      zidentyfikować specjalny obszar zwany MSROM (microcode sequencer ROM). Wówczas to rozpoczęli trudną i długotrwałą procedurę odwrotnej inżynierii mikrokodu. Po wielu miesiącach analiz zdobyli m.in. klucz kryptograficzny służący do zabezpieczania poprawek. Nie zdobyli jednak kluczy służących do weryfikacji pochodzenia poprawek.
      Intel wydał oświadczenie, w którym zapewnia, że opisany problem nie stanowi zagrożenia, gdyż klucz używany do uwierzytelniania mikrokodu nie jest zapisany w chipie. Zatem napastnik nie może wgrać własnej poprawki.
      Faktem jest, że w tej chwili napastnicy nie mogą wykorzystać podobnej metody do przeprowadzenia zdalnego ataku na procesor Intela. Wydaje się jednak, że ataku można by dokonać, mając fizyczny dostęp do atakowanego procesora. Nawet jednak w takim przypadku wgranie własnego złośliwego kodu przyniosłoby niewielkie korzyści, gdyż kod ten nie przetrwałby restartu komputera.
      Obecnie najbardziej atrakcyjną możliwością wykorzystania opisanego ataku wydaje się hobbistyczne użycie go do wywołania różnego typu zmian w pracy własnego procesora, przeprowadzenie jakiegoś rodzaju jailbreakingu, podobnego do tego, co robiono z urządzeniami Apple'a czy konsolami Sony.
      Atak może posłużyć też specjalistom ds. bezpieczeństwa, który dzięki niemu po raz pierwszy w historii będą mogli dokładnie przeanalizować, w jaki sposób Intel poprawia błędy w swoim mikrokodzie lub też samodzielnie wyszukiwać takie błędy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      AMD poinformował, że kupi firmę Xilinx za 35 miliardów dolarów. Transakcja zostanie przeprowadzona bezgotówkowo, dojdzie do wymiany akcji. W jej ramach obecni akcjonariusze Xilinksa obejmą około 26% akcji nowej firmy, a właścicielami reszty będą obecni akcjonariusze AMD. Za każdą akcję Xilinksa akcjonariusz tej firmy otrzyma około 1,7 akcji AMD.
      W wyniku transakcji powstanie firma zatrudniająca około 13 000 inżynierów. Koszty jej funkcjonowania będą o około 300 milionów niższe niż obecne koszty funkcjonowania obu przedsiębiorstw osobno.
      Obecna dyrektor wykonawcza AMD, Lisa Su, zostanie dyrektorem nowej firmy, a obecny dyrektor Xilinksa, Victor Peng, będzie odpowiedzialny za tę część działalności nowego przedsiębiorstwa, które będzie odpowiadało obecnemu zakresowi działalności Xilinksa.
      Transakcja ma zostać domknięta przed końcem 2021 roku.
      Xilinx powstał w 1984 roku. Firma specjalizuje się w produkcji układów typu FPGA (field-programmable gate arrays), które mogą być rekonfigurowane w zależności od potrzeb. Tego typu kości są bardzo popularne np. w sprzęcie telekomunikacyjnym.
      AMD ma nadzieję, że przejmując Xilinksa zwiększy swoje udziały na rynku motoryzacyjnym czy sieci 5G. Chce też wzmocnić swoją pozycję względem Intela na rynku układów dla centrów bazodanowych.
      W ostatnich latach AMD udało się wykorzystać niepowodzenia finansowe i technologiczne Intela do objęcia wiodącej roli w wielu kluczowych segmentach rynku półprzewodników. Teraz rzuca większemu rywalowi wyzwanie na polu centrów bazodanowych.
      Intel nadal notuje serię niepowodzeń. W lipcu firma ogłosiła, że o kolejne 6 miesięcy opóźni debiut układów scalonych wykonanych w technologii 7 nanometrów. W ubiegłym tygodniu intel poinformował, że w poprzednim kwartale jego zyski spadły o 29%. Informacja taka pociągnęła za sobą ponad 10-procentowy spadek cen akcji Intela.
      Tymczasem zysk AMD za ostatni kwartał zwiększył się o 148%.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...