Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

USA zapowiadają dwa potężne superkomputery

Rekomendowane odpowiedzi

Departament Energii Stanów Zjednoczonych przedstawił plany zbudowania dwóch superkomputerów napędzanych przez procesory graficzne. Nowe systemy mają zapewnić przynajmniej trzykrotnie większą wydajność od tej, jaką cechuje się obecnie najpotężniejszy superkomputer na świecie. To kolejny krok w kierunku zbudowania maszyny działającej w eksaskali.

Superkomputery, które zostaną uruchomione w 2017 roku, będą oparte na nowej generacji serwerów IBM POWER z akceleratorami graficznymi NVIDIA Tesla oraz technologii NVIDIA NVLink, zapewniającej szybkie połączenie pomiędzy procesorami graficznymi.

Superkomputer „Summit”, który zostanie zainstalowany w Oak Ridge National Laboratory, będzie w stanie osiągnąć wydajność szczytową od 150 do 300 PFLOPS i będzie wykorzystywany do otwartych badań naukowych. Natomiast cechujący się wydajnością przekraczającą 100 PFLOPS, superkomputer „Sierra” będzie kluczowym elementem misji bezpieczeństwa jądrowego Stanów Zjednoczonych, realizowanej w Lawrence Livermore National Laboratory.

Oba systemy będą znacznie szybsze zarówno od obecnego amerykańskiego lidera wydajności, czyli superkomputera „Titan” znajdującego się w laboratorium Oak Ridge i osiągającego 27 PFLOPS mocy szczytowej, jak i najszybszego na świecie „Tianhe-2” z Chińskiego Narodowego Laboratorium Superkomputerowego w Kantonie, osiągającego 55 PFLOPS mocy szczytowej.

Inwestycje w superkomputery Summit i Sierra pozwolą Stanom Zjednoczonym osiągnąć większą niezależność energetyczną, uzyskać rozwiązania pozwalające ograniczyć zmiany klimatyczne, tworzyć konstrukcje zużywające mniej paliw, przewidywać kataklizmy, zwiększyć bezpieczeństwo przechowywania materiałów nuklearnych oraz konkurencyjność gospodarczą.

Systemy te stanowią pierwszy istotny krok we współpracy firm IBM i NVIDIA. Opiera się ona na działaniach w ramach Fundacji OpenPOWER, będącej otwartą społecznością zajmującą się rozwojem nowoczesnych rozwiązań informatycznych nowej generacji dla wysokowydajnych systemów obliczeniowych i korporacyjnych centrów danych.

Summit, podobnie jak działający obecnie superkomputer Titan, będzie przeznaczony do otwartych badań naukowych, co oznacza, że naukowcy w całego świata będą mogli składać zgłoszenia o dostęp do systemu. Nowy system podniesie także poprzeczkę w zakresie efektywności energetycznej, gdyż zapewni od 5 do 10 razy większą wydajność niż Titan, zużywając przy tym jedynie 10% więcej mocy.

Sierra osiągnie od 5 do 10 razy większą wydajność obliczeniową od używanego obecnie w laboratorium Lawrence Livermore superkomputera „Seqouia”, który może się pochwalić mocą 20 PFLOPS. Nowy system będzie wykorzystywany w ramach programu Narodowej Agencji Bezpieczeństwa Nuklearnego (National Nuclear Security Administration) do zapewnienia bezpieczeństwa i skuteczności amerykańskich nuklearnych środków odstraszających, bez konieczności ich testowania, co ma ograniczyć rozprzestrzenianie broni masowego rażenia na całym świecie.

Oczekuje się, że superkomputery eksaskalowe umożliwią postęp w wielu dziedzinach nauki, techniki i przemysłu,  w tym na stworzenie nowych leków, odkrycie tajników ludzkiego mózgu, łagodzenie wpływów zmian klimatycznych i uzyskania większej wiedzy na temat pochodzenia wszechświata.

Jednakże jednym z największych wyzwań przy projektowaniu systemów eksaskalowych jest konieczność zwiększenia wydajności przy możliwie jak najmniejszym zużyciu energii, a akceleratory graficzne doskonale się do tego nadają. Eksaskalowy superkomputer zbudowany z najnowszych akceleratorów firmy NVIDIA będzie zużywać 5 razy mniej energii niż porównywalny system oparty na procesorach o architekturze x86. Dzięki takiej efektywności projektanci superkomputerów mogą tworzyć znacznie wydajniejsze konstrukcje.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hm.. ciekawi mnie jak liczą taką moc dla kart graficznych. Taką gdzie wszystkie potoki są wykorzystane na raz, czyli przeliczamy wszystkie dane w ten sam sposób, czy jest jakiś mnożnik który urealnia tą moc, bo nie wierzę w pogramy bez ifów ;) .

Dla nie wtajemniczonych. Karta ma faktyczne rdzenie i potoki, i np. jeżeli (banalny uproszczony przykład) mamy 10 potoków, i mamy tablicę z 10 elementami, i mamy każdy element tej tablicy pomnożyć przez X. To wszystkie potoki sobie równo w rytmie równocześnie całe 10 elementów mnożą. Jednak gdy mamy, w zależności od indexu np. parzyste pomnożyć przez 2  a do nieparzystych dodać 10.

Czyli używamy "ifa" to już pracuje najpierw 5 potoków dla np. parzystych,które zatrzymują się i pracuje znów kolejne 5 na nieparzystych. (przy większych rozgałęzieniach danych, wydajność spada jeszcze bardziej).

 

hm..może przy takiej liczbie kart to się wszystko straci, ale tylko jeden typ problemów (wszystkie operacje są takie same na wielu danych) daję cała moc (dla danej karty).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hm.. ciekawi mnie jak liczą taką moc dla kart graficznych. Taką gdzie wszystkie potoki są wykorzystane na raz, czyli przeliczamy wszystkie dane w ten sam sposób, czy jest jakiś mnożnik który urealnia tą moc, bo nie wierzę w pogramy bez ifów ;) .

 

Tym się zajmuje inżynieria programowania współbieżnego. Ify nie mają dużego znaczenia. Proste sortowanie zawiera głównie Ify a można je napisać współbieżnie tak , że nawet na pojedynczym rdzeniu i przełączaniu wątków będzie szybsze bo n2 > 2*(n/2)2 + c. Oczywiście masz rację ta moc nie jest dostępna wprost. Trzeba się napocić by ją wykorzystać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Ify nie mają dużego znaczenia. Proste sortowanie zawiera głównie Ify a można je napisać współbieżnie tak

 

Hm..nie wiem czy mówimy o tym samym. Ja nie mówię o współbieżności bo mamy z nią do czynienia (mówię oczywiście w kontekście superkomputerów) w sytuacji gdzie używamy "zwykłych" procków jak i w przypadku kart graficznych. Mówię tu o różnicy między kartami (ich rdzeniami i potokami) kontra rdzenie w zwykłym procku.

 

Karty mają przewagę w mocy tylko w sytuacjach kiedy wykonują tę samą operację na wielu danych, gdy już mają wykonywać różne operacje, ich wydajność drastycznie spada.to nie są nakieś magiczne urządzenia które nie wiadomo dlaczego są szybsze od procków, mają właśnie taki mankamkament (ktory w przypadku grafiki nie jest mankamentem). Dlatego ciekawi mnie ta trzykrotnie większa wydajność. Jeżeli już uwzględniony jest ten "mankament" to ok. Jeżeli nie, to cholernie trzeba będzie się natrudzić aby wykorzystać cała moc i osiągnąć ten wynik.(W niektórych problemach będzie to niewykonalne). Dlatego ify mają znaczenie. Chociaż jak pisałem, może przy takiej liczbie kart straci się gdzieś ten mankament "w tłumie".

 

A "twój" if w sortowaniu, to całkiem inna historia i w ogóle o co innego chodzi ;)

 

Oczywiście, pewnie wiekszość problemów które tam będą liczone to przeliczenie olbrzymich "macierzy" danych, i problemu "w ogóle" nie ma.

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Karty mają przewagę w mocy tylko w sytuacjach kiedy wykonują tę samą operację na wielu danych,

[...]

 

Jak porównanie dwóch liczb ? :) Z tego by wynikało, że GPU idealnie się nadają do problemów kombinatorycznych. Swoją drogą, stary grek Euklides liczył "geometrycznie". Suma czy iloczyn były przedstawiane jako odcinki czy pola. Zastanawia mnie czy przez te GPU nie zaczniemy myśleć trójkątami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Jak porównanie dwóch liczb ? Z tego by wynikało, że GPU idealnie się nadają do problemów kombinatorycznych. Swoją drogą, stary grek Euklides liczył "geometrycznie". Suma czy iloczyn były przedstawiane jako odcinki czy pola. Zastanawia mnie czy przez te GPU nie zaczniemy myśleć trójkątami.
 

 

No tak, porównasz "dwie" (oczywiście porównujemy "setki" takich par równocześnie) liczby i co dalej? Jak a>b to co? a jak nie jest to co? Następuje rozgałęzienie programu które jest "problemem". Nie wiem czy się dobrze wyraziłem, to nie same ify są problemem ale ich "skutek" czyli rozgałęzienie programu, bo będziemy wykonywać najprawdopodobniej różne operacje w zależności od wyniku.

 

Jak wspomniałem, GPU nadają się najbardziej,  do np. operacji na wielkich macierzach. Czyli np. mnożymy macierz przez macierz, (bez żadnych rozgałęzień programu).Czyli "zaczniemy" myśleć macierzami

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...