Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Pierwszy akademicki petaflops

Recommended Posts

Amerykański Narodowy Instytut Nauk Komputerowych stał się właścicielem superkomputera, którego wydajność przekracza 1 petaflops. To pierwsza taka maszyna w świecie akademickim.

Kraken, czyli Cray XT5 został rozbudowany tak, że obecnie dysponuje mocą obliczeniową rzędu 1,03 PFlops. Maszyna korzysta z 16 512 sześciordzeniowych układów AMD Istambuł, taktowanych zegarem o częstotliwości 2,6 GHz. Komputer jest wyposażony w 129 terabajtów pamięci operacyjnej i 3,3 petabajty pamięci masowej.

Maszyna jest zbudowana z 8256 węzłów, a na każdy z nich składają się dwa procesory, 16 gigabajtów pamięci operacyjnej, zapewniający komunikacją chipset Seastar2 Craya oraz router.

Został on podłączony do Teragridu, amerykańskiej sieci superkomputerów, która jest największą na świecie platformą obliczeniową udostępnioną do badań naukowych.

Kraken jest wykorzystywany do przeprowadzania wysoko zaawansowanych naukowych symulacji trójwymiarowych, jego zadaniem będzie też znalezienie odpowiedzi na pytanie, co dzieje się we wnętrzu gwiazdy podczas zapadania się jej jądra.

Share this post


Link to post
Share on other sites

Ciekawe ile quake miał by na tym fpsów ;)

 

Douger tak w ogólności to mniej więcej to będzie symulować.

Poza tym wysoko zaawansowana i tak dalej... to na przykład wybuch bomby w 3d i HD :P

Share this post


Link to post
Share on other sites

@Douger: bardzo dobrze, że symulują eksplozje jądrowe na superkomputerach. Nawet, jesli ma to służyć tylko i wyłącznie celom militarnym. USA od 1992 roku nie przeprowadziły żadnej prawdziwej eksplozji. Dzięki temu, że można to robić na superkomputerach, nie trzeba przeprowadzać prawdziwych prób. Ponadto superkomputery służą też do symulowania tego, co dzieje się z istniejącymi głowicami, a więc zapewniają bezpieczeństwo arsenału jądrowego.

Share this post


Link to post
Share on other sites

  Myślę, że budowanie superkomputerów za setki milionów dolarów po to, aby testować wybuchy głowic (czy to istniejących czy tych, które dopiero powstaną) to zwykłe marnotrawienie pieniędzy. Przecież nasi kochani politycy ustanowili prawo zakazujące budowy, testowania i używania głowic. Skoro więc nie można tej broni nigdy użyć, po co badac konsekwencje jej wybuchu? Odpowiedź jest prosta. Otóż, gdyby doszło do ostrego konfliktu to prawo zostałoby olane, a przyciski nuklearne zostałyby wciśnięte.

  Dlaczego nie podjęto się likwidacji istniejących głowic? Wydaje mi się, że one są dalej produkowane, a symulacje mają określić, kiedy, gdzie  i ile ich wystrzelić, aby wygrać.

Share this post


Link to post
Share on other sites

Żadna umowa międzynarodowa nie zakazuje stosowania głowic. Są jedynie regulacje zabraniające produkcję nowych oraz nakazujące ograniczenie istniejących arsenałów.

Share this post


Link to post
Share on other sites

Dlaczego nie podjęto się likwidacji istniejących głowic? Wydaje mi się, że one są dalej produkowane, a symulacje mają określić, kiedy, gdzie  i ile ich wystrzelić, aby wygrać.

 

Wybacz, ale pytanie jest mocno naiwne.

Wyobraźmy sobie, że USA, Francja i Wielka Brytania rezygnują z głowic, bo są tacy kochani. Rosja nie zrezygnuje, bo to jedyny objaw potęgi tego kraju. Chiny też nie, bo niby dlaczego? Izrael potrzebuje głowic, żeby odstraszać Arabów. Pakistan i Indie lubią sobie nawzajem nimi grozić.

Po co rezygnować z czegoś, co może być przydatnym narzędziem w polityce?

Share this post


Link to post
Share on other sites

Poza tym chciałbym zauważyć, że posiadanie głowic przez takie np. USA i Chiny w rzeczywistości wcale nie jest groźne. Władze tych krajów są świadome, że uruchomienie choćby jednego silosu będzie oznaczało koniec nowoczesnego świata. Najgroźniejsze są te kraje, które mają po jednej albo dwie głowice, ale za nic sobie mają międzynarodowe umowy.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Do 2020 r. naukowcy z Akademii Górniczo-Hutniczej w Krakowie zbudują, razem z partnerami europejskimi, superkomputer. Będzie on 10 razy szybszy niż obecnie działający najszybszy komputer w Europie – poinformowało Ministerstwo Nauki i Szkolnictwa Wyższego.
      Ów superkomputer trafi do jednego z ośmiu ośrodków obliczeń superkomputerowych, których lokalizację ogłosiła w piątek Komisja Europejska. Europejskie superkomputery będą wspierać naukowców, przemysł i przedsiębiorstwa w opracowywaniu nowych zastosowań w wielu dziedzinach – od tworzenia leków i nowych materiałów, po walkę ze zmianą klimatu.
      Prace odbędą się w ramach Europejskiego Wspólnego Przedsięwzięcia w dziedzinie Obliczeń Wielkiej Skali (EuroHPC Joint Undertaking).
      Deklarację o przystąpieniu Polski do EuroHPC podpisał w 2018 wicepremier, minister nauki i szkolnictwa wyższego Jarosław Gowin.
      Jak podało Ministerstwo Nauki i Szkolnictwa Wyższego (MNiSW), Polska jest jednym z ośmiu krajów, które wchodzi w skład konsorcjum LUMI (Large Unified Modern Infrastructure). Razem z Finlandią, Belgią, Czechami, Danią, Norwegią, Szwecją i Szwajcarią weźmie udział w opracowaniu, instalacji i udostępnieniu naukowcom superkomputera przed-eksaskalowego. Instalacja planowana jest już w roku 2020 i odbędzie się w fińskim centrum danych w Kajaani.
      Polskę w konsorcjum LUMI reprezentuje Akademickie Centrum Komputerowe Cyfronet Akademii Górniczo-Hutniczej w Krakowie, operator najszybszego w Polsce superkomputera Prometheus.
      Planowana moc obliczeniowa superkomputera będzie ok. 10 razy większa od szwajcarskiego Piz Daint – najszybszego superkomputera działającego obecnie w Europie. Dzięki temu europejscy naukowcy i przedsiębiorcy zyskają narzędzie dostępne do tej pory jedynie światowym liderom w zakresie obliczeń wielkiej skali: USA, Japonii i Chin - poinformował resort nauki.
      Dostęp do superkomputera będzie realizowany tradycyjnie, jak również poprzez chmurę.
      Całkowity budżet systemu wynosi ponad 207 mln euro. Połowa tej kwoty pochodzi ze środków Komisji Europejskiej, a połowa od państw tworzących konsorcjum. Ministerstwo Nauki i Szkolnictwa Wyższego przekaże na ten cel 5 mln euro. To wsparcie zapewni polskim naukowcom - zarówno akademickim, jak i tym z przemysłu - bezpośredni dostęp do najszybszych europejskich zasobów obliczeniowych – podkreśla resort nauki.
      Jak przypomina, obecnie polscy naukowcy korzystają z istniejących superkomputerów m.in. do badania sztucznych liści grafenowych odtwarzających proces fotosyntezy; komputerowego projektowania leków, modelowania enzymów i wydajnych katalizatorów, symulacji cząstek elementarnych; analizy fal grawitacyjnych.
      Obliczenia wielkiej skali umożliwią przeprowadzanie wielokrotnie bardziej zaawansowanych badań niż obecnie. Nowe możliwości pozwolą na dokonywanie przełomów w nauce. Przekroczenie istniejących ograniczeń przyczyni się do nowych osiągnięć w zakresie chemii, inżynierii materiałowej, biotechnologii, fizyki czy medycyny - wskazuje resort nauki.
      Według MNiSW moc obliczeniowa superkomputera z centrum obliczeniowego z Kajaani pozwoli podjąć również takie problemy badawcze, jak prognozowanie zmian klimatycznych, rozwój sztucznej inteligencji, produkcję czystej energii; wspomoże też badania w zakresie medycyny spersonalizowanej.
      Superkomputer będzie składać się z trzech partycji: akceleracyjnej, opartej o procesory graficzne ogólnego przeznaczenia GPU, klasycznej, zbudowanej z tradycyjnych procesorów CPU, partycji do analizy danych.
      Planowana moc obliczeniowa superkomputera EuroHPC to ok. 200 PFlops, czyli 0,2 EFlops. Na potrzeby prowadzenia obliczeń superkomputer będzie wyposażony w zasoby pamięci masowych o pojemności ponad 60 PB, w tym szybkie pamięci typu flash o przepustowości ponad 1TB/s.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Superkomputer Watson, który pokonał w teleturnieju Va Banque ludzkich arcymistrzów - Kena Jenningsa i Brada Ruttera - stanie do walki z... trolami patentowymi.
      IBM wyposażył komputer w oprogramowanie o nazwie Strategic IP Insight Platform (SIIP), dzięki któremu maszyna będzie mogła zapoznawać się z recenzowanymi pismami specjalistycznymi, bazami danych patentów, będzie katalogowała przedsiębiorstwa, analizowała ich własność intelektualną i produkty. IBM ma nadzieję, że dzięki temu będzie można łatwo wyłapać patenty, które nie powinny być przyznane, gdyż już wcześniej używano tego typu rozwiązań.
      Teoretycznie patenty powinny być przyznawane tylko na rozwiązania nowe i nieoczywiste. Jednak samo zdefiniowanie tego, co jest rozwiązaniem „oczywistym" jest bardzo trudne. Jeśli zaś weźmiemy też pod uwagę błędy popełniane przez urzędników, nawał pracy, zaniechania, niemożność dotarcia do wszelkich danych i inne czynniki, stanie się jasnym, jak łatwo można przyznać patent na rozwiązanie, które istniało już wcześniej.
      Tutaj ma właśnie wkroczyć Watson. O ile bowiem superkomputer nie rozstrzygnie sporów wokół tego, które rozwiązanie jest oczywiste, a które nie, to może pomóc w stwierdzeniu, czy jakiś wynalazek był już wcześniej używany.
      Podczas pokazu Watsona wyposażono w opis 4,7 miliona patentów oraz 11 milionów artykułów naukowych z lat 1976-2000. Watson na podstawie tekstu i grafik wyodrębniał nowe związki chemiczne, odnajdował słowa-klucze, nazwiska autorów i nazwy firm.
      Na podstawie takiej analizy Watson wyodrębnił 2,5 miliona związków chemicznych, które uznał za unikatowe. Dla każdego z nich zidentyfikował następnie najwcześniejszy patent.
      IBM udostępnił utworzoną przez Watsona bazę amerykańskiemu NIH (National Institutes of Health), zezwalając każdemu naukowcowi, niezależnie od miejsca zamieszkania, na bezpłatne korzystanie z bazy.
    • By KopalniaWiedzy.pl
      Japoński superkomputer Tsubame 2.0 otrzymał prestiżową Nagrodę Gordona Bella. To najwyższe wyróżnienie na rynku superkomputerów. Przyznawane jest ono za niezwykłe osiągnięcia w dziedzinie przetwarzania równoległego.
      Tsubame 2.0 to rzeczywiście niezwykła maszyna. Wykorzystuje ona serwery HP ProLiant SL390 z sześciordzeniowymi procesorami Xeon 5650 oraz karty Nvidia Tesla GPU. Dzięki zastosowaniu procesorów graficznych do wykonywania obliczeń wektorowych udało się znacznie odciążyć CPU.
      Do osiągnięcia wydajności 2 petaflopsów Tsubame 2.0 potrzebuje zaledwie 1,2 megawata mocy. Superkomputer pracuje zatem 3,4 razy bardziej efektywnie niż jego odpowiednik, komputer Cielo, który wykorzystuje tylko procesory x86.
      Tsubame 2.0 zajmuje pierwsze miejsce na liście Green500, najbardziej efektywnych superkomputerów na świecie.
    • By KopalniaWiedzy.pl
      Intel zaprezentował 50-rdzeniowy układ Knights Corner o wydajności 1 teraflopsa. Przed 14 laty taką wydajność miał najpotężniejszy wówczas superkomputer świata, ASCI Red. Nowy procesor Intela ma więc taką moc obliczeniową jak 7264 ówczesne układy.
      Procesor Knights Corner wykorzystuje rozwiązania opracowane na potrzeby układu Larrabee. Będzie on produkowany w technologii 22 nanometrów i skorzysta z trójbramkowych tranzystorów. Intel ma zamiar użyć Knights Corner to zbudowania przed rokiem 2018 superkomputera, którego wydajność będzie liczone a eksaflopsach.
       
      Knights Corner trafi na rynek już w przyszłym roku, a w 2013 roku rozpocznie pracę w 10-petaflopsowym superkomputerze Stampede zamówionym przez University of Texas.
    • By KopalniaWiedzy.pl
      Barcelońskie Centrum Superkomputerowe, w którym stoi Mare Nostrum, niegdyś najpotężniejszy komputer Europy, ogłosiło, że ma zamiar zbudować superkomputer wykorzystujący procesory ARM. Byłaby to pierwsza maszyna tego typu.
      Komputer będzie wykorzystywał układy Nvidii Tegra 3 (znane wcześniej jako Kal-El) oraz CUDA GPU.
      Procesory graficzne CUDA będę używane do przyspieszania obliczeń wykonywanych przez Tegra 3.
      Użycie układów ARM w miejsce najczęściej wykorzystywanych kości x86 ma na celu zmniejszenie poboru energii przez komputer. Obecnie używane superkomputery wymagają do pracy olbrzymich ilości energii. Japoński superkomputer K, pierwsza maszyna, której moc obliczeniowa przekroczyła 10 petaflopsów, potrzebuje niemal 13 megawatów. Wraz ze wzrostem mocy obliczeniowej rosną też rachunki za energię, a tymczasem trwa budowa kolejnych supermaszyn o mocy powyżej 10 PFlops.
×
×
  • Create New...