Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Superkomputer RoadRunner przekroczył barierę petaflopsa. Nowo powstała maszyna wykonuje 1,026 biliarda operacji zmiennoprzecinkowych na sekundę.

RoadRunner kosztował 133 miliony dolarów i jest dziełem specjalistów z IBM-a oraz z Los Alamos National Laboratory. Komputer będzie wykorzystywany przede wszystkim do tajnych projektów wojskowych związanych z bronią jądrową. Mo obliczeniowa maszyny zostanie też udostępniona naukowcom zmagającym się z takimi problemami, jak modelowanie zmian klimatycznych.

Thomas D'Agostino z National Nuclear Administration mówi, że gdyby wszyscy mieszkańcy Ziemi otrzymali kalkulatory i używaliby ich przez 24 godziny na dobę i 7 dni w tygodniu wykonywałby obliczenia, to przez 46 lat dokonaliby tylu obliczeń, ilu RoadRunner dokonuje w ciągu doby.

Superkomputer jest klastrem składającym się z 6912 dwurdzeniowych procesorów Opteron oraz 12 960 procesorów Cell eDP. Procesory Opteron korzystają z 55 terabajtów pamięci operacyjnej, a układy Cell mają do dyspozycji 52 terabajty. Tak więc w sumie RoadRunner dysponuje 107 TB RAM.
RoadRunner składa się z 296 szaf i zajmuje powierzchnię 511 metrów kwadratowych. Do osiągnięcia swojej szczytowej teoretycznej wydajności (1,33 PFlops z procesorów Cell + 49,8 TFlops z procesorów Opteron) wymaga 3,9 megawata mocy, co oznacza, że na każdy wat przypada aż 0,35 gigaflopsa.

Na RoadRunnerze mogą działać systemy operacyjne RHEL (Red Hat Enterprise Linux) oraz Fedora Linux. 

Share this post


Link to post
Share on other sites

Codziennie korzystacie z wyników tych komputerów. Oglądacie modelowaną pogodę, której przewidywanie nawet na 24h graniczy z dokładnością 80-90%,

widzicie nowe odkrycia medyczne, które jak się potem okazuje są jeszcze małowiarygodne...

Problem nie tkwi w ogromnej mocy komputera by wylądować w rankingu TOP najlepszych kompów świata.. ale w algorytmach z jakimi stykają się te urządzenia na codzień.

Nie ma się czym podniecać. Ale dobry sprzęt w posiadaniu to już połowa sukcesu.

Share this post


Link to post
Share on other sites

Zastanawiam się tylko po co wydaje się tyle pieniedzy na badania nad bronią jądrową.

Share this post


Link to post
Share on other sites

Zastanawiam się tylko po co wydaje się tyle pieniedzy na badania nad bronią jądrową.

 

zastanawiaj sie dalej.

pozdrawiam

Share this post


Link to post
Share on other sites
Guest macintosh

Nie ma co się zastanawiać.

Po prostu: "Są politycy, więc jest źle".

Nie da się pogodzić ludzi, to nie jest naturalne, że wszystkie nacje chcą "razem zmierzać w tym samym kierunku". Można wyobrazić sobie ludzkość jako zbiorowisko grup interesu. A niektóre interesy opierają się na emocjach tworzonych przez stereotypy.

Najbardziej typowy przykład to skłonność do nie akceptacji, nie rozumienia i uogólniania , który można znaleźć w źródle terroryzmu islamskiego.

Nie jestem żadnym znawcą, ale nie da się, tak po prostu, zaprzeczyć temu zdaniu.

Share this post


Link to post
Share on other sites

Ooo nie zgadzam się. Teraz Ty uogólniasz. To Amerykanie, a nie terroryści symulują wybuchy broni jądrowej. Nie sądzę, że przewidują jedynie skutki wybuchu na terytorium ich kraju. Oni dalej pracują nad tą bronią, mimo wszelkich zakazów.

Share this post


Link to post
Share on other sites
Guest macintosh

Douger: podaj kilka zasobów w necie. Poczytałbym o tym.

(argument na zakaz i na testy Amerykanów)

Share this post


Link to post
Share on other sites
Guest tymeknafali

Amerykanie zawsze dbali i dbają o własne interesy. Na całym świecie największe pieniądze idą w zbrojenia. A teraz USA ma poważny problem. Polska nie zgodziła się być tarczą (gdyż pierwszy atak był by w naszym kierunku i na nas, by zneutralizować ochronę. A tak są bezpośrednio zagrożeni. poza tym spójrz na doczesny świat: Korea która zbudowała sobie atomóweczkę i jest z siebie dumna. Prędzej czy później albo jej użyją, albo dostanie się w ręce terrorystów. Druga rzecz Chiny... to znaczy trzęsienie ziemi. powiedz mi czy możliwym jest trzęsienie ziemi na tak płytkiej litosferze? No raczej nie (a jeżeli tak to proszę mnie oświecić). Całkiem możliwe że jest to wynik próby nuklearnej podziemnej, a nawet bardzo możliwe. Zastanawiającym zostaje fakt, po co by przeprowadzali taką próbę?

Mam taką małą prośbę, żeby takiego chamstwa:

zastanawiaj sie dalej.

nie pisać. Nikomu to nie pomoże, a pisanie tego jest zwykłym chamstwem. Kolego, naucz się odrobinę kultury, zanim kolejny raz coś napiszesz.

Wysłany przez: macintosh

Dobrze cię znowu widzieć macintoshu :)

Share this post


Link to post
Share on other sites
Guest tymeknafali

Zastanawiam się tylko po co wydaje się tyle pieniedzy na badania nad bronią jądrową.

Bo jest potencjalnie (obok broni biologicznej) najpotężniejszą bronią, a co za tym idzie najbardziej niebezpieczną.

Zastanawia mnie jeden fakt. Nie wiem czy powinienem to pisać, bo zarzucam pomysł dla terrorystów. Po co walić w Amerykę, czy co kol wiek innego, wystarczyła by jedna w Amazonię (nikt by prawie nie przeżył (udusili byśmy się + zmiany klimatu = kataklizmy ogromne). Jestem ciekaw czy ktoś tej puszczy chroni przed potencjalnym złem.

Share this post


Link to post
Share on other sites

A jak ma niby chronić? Rozwiesić siatkę?

 

Poza tym celem większości terrorystów nie jest zniszczenie życia na Ziemi, bo dla islamskiego terrorysty (oczywiście, nie każdy terrorysta działa w imię urojonego pojmowania zasad Islamu!) byłoby grzechem zabić drugiego Muzułmanina.

Share this post


Link to post
Share on other sites
Guest tymeknafali

LOL nie. Wystarczyło by zrobić kontrolę nad uranem (taka satelitarna obserwacja) i ewentualnie tarczę dla Amazonii.

Zresztą nigdy nie wiesz czy któremuś nie odbije.

Share this post


Link to post
Share on other sites

No dobra, i co z tą tarczą? Zamiast wybuchu jądrowego miałbyś gigantyczną brudną bombę - niewiele lepsze rozwiązanie. Poza tym ochrona tak ogromnego obszaru wcale nie byłaby taka prosta, a prawdopodobieństwo ataku akurat na Amazonię byłoby moim zdaniem bardzo niskie. Osobiście uważam, że pieniądze, które trzeba by było zainwestować w tarczę dla Amazonii, dużo lepiej byłoby wpakować np. w poprawę systemów bezpieczeństwa w dużych skupiskach ludzkich.

 

Globalna oberwacja uranu? Niby mamy ją już teraz, przecież MAEA stara się z całych sił obserwować wydobycie, handel i wykorzystanie uranu, a i tak kilka krajów weszło w jego posiadanie i robi z nim, co chce. To niestety wcale nie jest takie proste.

Share this post


Link to post
Share on other sites
Guest macintosh

Taka Amazonia (czy Tajga w Rosji) to spory obszar, więc trzeba by było wiele megaton i to nie w kilku miejscach a nawet kilkudziesięciu(nie policzyłem, ale raczej mam rację, bo przecież Hiroshima i Nagasaki - można pomyśleć o nich jako o obszarach).

Tyle pierwiastka mogącego ulec rozpadowi jest nie do zgromadzenia(a na pewno nie dla terrorystów). A jeśli mikroos pisze prawdę, a wierzę, to muzułmanin nie ma w interesie zabić drugiego muzułmanina, więc mogę napisać: łatwiej byłoby stworzyć rodzaj wirusa albo grzyba, który zabiłby drzewa.

ps> Kiedyś przeczytałem, że wybuch 10 bomb atomowych jednocześnie spowodowałby pęknięcie naszej planetki na 2 (słownie: "dwie") połówki - szukałem potwierdzenie tej informacji w necie, ale .. porażka, nie znalazłem ..

No i ZSRR miało (a ruscy mają) 16tys atomic, a Amerykańce 10tys... no i h**... d*pa zbita... inteligentni idioci... masowy autyzm(czy masowo występujący sawanci, bo asperger raczej nie możliwy)... schizofrenicy, paranoicy... żałosne i możliwe, żeby jakaś idea zniszczyła to co dobre, a zdrowi ludzie zachowywali się jak chorzy psychicznie. I pomyśleć, że to tylko przez deficyty informacyjne... czyli pospolitą ignorancję - lenistwo... wystarczyłoby, żeby znali Sokratesa(4 czerwca 469 p.n.e., zmarł 7 maja 399 p.n.e. - żył 2407lat temu!) - to co o nim trzeba wiedzieć, to tylko to, że nie dawał łatwo za wygraną w dyskusji, a swoją rację chciał udowodnić tylko argumentem(słownym!), a głupi nie był, więc głupio o nim się dowiedzieć i to jak żył, a potem... "wypić piwo po robocie"( "sytuacja szczegółowa mająca na celu wyrazić coś bardziej ogólnego 8) " - wróciłem 8) ).

 

Tymek: :)

Share this post


Link to post
Share on other sites

To ZSRR przestało istnieć? Nie zauważyłem, mówiąc szczerze.

 

Co do tego pękania Ziemi na pól, nie wydaje mi sie to prawdopodobne, ale nie ulega wątpliwości, że zgromadzony arsenał nuklearny swobodnie wytłukłby życie na naszej planecie i to wielokrotnie. A mimo to wierzę, że te rakiety i bomby nigdy nie powstały po to, żeby ich naprawdę użyć (nie licząc pokopanych jednostek gotowych do ich odpalenia) - one miały być wyłącznie straszakiem, ale cała ta zabawa w straszenie wykroczyła nawet poza granice absurdu. Aż przykro patrzeć, ile potencjalnych elektrowni atomowych, ile taniej energii dla całego świata jest ukryte w tych głowicach. Szkoda gadać...

Share this post


Link to post
Share on other sites
Guest macintosh

Formalnie to ZSRR nie ma, jak to wygląda to ja nie wiem. Ale można sobie pozwolić na pewność, że kraje bZSRR są pod kontrolą wielkiego brata z R.

A jak już szukamy takiego co to wszystko trzyma w garści to tak wprost, że to prezydent R. nie da się stwierdzić(przynajmniej po wiadomościach tego nie widać, a wiadomo, że "wiadomość" to obiekt raczej zniekształcony).

ps Głowic nie trzeba by wysyłać nad źródła tlenu - wystarczyłoby taką ilość wybuchnąć gdziekolwiek i radioaktywnych opadów nic by nie przeżyło.

Więc gdyby R wysłała wszystkie swoje atomice tylko na cele w USA to wszyscy Rosjanie też by wyginęli... chłopcy z dużymi spluwami...

Share this post


Link to post
Share on other sites
Więc gdyby R wysłała wszystkie swoje atomice tylko na cele w USA to wszyscy Rosjanie też by wyginęli... chłopcy z dużymi spluwami...

I właśnie w tym tkwi cały paradoks zbrojeń atomowych.

Share this post


Link to post
Share on other sites
Guest macintosh

I właśnie w tym tkwi cały paradoks zbrojeń atomowych.

Ale też sens: bo gdyby dwie strony miały tylko broń konwencjonalną, to do jakiegoś zamordyzmu mogłoby dojść. A gdy obie strony wiedziały, że ktokolwiek zacznie pierwszy, i to z największym skutkiem z możliwych, to wszyscy stracą.

Więc po co tracić? Proste.

Dlatego uważam, że tzw. tarcza antyrakietowa miałaby sens, bo Rosjanie mogliby spartolić sobie życie w ten sam sposób, więc tzw. cele w Polsce nigdy nie byłby zniszczone. Tym bardziej, że w naszych czasach R nie ma takiej ideologi jak pół wieku temu. Oni tyko straszyli, tylko gadali, a władze w PL dały się nabrać. "Mam o takich ludziach dość niskiE mniemanie." A gdyby pojawiła się tarcza, byłby dodatkowy zysk w postaci możliwości przyciśnięcia Iranu. Albo z innej strony: jeśli Iran wypuściłby atomicę na R to tarcza w PL mogłaby pomóc R. A pamiętajmy, że prawosławie to też katolicyzm(o dziwo do prawosł. islam już nie ma takich zapędów jak na WTC, no ale R. sama wytwarza sobie problem utrzymując wojska w byłym Kotle Bałkańskim). Jeśli chodzi o R. to nadal pozostało im z komunizmu sporo myślenia paranoicznego. Ale zachowanie R. można tłumaczyć specyficzną mentalnością Rosjan. Co, jak dla mnie, nie tłumaczy agresji powodującej śmierć.

Share this post


Link to post
Share on other sites

Ale też sens: bo gdyby dwie strony miały tylko broń konwencjonalną, to do jakiegoś zamordyzmu mogłoby dojść. A gdy obie strony wiedziały, że ktokolwiek zacznie pierwszy, i to z największym skutkiem z możliwych, to wszyscy stracą.

Jasne, że tak. Właśnie o tym mówię: broń atomowa nie miała za zadanie być narzędziem ofensywy, a jedynie prewencji lub ewentualnie kontrataku. Myślę, że wszystkie narody przekonały się po wybuchach w Hiroszimie i Nagasaki, że nie ma z nią żartów, i (przynajmniej w moim odczuciu) wszystkie rządy posiadające ładunki nuklearne planowały ich użycie jedynie w ostateczności, na dodatek jako narzędzie kontrataku na atak atomowy. Tyle tylko, że cała ta paranoja nakręciła się do tego stopnia, że ilość zebranej broni przekroczyła granice jakiegokolwiek rozsądku.

 

A Rosjanie to Rosjanie - naród o najbardziej urażonej dumie na świecie.

Share this post


Link to post
Share on other sites
Guest tymeknafali

Hoho... a ile było prób tajnych... myślę że i tak o większości nie wiemy. Jakie potencjalne skutki może to przynieść, domyślają się wszyscy.

Jasne, że tak. Właśnie o tym mówię: broń atomowa nie miała za zadanie być narzędziem ofensywy, a jedynie prewencji lub ewentualnie kontrataku. Myślę, że wszystkie narody przekonały się po wybuchach w Hiroszimie i Nagasaki,

Nie chciałbym być pesymistą... ale jednak nie wszystkie skoro co róż to produkują gdzieś... zresztą niemal na całym świecie jest taka niepisana zasada że co kilka pokoleń musimy sobie przypomnieć o tym że niektóre rzeczy są złe... obawiam się że prędzej czy później się to powtórzy, oby tylko nie na masową skale. Wiecie co jest w tym najgorsze... ci którzy potencjalnie decydują o życiu nas, i innych milionów ludzi, siedzą bezpiecznie w schronach, a owa bomba ich bezpośrednio nie dotknie.

A mimo to wierzę, że te rakiety i bomby nigdy nie powstały po to, żeby ich naprawdę użyć (nie licząc pokopanych jednostek gotowych do ich odpalenia) - one miały być wyłącznie straszakiem, ale cała ta zabawa w straszenie wykroczyła nawet poza granice absurdu.

I tak i nie... pozwolę sobię sparafrazować Gombrowicza... skoro istnieje jakaś teza, to na pewno jest na nią antyteza, skoro są ludzie dobrzy, pragnący pokoju, to zawsze znajdą się tacy, których dogmatem będzie wojna (G. W. Busch), czy inny pragnący more power, albo po prostu zniszczenia. Jeżeli chodzi o terrorystów... nie chodzi o grzesznych, złych białych diabłów ale niepodległość, wolność, nic więcej. Allach to słowo zagrzewające do walki, jak u nas Bóg w średniowieczu.

Share this post


Link to post
Share on other sites

Tylko widzisz, nie możesz porównywać bomb atomowych do niczego innego w historii, bo jeszcze nigdy nie byliśmy w posiadaniu tak ogromnej mocy, która byłaby w stanie całkowicie i nieodwracalnie zniszczyć ludzki gatunek. Bo co z tego, że schowalibyśmy się w schronach, skoro pył w końcu zasłoniłby nam słońce i nie odpadłby aż do wyczerpania zapasów pożywienia?

Share this post


Link to post
Share on other sites
Guest tymeknafali

masz rację mikroosie, jednak spójrz na to z innej strony. Ty to rozumiesz, Ja to rozumiem, niemal wszyscy ludzie  KSR i KWR to rozumieją, jak i wiele wiele innych. Spójrz na taką Koreę jednak... to jak dać małpie karabin. Ich posrane myślenie o POTĘDZE! zasłania im widzenie rzeczy tak oczywistych... powinieneś wiedzieć i liczyć się z tym, że jednak nie wszyscy jeszcze myślą tak jak My.

Share this post


Link to post
Share on other sites

Ale sam powiedz: co to za potęga, jeśli wybijesz wszystko, z samym sobą włącznie? Nawet typowy dyktator nie będzie usatysfakcjonowany, bo nie zapisze swojej megalomańskiej postaci na kartach historii, bo nie będzie czegoś takiego, jak historia! Nie będzie komu tego pisać.

Share this post


Link to post
Share on other sites
Guest tymeknafali

Nie na darmo się mówi że człowiek jest istotą auto destruktywną... wystarczy że dojdzie do konfliktu... zrodzi się w kolejności: konflikt > nienawiść (uczucia dojdą do głosu), odpalenie atomówki (to również może być wypadek albo działanie terrorystów) > kraj posiadający atomówkę odpowie (strach, myślenie: jak wojna to na całego, jak Kuba Bogu... > dalszy konflikt więcej wybuchów... wiesz, scenariuszy można mnożyć, tak na prawdę to mamy szczęście że jeszcze nic nie poszło.

A taki dyktator... tak na prawdę to nie masz pojęcia co może przyjść do łba takiemu człowiekowi (patrz Fidel)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Do 2020 r. naukowcy z Akademii Górniczo-Hutniczej w Krakowie zbudują, razem z partnerami europejskimi, superkomputer. Będzie on 10 razy szybszy niż obecnie działający najszybszy komputer w Europie – poinformowało Ministerstwo Nauki i Szkolnictwa Wyższego.
      Ów superkomputer trafi do jednego z ośmiu ośrodków obliczeń superkomputerowych, których lokalizację ogłosiła w piątek Komisja Europejska. Europejskie superkomputery będą wspierać naukowców, przemysł i przedsiębiorstwa w opracowywaniu nowych zastosowań w wielu dziedzinach – od tworzenia leków i nowych materiałów, po walkę ze zmianą klimatu.
      Prace odbędą się w ramach Europejskiego Wspólnego Przedsięwzięcia w dziedzinie Obliczeń Wielkiej Skali (EuroHPC Joint Undertaking).
      Deklarację o przystąpieniu Polski do EuroHPC podpisał w 2018 wicepremier, minister nauki i szkolnictwa wyższego Jarosław Gowin.
      Jak podało Ministerstwo Nauki i Szkolnictwa Wyższego (MNiSW), Polska jest jednym z ośmiu krajów, które wchodzi w skład konsorcjum LUMI (Large Unified Modern Infrastructure). Razem z Finlandią, Belgią, Czechami, Danią, Norwegią, Szwecją i Szwajcarią weźmie udział w opracowaniu, instalacji i udostępnieniu naukowcom superkomputera przed-eksaskalowego. Instalacja planowana jest już w roku 2020 i odbędzie się w fińskim centrum danych w Kajaani.
      Polskę w konsorcjum LUMI reprezentuje Akademickie Centrum Komputerowe Cyfronet Akademii Górniczo-Hutniczej w Krakowie, operator najszybszego w Polsce superkomputera Prometheus.
      Planowana moc obliczeniowa superkomputera będzie ok. 10 razy większa od szwajcarskiego Piz Daint – najszybszego superkomputera działającego obecnie w Europie. Dzięki temu europejscy naukowcy i przedsiębiorcy zyskają narzędzie dostępne do tej pory jedynie światowym liderom w zakresie obliczeń wielkiej skali: USA, Japonii i Chin - poinformował resort nauki.
      Dostęp do superkomputera będzie realizowany tradycyjnie, jak również poprzez chmurę.
      Całkowity budżet systemu wynosi ponad 207 mln euro. Połowa tej kwoty pochodzi ze środków Komisji Europejskiej, a połowa od państw tworzących konsorcjum. Ministerstwo Nauki i Szkolnictwa Wyższego przekaże na ten cel 5 mln euro. To wsparcie zapewni polskim naukowcom - zarówno akademickim, jak i tym z przemysłu - bezpośredni dostęp do najszybszych europejskich zasobów obliczeniowych – podkreśla resort nauki.
      Jak przypomina, obecnie polscy naukowcy korzystają z istniejących superkomputerów m.in. do badania sztucznych liści grafenowych odtwarzających proces fotosyntezy; komputerowego projektowania leków, modelowania enzymów i wydajnych katalizatorów, symulacji cząstek elementarnych; analizy fal grawitacyjnych.
      Obliczenia wielkiej skali umożliwią przeprowadzanie wielokrotnie bardziej zaawansowanych badań niż obecnie. Nowe możliwości pozwolą na dokonywanie przełomów w nauce. Przekroczenie istniejących ograniczeń przyczyni się do nowych osiągnięć w zakresie chemii, inżynierii materiałowej, biotechnologii, fizyki czy medycyny - wskazuje resort nauki.
      Według MNiSW moc obliczeniowa superkomputera z centrum obliczeniowego z Kajaani pozwoli podjąć również takie problemy badawcze, jak prognozowanie zmian klimatycznych, rozwój sztucznej inteligencji, produkcję czystej energii; wspomoże też badania w zakresie medycyny spersonalizowanej.
      Superkomputer będzie składać się z trzech partycji: akceleracyjnej, opartej o procesory graficzne ogólnego przeznaczenia GPU, klasycznej, zbudowanej z tradycyjnych procesorów CPU, partycji do analizy danych.
      Planowana moc obliczeniowa superkomputera EuroHPC to ok. 200 PFlops, czyli 0,2 EFlops. Na potrzeby prowadzenia obliczeń superkomputer będzie wyposażony w zasoby pamięci masowych o pojemności ponad 60 PB, w tym szybkie pamięci typu flash o przepustowości ponad 1TB/s.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
×
×
  • Create New...