Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Superkomputer RoadRunner przekroczył barierę petaflopsa. Nowo powstała maszyna wykonuje 1,026 biliarda operacji zmiennoprzecinkowych na sekundę.

RoadRunner kosztował 133 miliony dolarów i jest dziełem specjalistów z IBM-a oraz z Los Alamos National Laboratory. Komputer będzie wykorzystywany przede wszystkim do tajnych projektów wojskowych związanych z bronią jądrową. Mo obliczeniowa maszyny zostanie też udostępniona naukowcom zmagającym się z takimi problemami, jak modelowanie zmian klimatycznych.

Thomas D'Agostino z National Nuclear Administration mówi, że gdyby wszyscy mieszkańcy Ziemi otrzymali kalkulatory i używaliby ich przez 24 godziny na dobę i 7 dni w tygodniu wykonywałby obliczenia, to przez 46 lat dokonaliby tylu obliczeń, ilu RoadRunner dokonuje w ciągu doby.

Superkomputer jest klastrem składającym się z 6912 dwurdzeniowych procesorów Opteron oraz 12 960 procesorów Cell eDP. Procesory Opteron korzystają z 55 terabajtów pamięci operacyjnej, a układy Cell mają do dyspozycji 52 terabajty. Tak więc w sumie RoadRunner dysponuje 107 TB RAM.
RoadRunner składa się z 296 szaf i zajmuje powierzchnię 511 metrów kwadratowych. Do osiągnięcia swojej szczytowej teoretycznej wydajności (1,33 PFlops z procesorów Cell + 49,8 TFlops z procesorów Opteron) wymaga 3,9 megawata mocy, co oznacza, że na każdy wat przypada aż 0,35 gigaflopsa.

Na RoadRunnerze mogą działać systemy operacyjne RHEL (Red Hat Enterprise Linux) oraz Fedora Linux. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ciekawe czy crysis by poszedł na tym na max detalach.... xD

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Codziennie korzystacie z wyników tych komputerów. Oglądacie modelowaną pogodę, której przewidywanie nawet na 24h graniczy z dokładnością 80-90%,

widzicie nowe odkrycia medyczne, które jak się potem okazuje są jeszcze małowiarygodne...

Problem nie tkwi w ogromnej mocy komputera by wylądować w rankingu TOP najlepszych kompów świata.. ale w algorytmach z jakimi stykają się te urządzenia na codzień.

Nie ma się czym podniecać. Ale dobry sprzęt w posiadaniu to już połowa sukcesu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zastanawiam się tylko po co wydaje się tyle pieniedzy na badania nad bronią jądrową.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zastanawiam się tylko po co wydaje się tyle pieniedzy na badania nad bronią jądrową.

 

zastanawiaj sie dalej.

pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość macintosh

Nie ma co się zastanawiać.

Po prostu: "Są politycy, więc jest źle".

Nie da się pogodzić ludzi, to nie jest naturalne, że wszystkie nacje chcą "razem zmierzać w tym samym kierunku". Można wyobrazić sobie ludzkość jako zbiorowisko grup interesu. A niektóre interesy opierają się na emocjach tworzonych przez stereotypy.

Najbardziej typowy przykład to skłonność do nie akceptacji, nie rozumienia i uogólniania , który można znaleźć w źródle terroryzmu islamskiego.

Nie jestem żadnym znawcą, ale nie da się, tak po prostu, zaprzeczyć temu zdaniu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ooo nie zgadzam się. Teraz Ty uogólniasz. To Amerykanie, a nie terroryści symulują wybuchy broni jądrowej. Nie sądzę, że przewidują jedynie skutki wybuchu na terytorium ich kraju. Oni dalej pracują nad tą bronią, mimo wszelkich zakazów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość macintosh

Douger: podaj kilka zasobów w necie. Poczytałbym o tym.

(argument na zakaz i na testy Amerykanów)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

Amerykanie zawsze dbali i dbają o własne interesy. Na całym świecie największe pieniądze idą w zbrojenia. A teraz USA ma poważny problem. Polska nie zgodziła się być tarczą (gdyż pierwszy atak był by w naszym kierunku i na nas, by zneutralizować ochronę. A tak są bezpośrednio zagrożeni. poza tym spójrz na doczesny świat: Korea która zbudowała sobie atomóweczkę i jest z siebie dumna. Prędzej czy później albo jej użyją, albo dostanie się w ręce terrorystów. Druga rzecz Chiny... to znaczy trzęsienie ziemi. powiedz mi czy możliwym jest trzęsienie ziemi na tak płytkiej litosferze? No raczej nie (a jeżeli tak to proszę mnie oświecić). Całkiem możliwe że jest to wynik próby nuklearnej podziemnej, a nawet bardzo możliwe. Zastanawiającym zostaje fakt, po co by przeprowadzali taką próbę?

Mam taką małą prośbę, żeby takiego chamstwa:

zastanawiaj sie dalej.

nie pisać. Nikomu to nie pomoże, a pisanie tego jest zwykłym chamstwem. Kolego, naucz się odrobinę kultury, zanim kolejny raz coś napiszesz.

Wysłany przez: macintosh

Dobrze cię znowu widzieć macintoshu :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

Zastanawiam się tylko po co wydaje się tyle pieniedzy na badania nad bronią jądrową.

Bo jest potencjalnie (obok broni biologicznej) najpotężniejszą bronią, a co za tym idzie najbardziej niebezpieczną.

Zastanawia mnie jeden fakt. Nie wiem czy powinienem to pisać, bo zarzucam pomysł dla terrorystów. Po co walić w Amerykę, czy co kol wiek innego, wystarczyła by jedna w Amazonię (nikt by prawie nie przeżył (udusili byśmy się + zmiany klimatu = kataklizmy ogromne). Jestem ciekaw czy ktoś tej puszczy chroni przed potencjalnym złem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jak ma niby chronić? Rozwiesić siatkę?

 

Poza tym celem większości terrorystów nie jest zniszczenie życia na Ziemi, bo dla islamskiego terrorysty (oczywiście, nie każdy terrorysta działa w imię urojonego pojmowania zasad Islamu!) byłoby grzechem zabić drugiego Muzułmanina.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

LOL nie. Wystarczyło by zrobić kontrolę nad uranem (taka satelitarna obserwacja) i ewentualnie tarczę dla Amazonii.

Zresztą nigdy nie wiesz czy któremuś nie odbije.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No dobra, i co z tą tarczą? Zamiast wybuchu jądrowego miałbyś gigantyczną brudną bombę - niewiele lepsze rozwiązanie. Poza tym ochrona tak ogromnego obszaru wcale nie byłaby taka prosta, a prawdopodobieństwo ataku akurat na Amazonię byłoby moim zdaniem bardzo niskie. Osobiście uważam, że pieniądze, które trzeba by było zainwestować w tarczę dla Amazonii, dużo lepiej byłoby wpakować np. w poprawę systemów bezpieczeństwa w dużych skupiskach ludzkich.

 

Globalna oberwacja uranu? Niby mamy ją już teraz, przecież MAEA stara się z całych sił obserwować wydobycie, handel i wykorzystanie uranu, a i tak kilka krajów weszło w jego posiadanie i robi z nim, co chce. To niestety wcale nie jest takie proste.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość macintosh

Taka Amazonia (czy Tajga w Rosji) to spory obszar, więc trzeba by było wiele megaton i to nie w kilku miejscach a nawet kilkudziesięciu(nie policzyłem, ale raczej mam rację, bo przecież Hiroshima i Nagasaki - można pomyśleć o nich jako o obszarach).

Tyle pierwiastka mogącego ulec rozpadowi jest nie do zgromadzenia(a na pewno nie dla terrorystów). A jeśli mikroos pisze prawdę, a wierzę, to muzułmanin nie ma w interesie zabić drugiego muzułmanina, więc mogę napisać: łatwiej byłoby stworzyć rodzaj wirusa albo grzyba, który zabiłby drzewa.

ps> Kiedyś przeczytałem, że wybuch 10 bomb atomowych jednocześnie spowodowałby pęknięcie naszej planetki na 2 (słownie: "dwie") połówki - szukałem potwierdzenie tej informacji w necie, ale .. porażka, nie znalazłem ..

No i ZSRR miało (a ruscy mają) 16tys atomic, a Amerykańce 10tys... no i h**... d*pa zbita... inteligentni idioci... masowy autyzm(czy masowo występujący sawanci, bo asperger raczej nie możliwy)... schizofrenicy, paranoicy... żałosne i możliwe, żeby jakaś idea zniszczyła to co dobre, a zdrowi ludzie zachowywali się jak chorzy psychicznie. I pomyśleć, że to tylko przez deficyty informacyjne... czyli pospolitą ignorancję - lenistwo... wystarczyłoby, żeby znali Sokratesa(4 czerwca 469 p.n.e., zmarł 7 maja 399 p.n.e. - żył 2407lat temu!) - to co o nim trzeba wiedzieć, to tylko to, że nie dawał łatwo za wygraną w dyskusji, a swoją rację chciał udowodnić tylko argumentem(słownym!), a głupi nie był, więc głupio o nim się dowiedzieć i to jak żył, a potem... "wypić piwo po robocie"( "sytuacja szczegółowa mająca na celu wyrazić coś bardziej ogólnego 8) " - wróciłem 8) ).

 

Tymek: :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ZSRR przestało istnieć? Nie zauważyłem, mówiąc szczerze.

 

Co do tego pękania Ziemi na pól, nie wydaje mi sie to prawdopodobne, ale nie ulega wątpliwości, że zgromadzony arsenał nuklearny swobodnie wytłukłby życie na naszej planecie i to wielokrotnie. A mimo to wierzę, że te rakiety i bomby nigdy nie powstały po to, żeby ich naprawdę użyć (nie licząc pokopanych jednostek gotowych do ich odpalenia) - one miały być wyłącznie straszakiem, ale cała ta zabawa w straszenie wykroczyła nawet poza granice absurdu. Aż przykro patrzeć, ile potencjalnych elektrowni atomowych, ile taniej energii dla całego świata jest ukryte w tych głowicach. Szkoda gadać...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość macintosh

Formalnie to ZSRR nie ma, jak to wygląda to ja nie wiem. Ale można sobie pozwolić na pewność, że kraje bZSRR są pod kontrolą wielkiego brata z R.

A jak już szukamy takiego co to wszystko trzyma w garści to tak wprost, że to prezydent R. nie da się stwierdzić(przynajmniej po wiadomościach tego nie widać, a wiadomo, że "wiadomość" to obiekt raczej zniekształcony).

ps Głowic nie trzeba by wysyłać nad źródła tlenu - wystarczyłoby taką ilość wybuchnąć gdziekolwiek i radioaktywnych opadów nic by nie przeżyło.

Więc gdyby R wysłała wszystkie swoje atomice tylko na cele w USA to wszyscy Rosjanie też by wyginęli... chłopcy z dużymi spluwami...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Więc gdyby R wysłała wszystkie swoje atomice tylko na cele w USA to wszyscy Rosjanie też by wyginęli... chłopcy z dużymi spluwami...

I właśnie w tym tkwi cały paradoks zbrojeń atomowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość macintosh

I właśnie w tym tkwi cały paradoks zbrojeń atomowych.

Ale też sens: bo gdyby dwie strony miały tylko broń konwencjonalną, to do jakiegoś zamordyzmu mogłoby dojść. A gdy obie strony wiedziały, że ktokolwiek zacznie pierwszy, i to z największym skutkiem z możliwych, to wszyscy stracą.

Więc po co tracić? Proste.

Dlatego uważam, że tzw. tarcza antyrakietowa miałaby sens, bo Rosjanie mogliby spartolić sobie życie w ten sam sposób, więc tzw. cele w Polsce nigdy nie byłby zniszczone. Tym bardziej, że w naszych czasach R nie ma takiej ideologi jak pół wieku temu. Oni tyko straszyli, tylko gadali, a władze w PL dały się nabrać. "Mam o takich ludziach dość niskiE mniemanie." A gdyby pojawiła się tarcza, byłby dodatkowy zysk w postaci możliwości przyciśnięcia Iranu. Albo z innej strony: jeśli Iran wypuściłby atomicę na R to tarcza w PL mogłaby pomóc R. A pamiętajmy, że prawosławie to też katolicyzm(o dziwo do prawosł. islam już nie ma takich zapędów jak na WTC, no ale R. sama wytwarza sobie problem utrzymując wojska w byłym Kotle Bałkańskim). Jeśli chodzi o R. to nadal pozostało im z komunizmu sporo myślenia paranoicznego. Ale zachowanie R. można tłumaczyć specyficzną mentalnością Rosjan. Co, jak dla mnie, nie tłumaczy agresji powodującej śmierć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale też sens: bo gdyby dwie strony miały tylko broń konwencjonalną, to do jakiegoś zamordyzmu mogłoby dojść. A gdy obie strony wiedziały, że ktokolwiek zacznie pierwszy, i to z największym skutkiem z możliwych, to wszyscy stracą.

Jasne, że tak. Właśnie o tym mówię: broń atomowa nie miała za zadanie być narzędziem ofensywy, a jedynie prewencji lub ewentualnie kontrataku. Myślę, że wszystkie narody przekonały się po wybuchach w Hiroszimie i Nagasaki, że nie ma z nią żartów, i (przynajmniej w moim odczuciu) wszystkie rządy posiadające ładunki nuklearne planowały ich użycie jedynie w ostateczności, na dodatek jako narzędzie kontrataku na atak atomowy. Tyle tylko, że cała ta paranoja nakręciła się do tego stopnia, że ilość zebranej broni przekroczyła granice jakiegokolwiek rozsądku.

 

A Rosjanie to Rosjanie - naród o najbardziej urażonej dumie na świecie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

Hoho... a ile było prób tajnych... myślę że i tak o większości nie wiemy. Jakie potencjalne skutki może to przynieść, domyślają się wszyscy.

Jasne, że tak. Właśnie o tym mówię: broń atomowa nie miała za zadanie być narzędziem ofensywy, a jedynie prewencji lub ewentualnie kontrataku. Myślę, że wszystkie narody przekonały się po wybuchach w Hiroszimie i Nagasaki,

Nie chciałbym być pesymistą... ale jednak nie wszystkie skoro co róż to produkują gdzieś... zresztą niemal na całym świecie jest taka niepisana zasada że co kilka pokoleń musimy sobie przypomnieć o tym że niektóre rzeczy są złe... obawiam się że prędzej czy później się to powtórzy, oby tylko nie na masową skale. Wiecie co jest w tym najgorsze... ci którzy potencjalnie decydują o życiu nas, i innych milionów ludzi, siedzą bezpiecznie w schronach, a owa bomba ich bezpośrednio nie dotknie.

A mimo to wierzę, że te rakiety i bomby nigdy nie powstały po to, żeby ich naprawdę użyć (nie licząc pokopanych jednostek gotowych do ich odpalenia) - one miały być wyłącznie straszakiem, ale cała ta zabawa w straszenie wykroczyła nawet poza granice absurdu.

I tak i nie... pozwolę sobię sparafrazować Gombrowicza... skoro istnieje jakaś teza, to na pewno jest na nią antyteza, skoro są ludzie dobrzy, pragnący pokoju, to zawsze znajdą się tacy, których dogmatem będzie wojna (G. W. Busch), czy inny pragnący more power, albo po prostu zniszczenia. Jeżeli chodzi o terrorystów... nie chodzi o grzesznych, złych białych diabłów ale niepodległość, wolność, nic więcej. Allach to słowo zagrzewające do walki, jak u nas Bóg w średniowieczu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko widzisz, nie możesz porównywać bomb atomowych do niczego innego w historii, bo jeszcze nigdy nie byliśmy w posiadaniu tak ogromnej mocy, która byłaby w stanie całkowicie i nieodwracalnie zniszczyć ludzki gatunek. Bo co z tego, że schowalibyśmy się w schronach, skoro pył w końcu zasłoniłby nam słońce i nie odpadłby aż do wyczerpania zapasów pożywienia?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

masz rację mikroosie, jednak spójrz na to z innej strony. Ty to rozumiesz, Ja to rozumiem, niemal wszyscy ludzie  KSR i KWR to rozumieją, jak i wiele wiele innych. Spójrz na taką Koreę jednak... to jak dać małpie karabin. Ich posrane myślenie o POTĘDZE! zasłania im widzenie rzeczy tak oczywistych... powinieneś wiedzieć i liczyć się z tym, że jednak nie wszyscy jeszcze myślą tak jak My.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale sam powiedz: co to za potęga, jeśli wybijesz wszystko, z samym sobą włącznie? Nawet typowy dyktator nie będzie usatysfakcjonowany, bo nie zapisze swojej megalomańskiej postaci na kartach historii, bo nie będzie czegoś takiego, jak historia! Nie będzie komu tego pisać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

Nie na darmo się mówi że człowiek jest istotą auto destruktywną... wystarczy że dojdzie do konfliktu... zrodzi się w kolejności: konflikt > nienawiść (uczucia dojdą do głosu), odpalenie atomówki (to również może być wypadek albo działanie terrorystów) > kraj posiadający atomówkę odpowie (strach, myślenie: jak wojna to na całego, jak Kuba Bogu... > dalszy konflikt więcej wybuchów... wiesz, scenariuszy można mnożyć, tak na prawdę to mamy szczęście że jeszcze nic nie poszło.

A taki dyktator... tak na prawdę to nie masz pojęcia co może przyjść do łba takiemu człowiekowi (patrz Fidel)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...