Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Akka na dwa systemy

Rekomendowane odpowiedzi

IBM pokazał najbardziej wydajny z superkomputerów pracujących zarówno pod kontrolą systemów Linux, jak i Windows. System Akka pracuje w High Performance Computing Center North (HPC2N) na północy Szwecji. Akka to klaster składający się z 672 węzłów.

Każdy z nich tworzą dwa energooszczędne czterordzeniowe układy Xeon L5420 oraz 16 gigabajtów pamięci RAM. W sumie Akka korzysta z 5376 rdzeni i 10,7 TB RAM oraz 100 terabajtów przestrzeni dyskowej. Teoretyczna wydajność superkomputera wynosi 53,8 teraflopsa. Podczas testu LINPACK osiągnął on wydajność rzędu 46,04 TFlops, co na obecnie obowiązującej liście superkomputerów TOP500 dałoby mu 23. miejsce na świecie. Jutro (18 czerwca) zostanie opublikowana nowa lista i wówczas przekonamy się, które ostatecznie miejsce zajmie Akka.

Fakt, że superkomputer działa też pod kontrolą systemu Windows to wynik ostatnich wysiłków Microsoftu, który postanowił zaistnieć na rynku HPC (High Performance Computing). Koncern z Redmond chce pokazać, że skoro jego system operacyjny dla klastrów (Windows High Performance Computing Server) nadaje się dla superkomputerów, to obsłuży również mniejsze firmowe maszyny tego typu.

Co ciekawe, część klastra będzie korzystała też z procesorów Power oraz CellBE. Będą używane one przede wszystkim do prac nad nowymi algorytmami przetwarzania równoległego.
Akka zostanie uruchomiony 25 czerwca. Od tego dnia jego użytkownicy będą mogli korzystać z systemu Linux. Windows zostanie zainstalowany i udostępniony jesienią bieżącego roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak, MS "postanowił zaistnieć na rynku HPC" bo nie chciał aby jego konkurent-Linux-miał tak poważne narzędzie w "rękach" ;D. Akka będzie działał pod Linuxem od 25 czerwca, a Windows ruszy dopiero jesienią. To typowe dla MS. Zawsze spóźnione oprogramowanie (ile trzeba było czekać na viśtę?). Nawet jeżeli chodzi o rozwijające się technologie to MS ma czas  ;), a i tak będzie trzeba wydawać poprawki. I po co Billy wpycha swoje łapy w porządny sprzęt? Jeszcze zepsuje  :)

PS.Fajnie by się na tym grało ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raczej wcale by się nie grało bo system jest zorientowany na obliczenia, więc prędzej piękny ray-tracing ze wszystkimi bajerami by wyszedł niż gra (pomijam już, zużycie mocy i wydzielane ciepło podczas takich "kosztownych" obliczeń). :) Zaś posunięcie MS jest jak najbardziej zrozumiałe, w końcu akademickie/przemysłowe superkomputery to przyszłość. Inna sprawa, że tak późno się o tym zorientowali.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

Ech... wszędzie się chcą wcisnąć... ale nadal nie za dobrze im to wychodzi... :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale nadal nie za dobrze im to wychodzi... :)

Hmm... a jakiego systemu operacyjnego używasz pisząc tą wiadomość? Może nie jest to system Microsoftu, ale faktem jest, że zdecydowana większość użytkowników komputerów na świecie używa właśnie systemów produkcji Microsoftu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...