Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'TOP 500' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 3 wyniki

  1. Japoński superkomputer K zakończył, trwającą zaledwie pół roku, epokę chińskiego superkomputera na czele listy TOP 500. Z najnowszej edycji spisu najpotężniejszych maszyn na świecie dowiadujemy się, że K ma większą wydajność niż pięć kolejnych supermaszym łącznie. Moc obliczeniowa należącego do Instututu RIken K wynosi aż 8,16 petaflopsa. Maszyna osiągnęła ją dzięki 68 544 ośmiordzeniowym procesorom SPARC64 VIIIfx. Korzysta więc ona z 548 352 rdzeni. To dwukrotnie więcej niż jakikolwiek inny superkomputer na świecie. Maszyna wciąż jest rozbudowywana. Jej producent, Fujitsu, informuje, że gdy w listopadzie 2012 roku rozpocznie codzienną pracę, będzie korzystała z 80 000 procesorów i osiągnie wydajność ponad 10 petaflopsów. Co ciekawe, wbrew panującym obecnie trendom, K nie wykorzystuje procesorów graficznych. System zużywa najwięcej energii ze wszystkich superkomputerów, ale jest też jednym z najbardziej efektywnych jeśli wziąć pod uwagę moc obliczeniową w stosunku do zużywanej energii. K to pierwszy do 2004 roku japoński superkomputer, który trafił na czoło TOp500. Zepchnął na drugie miejsce chińskiego Tianhe-1A (2,57 Pflops), a na trzecim znalazł się amerykański Jaguar. Mimo utraty pierwszego miejsca Chiny czynią szybkie postęny w dziedzinie superkomputerów. W ciągu pół roku liczba chińskich maszyn a na TOP500 wzrosła z 42 do 62 systemów. Na liście wciąż dominują Stany Zjednoczone. Z kraju tego pochodzi 5 komputerów, które przekroczyły barierę petaflopsa. Po dwa systemy są z Japonii i Chin, jeden z Francji. Po raz pierwszy w historii wszystkie maszyny z pierwszej 10 przekroczyły barierę petaflopsa. W sumie USA umieściły na liście 256 systemów, czyli o 18 mniej niż pół roku temu. Na drugim miejscu znalazły się Chiny, a następnie Niemcy (30 superkomputerów), Wielka Brytania (27), Japonia (26), Francja (25) i Rosja (12). Znajdziemy też na niej 4 polskie maszyny. Największym producentem tego typu maszyn są IBM (213) i HP (153). Na odległym trzecim miejscu znajdziemy Craya z 29 superkomputerami. Wśród systemów operacyjnych dominującą pozycję zajmuje Linux (455 maszyn), następne są Unix (23) i Windows (6). Zdecydowana większość superkomputerów, bo 387, korzysta z procesorów Intela. Układy AMD są używane w 65 maszynach, a Power w 45. Szybko wzrasta też ogólna moc superkomputerów. Pół roku temu najmniej wydajny system pracował z prędkością 31,1 teraflopsów. Obecnie wartość ta to 40,1 Tflop/s. Łączna moc komputerów na liście to 58,88 Pflop/s. Pół roku temu było to 43,7, a przed rokiem - 32,4 Pflop/s. Obecne na liście polskie superkomputery to należący do Cyfronetu Zeus (80. pozycja), pracująca na Politechnice Gańskiej Galera Plus (163.), napędzający Naszą Klasę Cluster Platform 3000 (364.) oraz będący własnością QXL Poland Cluster Platform 3000 (480.). Galera jest autorstwa firmy Action, pozostałe systemy zbudował HP.
  2. Pojawienie się chińskiego superkomputera na pierwszym miejscu listy TOP500 nie uszło uwagi samego prezydenta Obamy. W ciągu ostatnich kilku tygodni polityk dwukrotnie o tym wspominał, mówiąc o konieczności utrzymania przez USA technologicznej przewagi nad innymi krajami. Jednak zarówno z wypowiedzi samego prezydenta jak i z dokumentów wydanych przez jego Radę ds. Nauki i Technologii można wywnioskować, że będziemy świadkami zmian w metodologii pomiarów wydajności superkomputerów. Specjaliści uważają bowiem, że projektowanie maszyn tak, by wypadały dobrze w teście Linpack jest marnowaniem pieniędzy i może skutkować przegapieniem możliwości poczynienia znacznych postępów w technologii superkomputerów. Celem naszych inwestycji w HPC (high-performance computing) powinno być rozwiązywanie tych problemów obliczeniowych, które są zgodne z narodowymi priorytetami, tymczasem ten jednowymiarowy test mierzy tylko jeden z czynników potrzebnych do osiągnięcia celu - czytamy w dokumencie Rady. Oczywiście, nie znaczy to, że USA chcą się wycofać z wyścigu superkomputerów. Wręcz przeciwnie. Jakkolwiek byłoby niemądre pozwolić sobie na zajmowanie znacząco gorszej pozycji w naukowych benchmarkach, które dowiodły swojej praktycznej przydatności, bo jednak skupienie się tylko i wyłącznie na utrzymaniu przewagi w liczbie wykonywanych operacji na sekundę nie leży w naszym interesie - stwierdzili eksperci. Angażowanie się w taki 'wyścig zbrojeń' może być bardzo kosztowane i może odciągnąć zasoby od badań podstawowych, skupiających się na opracowaniu nowego podejścia do HPC, które umożliwiłoby odskoczenie innym państwom i utrzymanie pozycji niezagrożonego lidera, którą Ameryka cieszyła się w przeszłości - czytamy w dokumencie. Obecnie pozycja USA nie jest zagrożona. Na 500 najpotężniejszych superkomputerów świata aż 280 znajduje się w Stanach Zjednoczonych, USA zajmują 5 z 10 czołowych pozycji, a największymi producentami superkomputerów są amerykańskie firmy. Od lat jednak względna pozycja Stanów Zjednoczonych słabnie, a przewaga nad innymi krajami topnieje. Eksperci już od dłuższego czasu zwracają uwagę, że Linpack powinien zostać uzupełniony o inne testy, gdyż sam mierzy tylko i wyłącznie "surową" zdolność obliczeniową komputerów i coraz mniej odpowiada wyzwaniom nowoczesnej nauki. Jednym z takich proponowanych testów jest Graph500, który mierzy nie tylko moc obliczeniową, ale również bierze pod uwagę wielkość maszyny. Oznacza to, że test ten może wykazać, iż mniejszy superkomputer jest w pewnych zastosowaniach bardziej wydajny od większego. Z opinią doradców prezydenta Obamy zgadza się Jack Dongarra, profesor informatyki z University of Tennessee i jeden z twórców listy TOP500. On sam jest jednym z autorów powstałego na zlecenia DARPA testu HPCC (High Performance Computing Challenge), który mierzy 7 różnych aspektów systemu superkomputerowego. Benchmark, którego używamy w TOP500 mierzy tylko jeden wskaźnik systemu. Z Graph500 będzie ten sam problem. HPCC pozwala na zmierzenie różnych aspektów - mówi.
  3. Przewodniczący parlamentu Federacji Rosyjskiej zapowiedział, że jeszcze w bieżącym roku moskiewski Uniwersytet Łomonosowa otrzyma superkomputer o wydajności przekraczającej petaflops. Jeśli obietnice te zostaną spełnione, to rosyjska maszyna znajdzie się co najmniej na 3. miejscu listy Top 500. Obecnie uczelnia korzysta z 12. najpotężniejszego komputera na świecie. Moc maszyny wynosi 350,1 gigaflopsa. Nie wiadomo, czy Rosjanie planują po prostu wyposażyć ją w bardziej wydajne procesory, zwiększając przy okazji ich liczbę, czy też mają zamiar przeprowadzić jakąś większą rozbudowę. Dotychczas w swój superkomputer Uniwersytet Łomonosowa zainwestował niemal 12 milionów dolarów.
×
×
  • Dodaj nową pozycję...