Znajdź zawartość
Wyświetlanie wyników dla tagów 'eksaflops' .
Znaleziono 4 wyniki
-
Podczas konferencji Supercomputing 2010 główny inżynier Nvidii, Bill Dally, zaprezentował projekt układu graficznego, który będzie napędzał eksaflopsowe komputery. System Echelon, który na razie istnieje tylko na papierze, będzie charakteryzował się wydajnością rzędu 10 teraflopsów. Wykona on pojedynczą operację zmiennoprzecinkową zużywając do tego celu zaledwie 10 pikodżuli, czyli 20-krotnie mniej niż obecne układy Fermi. Echelon składa się ze 128 procesorów strumieniowych, z których każdy zbudowany jest z 8 rdzeni. W efekcie otrzymamy 1024-rdzeniowy procesor, którego każdy rdzeń jest w stanie wykonać w jednym takcie zegara cztery operacje zmiennoprzecinkowe o podwójnej precyzji. Odpowiada to wydajności 10 teraflopsów. Echelon będzie zatem korzystał z dwukrotnie większej liczby rdzeni niż obecne najbardziej wydajne GPU Nvidii, z których każdy wykona czterokrotnie więcej operacji w takcie zegara. Poważne zmiany zajdą też w podsystemie pamięci. Echelon będzie miał do dyspozycji 256 megabajtów dynamicznie konfigurowalnej SRAM. Pamięć będzie można podzielić aż na sześć różnych poziomów, przydzielając każdemu z rdzeni własną przestrzeń. Dzięki takiej konfiguracji dane będą znajdowały się możliwe blisko miejsca przetwarzania, co pozwoli zaoszczędzić olbrzymią ilość energii zużywanej obecnie na ich przesyłanie. Ponadto chip zostanie wyposażony w mechanizm rozgłaszania, dzięki któremu wyniki poszczególnych działań będą mogły zostać udostępnione dowolnemu węzłowi, który będzie ich potrzebował. Struktura pamięci podręcznej układu będzie spójna pod względem logicznym ze strukturą CPU, co ułatwi tworzenie oprogramowania dla Echelona. Nvidia pracuje nad Echelonem w ramach finansowanego przez DARPA projektu Ubiquitous High Performance Computing. Firma rywalizuje tutaj z Intelem, MIT-em i Sandia National Laboratory. DARPA postawiła przed uczestnikami programu zadanie zbudowania do 2014 roku prototypowego petaflopsowego systemu, który ma zużywać nie więcej niż 57 kilowatów mocy. Taki system ma stać się podstawą do zbudowania do 2018 roku eksaflopsowego superkomputera.
-
W Stanach Zjednoczonych powstają dwa niezwykle wydajne superkomputery. Obie maszyny mają osiągnąć wydajność 20 petaflopsów i mogą trafić na listę TOP500 w czerwcu 2012 roku. Obecnie najbardziej wydajny superkomputer to chiński Tianhe-1A, który jest w stanie wykonać 2,566 petaflopa w ciągu sekundy. Pierwszy z superkomputerów powstaje w Oak Ridge National Laboratory (ORNL), które obecnie jest w posiadaniu m.in. maszyny Jaguar, drugiego pod względem wydajności superkomputera. Komputer o podobnej mocy buduje też IBM na zlecenie Lawrence Livermore National Laboratory. Ma on zostać dostarczony zamawiającemu już w przyszłym roku, a pełną moc osiągnie w roku 2012. Obecnie jest zbyt wcześnie, by wyrokować, czy powstające amerykańskie maszyny obejmą prowadzenie na liście TOP500. Superkomputery to niezwykle przydatne narzędzia badawcze i bardzo interesują się nimi Chiny. Amerykańscy eksperci twierdzą, że Państwo Środka ma ambicję budowy superkomputera opartego wyłącznie na rodzimej technologii i może zrealizować ten cel w ciągu 12-18 miesięcy. Specjaliści przypuszczają, że projektowana maszyna ma charakteryzować się mocą ponad 1 PFlops. Wiadomo, że Chińczycy już używają własnej technologii. Najpotężniejszy superkomputer świata Tianhe-1A korzysta przede wszystkim z układów Intela oraz Nvidii, ale zastosowano w nim również procesory FeiTeng-1000. To 8-rdzeniowe układy korzystające z architektury Sparc. Są one wykorzystywane do zarządzania węzłami superkomputera. Wiadomo też, że Chiny dysponują własnymi technologiami przesyłu danych szybszymi od otwartego InfiniBand. Wciąż jednak nie dorównują one wydajnością zamkniętym standardom oferowanym przez amerykańskie firmy. Jeremy Smith, dyrektor Centrum Biofizyki Molekularnej w ORNL mówi, że bardzo cieszy go konkurencja, gdyż zwiększające się zainteresowanie superkomputerami przyczynia się do ich rozwoju. W konkurencji z innymi krajami wszyscy wygrywają - dlatego bardzo mi się to podoba - mówi Smith. Jak wspomina, gdy w roku 2002 pojawił się japoński Earth Simulator zaszokował on środowisko, a National Research Council w swoim raporcie stwierdził, że był to dzwonek alarmowy, pokazujący, iż możemy nie tylko stracić przewagę nad konkurencją, ale również, co ważniejsze, zdolność do osiągnięcia własnych celów. Naukowcy z niecierpliwością czekają na pojawienie się komputerów pracujących w eksaskali. Maszyna o wydajności 1 eksaflopsa będzie wykonywała w ciągu sekundy trylion (1018) operacji zmiennoprzecinkowych. To dla nauki oznacza skok jakościowy. System eksaskalowy pozwoli bowiem na dokładne symulowanie pojedynczej komórki. Każdy atom będzie tam reprezentowany - mówi Smith. To z kolei będzie miało kolosalne znaczenie dla rozwoju medycyny, biologii i nauk pokrewnych. Pierwsze systemy eksaskalowe mogą pojawić się jeszcze przed rokiem 2020.
-
Zdaniem profesora Thomasa Lipperta, dyrektora Centrum Superkomputerowego Juelich w Niemchczech, systemy eksaskalowe pojawią się przed końcem przyszłej dekady. Obecnie na liście TOP 500 wymieniono trzy maszyny pracujące w petaskali, czyli ich wydajność wynosi co najmniej petaflops Skala eksa- zaczyna się od tysiąca petaflopsów. Innymi słowy superkomputery, których wydajność będzie liczona w eksaflopsach będą wykonywały trylion (1018) operacji zmiennoprzecinkowych na sekundę. Jedną z firm, dokonują dużych inwestycji na polu przetwarzania w eksaskali jest Intel. Koncern podpisał umowy z instytucjami specjalizującymi się w problematyce eksaskali. W ich ramach trzy laboratoria wchodzące w skład Intel Labs Europe skupiają się tylko i wyłącznie na pracach nad eksaskalowym przetwarzaniem. Steve Pawlowski, szef intelowskiego wydziału Central Architecture and Planning, mówi, że współczesna technologia nie pozwala na tworzenie komputerów o wydajności eksaflopsów, dlatego też konieczne jest opracowanie nowych rozwiązań. Jednak nie będzie to łatwe. Głównymi zadaniami, które trzeba rozwiązać są energooszczędność, problemy z przetwarzaniem równoległym, niezawodność działania, współpraca z układami pamięci, dostępność przestrzeni do przechowywania danych oraz przesył informacji. Konieczne też będzie opracowanie nowego oprogramowania. Profesor Lipperta uważa, że eksaflopsowe komputery mogą wykorzystywać nawet 10 milionów rdzeni. Obecnie żaden z superkomputerów nie wykorzystuje więcej niż 300 000 rdzeni, co uświadamia, jak trudnym zadaniem będzie stworzenie maszyny eksaflopsowej.
- 4 odpowiedzi
-
- Intel
- superkomputer
-
(i 1 więcej)
Oznaczone tagami:
-
Podczas odbywającej się właśnie w Portland konferencji SC09, zebrani zastanawiają się nad przyszłością superkomputerów. Na organizowanych przez Departament Energii warsztatach trwają rozmowy o systemach 1000-krotnie bardziej wydajnych niż Jaguar, obecny lider listy TOP500. Mowa zatem o systemach, których wydajność będzie liczona w eksaflopsach, czyli w trylionach operacji zmiennoprzecinkowych na sekundę. Potrzebujemy tak potężnych systemów do tworzenia dokładnych modeli klimatycznych, prac nad wydajnymi bateriami czy pozyskiwaniem energii z fuzji jądrowej. Przedstawiciele Departamentu Energii, który sfinansował wiele najpotężniejszych superkomputerów na świecie, twierdzą, że w latach 2011-2013 powstanie system o wydajności około 10 petaflopsów. Pierwszy komputer, który przekroczył barierę teraflopsa powstał w 1997 roku, a w 2008 pokonano petaflops. Eksaflopsowa maszyna ma pojawić się około 2018 roku. Twórcy takiego systemu będą musieli rozwiązać wiele problemów, a jednym z najpoważniejszych będzie zapewnienie mu odpowiedniej ilości energii. Jaguar potrzebuje do pracy 7 megawatów, a nieco mniej wydajny Roadrunner - 3,9 MW. Zdaniem Dave'a Tureka z IBM-a eksaflopsowa maszyna będzie potrzebowała około 2 gigawatów mocy. Skąd tak olbrzymi pobór? Szacunki mówią, że komputer o wydajności eksaflopsa musi zostać wyposażony w 10-100 milionów rdzeni obliczeniowych. Turek sądzi, że bardziej dokładne są szacunki bliżej górnej granicy. To z kolei rodzi kolejne problemy. Tak olbrzymia liczba rdzeni będzie oznaczała liczne awarie, a więc trzeba skonstruować narzędzia do diagnostyki i naprawy superkomputera. IBM już teraz pracuje nad zapobieżeniem wielu problemom. Błękitny Gigant chce stworzyć eksaflopsowy system, który do pracy będzie potrzebował nie więcej niż 20 megawatów i zmieści się w 70-80 szafach. Rozwiązaniem może być tworzenie systemów hybrydowych, które z jednej strony będą korzystały z procesorów różnych producentów, a z drugiej będą używały do obliczeń nie tylko CPU ale i GPU.
- 2 odpowiedzi