Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'superkomputer' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 64 wyników

  1. Intel zaprezentował 50-rdzeniowy układ Knights Corner o wydajności 1 teraflopsa. Przed 14 laty taką wydajność miał najpotężniejszy wówczas superkomputer świata, ASCI Red. Nowy procesor Intela ma więc taką moc obliczeniową jak 7264 ówczesne układy. Procesor Knights Corner wykorzystuje rozwiązania opracowane na potrzeby układu Larrabee. Będzie on produkowany w technologii 22 nanometrów i skorzysta z trójbramkowych tranzystorów. Intel ma zamiar użyć Knights Corner to zbudowania przed rokiem 2018 superkomputera, którego wydajność będzie liczone a eksaflopsach. Knights Corner trafi na rynek już w przyszłym roku, a w 2013 roku rozpocznie pracę w 10-petaflopsowym superkomputerze Stampede zamówionym przez University of Texas.
  2. KopalniaWiedzy.pl

    Watson przyjrzy się patentom

    Superkomputer Watson, który pokonał w teleturnieju Va Banque ludzkich arcymistrzów - Kena Jenningsa i Brada Ruttera - stanie do walki z... trolami patentowymi. IBM wyposażył komputer w oprogramowanie o nazwie Strategic IP Insight Platform (SIIP), dzięki któremu maszyna będzie mogła zapoznawać się z recenzowanymi pismami specjalistycznymi, bazami danych patentów, będzie katalogowała przedsiębiorstwa, analizowała ich własność intelektualną i produkty. IBM ma nadzieję, że dzięki temu będzie można łatwo wyłapać patenty, które nie powinny być przyznane, gdyż już wcześniej używano tego typu rozwiązań. Teoretycznie patenty powinny być przyznawane tylko na rozwiązania nowe i nieoczywiste. Jednak samo zdefiniowanie tego, co jest rozwiązaniem „oczywistym" jest bardzo trudne. Jeśli zaś weźmiemy też pod uwagę błędy popełniane przez urzędników, nawał pracy, zaniechania, niemożność dotarcia do wszelkich danych i inne czynniki, stanie się jasnym, jak łatwo można przyznać patent na rozwiązanie, które istniało już wcześniej. Tutaj ma właśnie wkroczyć Watson. O ile bowiem superkomputer nie rozstrzygnie sporów wokół tego, które rozwiązanie jest oczywiste, a które nie, to może pomóc w stwierdzeniu, czy jakiś wynalazek był już wcześniej używany. Podczas pokazu Watsona wyposażono w opis 4,7 miliona patentów oraz 11 milionów artykułów naukowych z lat 1976-2000. Watson na podstawie tekstu i grafik wyodrębniał nowe związki chemiczne, odnajdował słowa-klucze, nazwiska autorów i nazwy firm. Na podstawie takiej analizy Watson wyodrębnił 2,5 miliona związków chemicznych, które uznał za unikatowe. Dla każdego z nich zidentyfikował następnie najwcześniejszy patent. IBM udostępnił utworzoną przez Watsona bazę amerykańskiemu NIH (National Institutes of Health), zezwalając każdemu naukowcowi, niezależnie od miejsca zamieszkania, na bezpłatne korzystanie z bazy.
  3. Japoński superkomputer Tsubame 2.0 otrzymał prestiżową Nagrodę Gordona Bella. To najwyższe wyróżnienie na rynku superkomputerów. Przyznawane jest ono za niezwykłe osiągnięcia w dziedzinie przetwarzania równoległego. Tsubame 2.0 to rzeczywiście niezwykła maszyna. Wykorzystuje ona serwery HP ProLiant SL390 z sześciordzeniowymi procesorami Xeon 5650 oraz karty Nvidia Tesla GPU. Dzięki zastosowaniu procesorów graficznych do wykonywania obliczeń wektorowych udało się znacznie odciążyć CPU. Do osiągnięcia wydajności 2 petaflopsów Tsubame 2.0 potrzebuje zaledwie 1,2 megawata mocy. Superkomputer pracuje zatem 3,4 razy bardziej efektywnie niż jego odpowiednik, komputer Cielo, który wykorzystuje tylko procesory x86. Tsubame 2.0 zajmuje pierwsze miejsce na liście Green500, najbardziej efektywnych superkomputerów na świecie.
  4. KopalniaWiedzy.pl

    Procesory ARM trafią do superkomputera

    Barcelońskie Centrum Superkomputerowe, w którym stoi Mare Nostrum, niegdyś najpotężniejszy komputer Europy, ogłosiło, że ma zamiar zbudować superkomputer wykorzystujący procesory ARM. Byłaby to pierwsza maszyna tego typu. Komputer będzie wykorzystywał układy Nvidii Tegra 3 (znane wcześniej jako Kal-El) oraz CUDA GPU. Procesory graficzne CUDA będę używane do przyspieszania obliczeń wykonywanych przez Tegra 3. Użycie układów ARM w miejsce najczęściej wykorzystywanych kości x86 ma na celu zmniejszenie poboru energii przez komputer. Obecnie używane superkomputery wymagają do pracy olbrzymich ilości energii. Japoński superkomputer K, pierwsza maszyna, której moc obliczeniowa przekroczyła 10 petaflopsów, potrzebuje niemal 13 megawatów. Wraz ze wzrostem mocy obliczeniowej rosną też rachunki za energię, a tymczasem trwa budowa kolejnych supermaszyn o mocy powyżej 10 PFlops.
  5. Fujitsu poinformowało o zbudowaniu superkomputera PRIMEHPC FX10, który można teoretycznie skalować do osiągnięcia wydajności 23,2 petaflopsa. Wszystkie elementy superkomputera są dziełem Fujitsu. W swojej maksymalnej konfiguracji maszyna może składać się z 98 304 węzłów i korzystać z 6 petabajtów pamięci. Komputer wykorzystuje procesory SPARC64 IXfx, które są znacznie bardziej wydajne od SPARC64 VIIIfx, na jakich bazuje superkomputer K. Każdy z nowych CPU wyposażono w 16 rdzeni obliczeniowych, a wydajność procesora sięga 236,5 gigaflopsa. Wydajność na wat to ponad 2 gigaflopsy. Fujitsu udoskonaliło wszystkie elementy superkomputera, od oprogramowania po urządzenia służące wymianie danych. Jednocześnie ogłoszono powstanie nowej technologii chłodzenia podzespołów superkomputera. Procesory chłodzone są wodą, a odpowiednio regulując jej przepływ można w ten sposób uzyskać wodę o temperaturze 40-55 stopni Celsjusza. Opracowane przez Fujitsu ciepłowody pracują najefektywniej przy tej właśnie temperaturze, co pozwala im na schłodzenie tejże wody do poziomu 15-18 stopni Celsjusza i wykorzystanie jej do chłodzenia serwerowni. Wcześniej nie istniała technologia, która pozwoliłaby na chłodzenie centrów bazodanowych wodą podgrzaną przez komputery pracujące w tym centrum. Fujitsu informuje, że takie rozwiązanie pozwala na zaoszczędzenie około 20% energii używanej przez system klimatyzacyjny centrum. Z kolei koszty klimatyzacji stanowią aż 40% kosztów energii przeciętnego centrum bazodanowego.
  6. KopalniaWiedzy.pl

    Chiński superkomputer z chińskimi CPU

    Chiny poinformowały o zbudowaniu pierwszego superkomputera, który wykorzystuje tylko i wyłącznie rodzime procesory. Amerykańscy specjaliści przyznają, że są tym zaskoczeni. To niespodzianka - stwierdził Jack Dongarra, twórca TOP500 - listy najbardziej wydajnych suporkomputerów. Maszyna Sunway BlueLight MPP została uruchomiona w Narodowym Centrum Superkomputerowym w Jinan. Komputer wykorzystuje 8700 procesorów ShenWei SW1600, a jego maksymalna wydajność nieco przekracza 1 petaflops. Chiński superkomputer znajdzie się prawdopodobnie w drugiej dziesiątce najpotężniejszych maszyn świata. Jego wydajność sięga 74% wydajności najszybszej amerykańskiej maszyny - Jaguara. O chińskim superkomputerze niewiele wiadomo. Procesor ShenWei ma prawdopowodnie podobną architekturę do najbardziej zaawansowanych układów Intela. Amerykańscy eksperci nie są jednak zgodni co do tego, czy układ chłodzenia zastosowany w Sunway BlueLight pozwoli Chińczykom na zbudowanie w przyszłości maszyny o wydajności liczonej w eksaflopsach. Na fotografiach widać, że Sunway korzysta z zaawansowanego chłodzenia wodnego. Stworzenie dobrze działającego chłodzenia tego typu jest bardzo, bardzo trudne. To poważny projekt. Ta technologia chłodzenia może pozwolić na osiągnięcie eksaflopsa. Są na dobrej drodze by wygrać wyścig - mówi Steven Wallach, główny naukowiec firmy Convey Computer, producenta superkomputerów. Obecnie amerykański Departament Energii planuje stworzenie trzech komputerów, których wydajność sięgnie 10-20 petaflopsów. Niewykluczone, że przed końcem dekady USA zbudują eksaflopsowy komputer. Jednak czy tak się stanie, nie wiadomo. Większość specjalistów zwraca bowiem uwagę, że wciąż nie dysponujemy technologią, która umożliwiłaby stworzenie takiej maszyny.
  7. KopalniaWiedzy.pl

    IBM wycofuje się z projektu Blue Waters

    IBM zrezygnował z uczestnictwa w rozpoczętym w 2006 roku Blue Waters - projekcie, którego celem jest stworzenie superkomputera o wydajności liczonej w petaflopsach. O wycofaniu się Błękitnego Giganta, głównego uczestnika programu, poinformowały wspólnie IBM oraz National Centre of Supercomputing Applications (NCSA). Innowacyjna technologia, którą IBM opracował, była bardziej złożona i wymagała znacznie większych nakładów finansowych oraz technicznych ze strony IBM-a niż początkowo przewidywano. NCSA i IBM starały się wypracować nowe porozumienie dotyczące udziału IBM-a w projekcie, jednak nie udało się go osiągnąć - czytamy w oświadczeniu koncernu. Projekt Blue Waters rozpoczęto w roku 2006 dzięki grantowi w wysokości 208 milionów dolarów, który na ten cel przeznaczyła Narodowa Fundacja Nauki. Rok później wybrano IBM-a na głównego wykonawcę superkomputera. Miał on korzystać z procesorów Power 7. Dotychczas IBM otrzymał ze wspomnianego grantu 30 milionów dolarów. Firma zwróci te pieniądze. John Melchi, dyrektor ds. administracyjnych w NCSA powiedział, że koszty rozwoju nowych technologii opracowanych przez IBM-a okazały się tak wysokie, iż koncern zrezygnował z dalszej współpracy. Teraz NCSA rozgląda się za innym partnerem. Zastrzega przy tym, że kwota grantu pozostaje taka sama i nie będzie waloryzowana o wskaźnik inflacji. Celem projektu Blue Waters jest stworzenie superkomputera o wydajności około 10 petaflopsów, który będzie nadawał się do obliczeń ogólnego przeznaczenia, a który jednocześnie będzie dawał gwarancję, że uruchomiona na nim typowa aplikacja naukowa będzie mogła liczyć na wydajność nie mniejszą niż 1 petaflops. Meichi mówi, że nawet po wycofaniu się IBM-a jest szansa, że Blue Waters rozpocznie prace przed końcem 2012 roku. Obecnie najbardziej wydajnym superkomputerem na świecie jest japoński K, którego maksymalna wydajność wynosi 8,16 PFlops. Warto też przypomnieć, że niedawno Cray ogłosił powstanie architektury XK6, która ma umożliwić zbudowanie nawet 50-petaflopsowego superkomputera.
  8. NVIDIA informuje, że Moskiewski Uniwersytet Państwowy rozbuduje swój superkomputer Łomonosow o 1554 układy GPU Tesla X2070. Dzięki temu maksymalna wydajność Łomonosowa ma osiągnąć 1,3 petaflopsa. Tym samym rosyjski superkomputer mógłby trafić do pierwszej dziesiątki najpotężniejszych maszyn na świecie. „Rozbudowany system łączy w sobie 1554 układy NVIDIA Tesla X2070 z identyczną liczbą czterordzeniowych CPU, dzięki czemu jego maksymalna moc obliczeniowawyniesie 1,3 petaflopsa, co uczyni go numerem 1 w Rosji i jednym z najszybszych systemów na świecie. System używany jest do badań wymagających intensywnych obliczeń, takich jak zmiany klimatyczne, modelowanie oceanów, formowanie się galaktyk" - czytamy w oświadczeniu NVIDII.
  9. Amerykańscy eksperci, w tym Steven Koonin, podsekretarz odpowiedzialny za kwestie naukowe w Departamencie Energii (DoE) twierdzą, że w ciągu najbliższych kilkunastu miesięcy Chiny wybudują superkomputer opierając się wyłącznie na rodzimej technologii. Koonin stwierdził, że Państwo Środka pracuje nad maszyną o wydajności liczonej w petaflopsach wykorzystującą miejscowe komponenty, a jej powstania należy spodziewać się w ciągu najbliższych 12-18 miesięcy. Jasnym jest, że DoE nie będzie już jedyną organizacją, która przesuwa granice wydajności komputerów - dodał Koonin. Doradca Koonina powiedział, że termin 12-18 miesięcy oszacowano na podstawie doniesień z Chin, rozmów z chińskimi naukowcami oraz wizyt w Chinach. O podobnym horyzoncie czasowym mówi profesor Jack Dongarra z University of Tennessee, jeden z twórców listy Top500. Obecnie rynek superkomputerów jest zdominowany przez amerykańskie firmy. Niemal 80% wykorzystywanych procesorów to układy Intela, ponad 11% to kości produkcji AMD, a 8% to IBM-owskie procesory Power. Chiński superkomputer Tianhe-1A, który jest obecnie najpotężniejszą maszyną na świecie, korzysta z intelowskich Xenonów oraz procesorów graficznych Tesla produkowanych przez Nvidię. Jego twórcy zastosowali również rodzime, ośmiordzeniowe układy FeiTeng-1000 o architekturze SPARC. W Tianhe użyto też chińskiej technologii przesyłu danych, która jest bardziej wydajna od InfiniBand, wciąż jeszcze nie dorównuje zamkniętym standardom oferowanym przez amerykańskie firmy. Jednak dla analityka Steve'a Conwaya z IDC najbardziej imponującym osiągnięciem jest fakt, że sami stworzyli większość oprogramowania dla takich maszyn. Analityk dodaje, że Chiny mogą zbudować supermaszynę na własnych podzespołach, jednak będą to procesory stworzone z myślą o tym właśnie superkomputerze i nieprzeznaczone na rynek. Jego zdaniem pierwsze chińskie procesory zdolne do konkurowania na globalnym rynku pojawić się mogą za 5-10 lat. Stany Zjednoczone pozostają największym producentem superkomputerów i krajem, który w największym stopniu finansuje ich rozwój. Tylko w bieżącym roku USA wydadzą z budżetu 2 miliardy dolarów na systemy typu HPC (high-performance computing). To kwota, która została przeznaczona na nieutajnione systemy. Nie wiadomo, ile jakie sumy są przeznaczane na systemy tajne. Naukowcy obawiają się, że częściowe wybory do Kongresu, które będą miały miejsce w bieżącym roku, zmienią układ sił i pojawią się żądania obcięcia wydatków na tajne systemy. Z drugiej jednak strony chińskie postępy w dziedzinie superkomputerów mogą przekonać polityków o konieczności utrzymania lub zwiększenia budżetu na tego typu przedsięwzięcia. Przed kilkoma miesiącami Jeremy Smith, dyrektor Centrum Biofizyki Molekularnej w Oak Ridge National Laboratory mówił, że bardzo cieszy go konkurencja, gdyż zwiększające się zainteresowanie superkomputerami przyczynia się do ich rozwoju. W konkurencji z innymi krajami wszyscy wygrywają - dlatego bardzo mi się to podoba - stwierdził Smith. Jak wspomina, gdy w roku 2002 pojawił się japoński Earth Simulator zaszokował on środowisko, a National Research Council w swoim raporcie stwierdził, że był to dzwonek alarmowy, pokazujący, iż możemy nie tylko stracić przewagę nad konkurencją, ale również, co ważniejsze, zdolność do osiągnięcia własnych celów.
  10. Pojawienie się chińskiego superkomputera na pierwszym miejscu listy TOP500 nie uszło uwagi samego prezydenta Obamy. W ciągu ostatnich kilku tygodni polityk dwukrotnie o tym wspominał, mówiąc o konieczności utrzymania przez USA technologicznej przewagi nad innymi krajami. Jednak zarówno z wypowiedzi samego prezydenta jak i z dokumentów wydanych przez jego Radę ds. Nauki i Technologii można wywnioskować, że będziemy świadkami zmian w metodologii pomiarów wydajności superkomputerów. Specjaliści uważają bowiem, że projektowanie maszyn tak, by wypadały dobrze w teście Linpack jest marnowaniem pieniędzy i może skutkować przegapieniem możliwości poczynienia znacznych postępów w technologii superkomputerów. Celem naszych inwestycji w HPC (high-performance computing) powinno być rozwiązywanie tych problemów obliczeniowych, które są zgodne z narodowymi priorytetami, tymczasem ten jednowymiarowy test mierzy tylko jeden z czynników potrzebnych do osiągnięcia celu - czytamy w dokumencie Rady. Oczywiście, nie znaczy to, że USA chcą się wycofać z wyścigu superkomputerów. Wręcz przeciwnie. Jakkolwiek byłoby niemądre pozwolić sobie na zajmowanie znacząco gorszej pozycji w naukowych benchmarkach, które dowiodły swojej praktycznej przydatności, bo jednak skupienie się tylko i wyłącznie na utrzymaniu przewagi w liczbie wykonywanych operacji na sekundę nie leży w naszym interesie - stwierdzili eksperci. Angażowanie się w taki 'wyścig zbrojeń' może być bardzo kosztowane i może odciągnąć zasoby od badań podstawowych, skupiających się na opracowaniu nowego podejścia do HPC, które umożliwiłoby odskoczenie innym państwom i utrzymanie pozycji niezagrożonego lidera, którą Ameryka cieszyła się w przeszłości - czytamy w dokumencie. Obecnie pozycja USA nie jest zagrożona. Na 500 najpotężniejszych superkomputerów świata aż 280 znajduje się w Stanach Zjednoczonych, USA zajmują 5 z 10 czołowych pozycji, a największymi producentami superkomputerów są amerykańskie firmy. Od lat jednak względna pozycja Stanów Zjednoczonych słabnie, a przewaga nad innymi krajami topnieje. Eksperci już od dłuższego czasu zwracają uwagę, że Linpack powinien zostać uzupełniony o inne testy, gdyż sam mierzy tylko i wyłącznie "surową" zdolność obliczeniową komputerów i coraz mniej odpowiada wyzwaniom nowoczesnej nauki. Jednym z takich proponowanych testów jest Graph500, który mierzy nie tylko moc obliczeniową, ale również bierze pod uwagę wielkość maszyny. Oznacza to, że test ten może wykazać, iż mniejszy superkomputer jest w pewnych zastosowaniach bardziej wydajny od większego. Z opinią doradców prezydenta Obamy zgadza się Jack Dongarra, profesor informatyki z University of Tennessee i jeden z twórców listy TOP500. On sam jest jednym z autorów powstałego na zlecenia DARPA testu HPCC (High Performance Computing Challenge), który mierzy 7 różnych aspektów systemu superkomputerowego. Benchmark, którego używamy w TOP500 mierzy tylko jeden wskaźnik systemu. Z Graph500 będzie ten sam problem. HPCC pozwala na zmierzenie różnych aspektów - mówi.
  11. KopalniaWiedzy.pl

    Echelon - superprocesor Nvidii

    Podczas konferencji Supercomputing 2010 główny inżynier Nvidii, Bill Dally, zaprezentował projekt układu graficznego, który będzie napędzał eksaflopsowe komputery. System Echelon, który na razie istnieje tylko na papierze, będzie charakteryzował się wydajnością rzędu 10 teraflopsów. Wykona on pojedynczą operację zmiennoprzecinkową zużywając do tego celu zaledwie 10 pikodżuli, czyli 20-krotnie mniej niż obecne układy Fermi. Echelon składa się ze 128 procesorów strumieniowych, z których każdy zbudowany jest z 8 rdzeni. W efekcie otrzymamy 1024-rdzeniowy procesor, którego każdy rdzeń jest w stanie wykonać w jednym takcie zegara cztery operacje zmiennoprzecinkowe o podwójnej precyzji. Odpowiada to wydajności 10 teraflopsów. Echelon będzie zatem korzystał z dwukrotnie większej liczby rdzeni niż obecne najbardziej wydajne GPU Nvidii, z których każdy wykona czterokrotnie więcej operacji w takcie zegara. Poważne zmiany zajdą też w podsystemie pamięci. Echelon będzie miał do dyspozycji 256 megabajtów dynamicznie konfigurowalnej SRAM. Pamięć będzie można podzielić aż na sześć różnych poziomów, przydzielając każdemu z rdzeni własną przestrzeń. Dzięki takiej konfiguracji dane będą znajdowały się możliwe blisko miejsca przetwarzania, co pozwoli zaoszczędzić olbrzymią ilość energii zużywanej obecnie na ich przesyłanie. Ponadto chip zostanie wyposażony w mechanizm rozgłaszania, dzięki któremu wyniki poszczególnych działań będą mogły zostać udostępnione dowolnemu węzłowi, który będzie ich potrzebował. Struktura pamięci podręcznej układu będzie spójna pod względem logicznym ze strukturą CPU, co ułatwi tworzenie oprogramowania dla Echelona. Nvidia pracuje nad Echelonem w ramach finansowanego przez DARPA projektu Ubiquitous High Performance Computing. Firma rywalizuje tutaj z Intelem, MIT-em i Sandia National Laboratory. DARPA postawiła przed uczestnikami programu zadanie zbudowania do 2014 roku prototypowego petaflopsowego systemu, który ma zużywać nie więcej niż 57 kilowatów mocy. Taki system ma stać się podstawą do zbudowania do 2018 roku eksaflopsowego superkomputera.
  12. KopalniaWiedzy.pl

    20 petaflopsów za 18 miesięcy

    W Stanach Zjednoczonych powstają dwa niezwykle wydajne superkomputery. Obie maszyny mają osiągnąć wydajność 20 petaflopsów i mogą trafić na listę TOP500 w czerwcu 2012 roku. Obecnie najbardziej wydajny superkomputer to chiński Tianhe-1A, który jest w stanie wykonać 2,566 petaflopa w ciągu sekundy. Pierwszy z superkomputerów powstaje w Oak Ridge National Laboratory (ORNL), które obecnie jest w posiadaniu m.in. maszyny Jaguar, drugiego pod względem wydajności superkomputera. Komputer o podobnej mocy buduje też IBM na zlecenie Lawrence Livermore National Laboratory. Ma on zostać dostarczony zamawiającemu już w przyszłym roku, a pełną moc osiągnie w roku 2012. Obecnie jest zbyt wcześnie, by wyrokować, czy powstające amerykańskie maszyny obejmą prowadzenie na liście TOP500. Superkomputery to niezwykle przydatne narzędzia badawcze i bardzo interesują się nimi Chiny. Amerykańscy eksperci twierdzą, że Państwo Środka ma ambicję budowy superkomputera opartego wyłącznie na rodzimej technologii i może zrealizować ten cel w ciągu 12-18 miesięcy. Specjaliści przypuszczają, że projektowana maszyna ma charakteryzować się mocą ponad 1 PFlops. Wiadomo, że Chińczycy już używają własnej technologii. Najpotężniejszy superkomputer świata Tianhe-1A korzysta przede wszystkim z układów Intela oraz Nvidii, ale zastosowano w nim również procesory FeiTeng-1000. To 8-rdzeniowe układy korzystające z architektury Sparc. Są one wykorzystywane do zarządzania węzłami superkomputera. Wiadomo też, że Chiny dysponują własnymi technologiami przesyłu danych szybszymi od otwartego InfiniBand. Wciąż jednak nie dorównują one wydajnością zamkniętym standardom oferowanym przez amerykańskie firmy. Jeremy Smith, dyrektor Centrum Biofizyki Molekularnej w ORNL mówi, że bardzo cieszy go konkurencja, gdyż zwiększające się zainteresowanie superkomputerami przyczynia się do ich rozwoju. W konkurencji z innymi krajami wszyscy wygrywają - dlatego bardzo mi się to podoba - mówi Smith. Jak wspomina, gdy w roku 2002 pojawił się japoński Earth Simulator zaszokował on środowisko, a National Research Council w swoim raporcie stwierdził, że był to dzwonek alarmowy, pokazujący, iż możemy nie tylko stracić przewagę nad konkurencją, ale również, co ważniejsze, zdolność do osiągnięcia własnych celów. Naukowcy z niecierpliwością czekają na pojawienie się komputerów pracujących w eksaskali. Maszyna o wydajności 1 eksaflopsa będzie wykonywała w ciągu sekundy trylion (1018) operacji zmiennoprzecinkowych. To dla nauki oznacza skok jakościowy. System eksaskalowy pozwoli bowiem na dokładne symulowanie pojedynczej komórki. Każdy atom będzie tam reprezentowany - mówi Smith. To z kolei będzie miało kolosalne znaczenie dla rozwoju medycyny, biologii i nauk pokrewnych. Pierwsze systemy eksaskalowe mogą pojawić się jeszcze przed rokiem 2020.
  13. KopalniaWiedzy.pl

    Superkomputer w kostce cukru?

    Doktor Bruno Michel z IBM Zurich twierdzi, że w ciągu kilkunastu lat mogą powstać superkomputery wielkości... kostki cukru. Będzie to możliwe dzięki nowemu podejściu do projektowania komputerów, które umożliwi układanie procesorów jeden na drugim. Układy będą chłodzone wodą przepływającą pomiędzy nimi. Architektura, nad którą pracuje IBM, nie ma jednak na celu zmniejszanie wielkości superkomputerów, a zbudowanie energooszczędnych maszyn. Obecnie około 2% światowego zużycia energii przypada na sprzęt komputerowy. Zdaniem Michela, w przyszłości musimy skupić się nie na zwiększaniu mocy komputerów a na zmniejszaniu przez nie zużycia energii. Michel wraz z zespołem zaprezentowali prototypowy system Aquasar. Rozmiarami przekracza on znacznie kostkę cukru, gdyż jest większy od lodówki. Jednak Aquasar zużywa o niemal 50% mniej energii niż najbardziej wydajne superkomputery. Jak zauważył Michel, w przeszłości podstawowym problemem były ceny sprzętu. Przed 50 lat pojedynczy tranzystor kosztował dolara. Obecnie koszty produkcji pojedynczego tranzystora są stukrotnie mniejsze od kosztów wydrukowania pojedynczego znaku na papierze. Tak znaczący spadek cen spowodował, że koszty nie są już przeszkodą na drodze do powstania superkomputerów przyszłości. Tym, co martwi specjalistów, są koszty energii potrzebnej mu do pracy. Michel przewiduje, że w przyszłości koszty operacyjne centrum bazodanowego będą wyższe niż koszty jego budowy. A do gwałtownego wzrostu zapotrzebowania na energię przyczynia się konieczność chłodzenia systemów komputerowych. Dlatego też coraz większą wagę przywiązuje się do zużycia energii. Obecnie najbardziej wydajne superkomputery są w stanie wykonać około 770 milionów operacji na sekundę zużywając przy tym 1 wat mocy. Aquasar zużywa 1 wat wykonując 1,1 miliarda operacji na sekundę. System jest jednak dość duży, dlatego też Michel i jego zespół pracują nad jego zmniejszeniem. "Obecnie zbudowaliśmy system Aquaser, który składa się z szafy pełnej procesorów. Planujemy, że za 10-15 lat zmniejszymy go do rozmiarów kostki cukru" - mówi Michel. Przed naukowcami piętrzą się jednak poważne problemy. Samo dostarczenie danych do miejsca, gdzie są one używane do przeprowadzenia obliczeń wymaga 1000-krotnie więcej energii niż jest zużywane podczas liczenia. Ponadto samo przesyłanie danych jest głównym czynnikiem opóźniającym wszelkie operacje logiczne. Systemy muszą być zatem chłodzone nie tylko tam, gdzie odbywają się obliczenia, ale również i tam, gdzie przesyłane są dane. Zapewnianie odbioru ciepła jest niezwykle skomplikowaną operacją. Jak mówi Michel, układ składający się z 1 miligrama tranzystorów wymaga obecnie urządzeń chłodzących o wadze 1 kilograma. Potrzebne jest zatem nowe podejście do kwestii przesyłania danych, obliczeń i chłodzenia. Im większy dystans dzieli układy, tym więcej energii jest zużywane i tym więcej ciepła wydzielane. Rozwiązaniem problemu byłoby układanie procesorów na sobie. Taka architektura wymaga jednak opracowania nowych systemów chłodzących.
  14. KopalniaWiedzy.pl

    Najnowsze zestawienie TOP500

    Udostępniono najnowszą listę TOP500 - zestawienie 500 najpotężniejszych superkomputerów na świecie. Jak już wcześniej pisaliśmy, na czele listy po raz pierwszy od lat znalazł się superkomputer spoza Stanów Zjednoczonych. Chińska maszyna Tianhe-1A charakteryzuje się wydajnością 2,566 PFlops. Wykorzystuje ona procesory Intel Xeon X5670 oraz GPU Nvidii. Na drugim miejscu znalazł się amerykański Jaguar o wydajności niemal 1,8 petaflopsa. Trzecie miejsce przypadło chińskiemu superkomputerowi Nebulae (1,247 PFlops), czwarte japońskiemu Tsubame (1,192 PFlops), a piąte amerykańskiemu Hooperowi (1,054 PFlops). Wśród komputerów, które przekroczyły petaflops znalazły się też francuski Tera-100 (1,050 PFlops) oraz amerykański Roadrunner (1,042 PFlops). Wśród 10 najpotężniejszych supermaszyn pięć znajduje się w USA, dwa pochodzą z Chin, a po jednym z Japonii, Francji i Niemiec. Najwięcej komputerów na TOP500 umieściły, jak zwykle, USA. Z kraju tego pochodzą aż 274 maszyny. Na drugim miejscu, z 41 superkomputerami, uplasowały się Chiny. Jeszcze przed rokiem Państwo Środka miało na liście 21 maszyn, co dawało mu dopiero 5. pozycję. Po 26 superkomputerów pochodzi z Francji, Niemiec i Japonii, a Wielka Brytania, która przed rokiem zajmowała 2. miejsce, obecnie spadła na 4. pozycję z 25 maszynami. Najwięcej superkomputerów - 398 - korzysta z układów Intela. W tym 392 używa architektury EM64T, 5 maszyn korzysta z IA-64 a jedna z architektury Core. Procesorów AMD używa 57 superkomputerów. Wszystkie korzystają z architektury x86_64. Kolejne 40 maszyn wykorzystuje architekturę Power. Najpopularniejszą rodziną systemów operacyjnych instalowanych na superkomputerach pozostaje Linux. Używany jest na 459 maszynach. System spod znaku pingwina zwiększa swoją popularność kosztem Uniksa. Ten z kolei jest wykorzystywany na 19 superkomputerach. Pięć maszyn używa systemu Windows, a 16 maszyn korzysta z systemów mieszanych.
  15. KopalniaWiedzy.pl

    Pierwszy europejski petaflops

    Europa doczekała się pierwszego petaflopsowego superkomputera na swoim terytorium. Maszyna Tera 100 to wspólny projekt firmy Bull oraz francuskiej Komisji Energii Alternatywnych i Energii Atomowej. W teście Linpack komputer osiągnął wydajność 1,05 petaflopsa. Jej teoretyczna wydajność to 1,25 PFlops, jednak nie została ona uzyskana w teście. Tymczasem lista TOP500, na którą trafia 500 najbardziej wydajnych superkomputerów świata, bierze pod uwagę maksymalną osiągniętą wydajność, a nie teoretyczną. Tera 100 korzysta z 17 480 procesorów z rodziny Intel Xeon 7500 oraz 300 terabajtów pamięci operacyjnej. Pamięć masowa ma łączną pojemność 20 petabajtów.
  16. KopalniaWiedzy.pl

    Nowe podejście do superkomputerów

    Uczeni z Uniwerstytetu Johnsa Hopkinsa konfigurują swój nowy superkomputer w sposób, który może zmienić zasady pomiaru wydajności takich maszyn. Argumentują przy tym, że nowa konfiguracja jest lepiej dostosowana do obliczeń naukowych, podczas których superkomputery wykorzystują gigantyczne ilości danych. Obecnie wydajność superkomputerów mierzy się we flopsach czyli w operacjach zmiennoprzecinkowych na sekundę. Uczeni z Johna Hopkinsa konfigurują swoją maszynę pod kątem osiągnięcia najlepszej wydajności mierzonej w IOPS-ach, a zatem w liczbie operacji wejścia/wyjścia na sekundę. Innymi słowy, flopsy informują nas o zdolnościach obliczeniowych komputera, a IOPS-y o tym, jakie ilości danych mogą maszynę opuszczać i być do niej przesyłane. Alexander Szalay, informatyk i astrofizyk z Institute for Data Intensive Engineering and Science wyjaśnia, że dla naukowców liczba operacji wejścia/wyjścia stała się wąskim gardłem. Ludzie uruchamiają na superkomputerach coraz większe symulacje, które zajmują olbrzymie ilości miejsca w pamięci operacyjnej, i bardzo trudno jest zapisywać dane wyjściowe na dysk. Na nowy system, nazwany Data-Scope, przeznaczono 3,1 miliona dolarów, z czego 2,1 miliona to grant z Narodowej Fundacji Nauki. Superkomputer ma rozpocząć prace w maju przyszłego roku. Już w tej chwili 20 grup naukowych z Johnsa Hopkinsa wyraziło zainteresowanie jego użyciem. Chcą go wykorzystać do obliczeń związanych z genetyką, obiegiem wody w oceanach, turbulencjami, astrofizyką itp. Uniwersytet będzie udostępniał Data-Scope także obcym uczonym. Proponowana przez uczonych z Johnsa Hopkinsa zmiana podejścia może być bardzo interesująca, gdyż powinna pozwolić na zmniejszenie kosztów użytkowania superkomputerów. Obecnie większość uczonych może na pojedynczej maszynie analizować dane o objętości nie większej niż 10 terabajtów. Do obrabiania większej ilości danych zaprzęga się kilka superkomputerów. Jak twierdzi Szalay, dzięki zmianie konfiguracji i skupieniu się na wskaźniku IOPS, możliwe będzie obniżenie kosztów analizy danych. Twórcy Data-Scope zapewniają, że wydajność wydajność IOPS superkomputera wyniesie od 400 do 500 gigabitów na sekundę. To ponaddwukrotnie więcej niż wydajność IOPS obecnego lidera listy TOP500 - superkomputera Jaguar. Jednocześnie wydajność Data-Scope'a we FLOPS-ach to zaledwie 600 TFlops, czyli trzykrotnie mniej niż Jaguara. Projektowany superkomputer składa się z około 100 serwerów, z których każdy ma do dyspozycji 24 dedykowane HDD i 4 SDD. Zapewnią one przepustowość danych rzędu 4,4 gigabity na sekundę. Za zdecydowaną większość obliczeń będą odpowiadały po dwa procesory graficzne (GPU) umieszczone w każdym z serwerów. Konstruktorzy nowego superkomputera kierują się wytycznymi Gene'a Amdahla, który stwierdził, że idealna maszyna powinna dysponować 1 bitem I/O na każdą instrukcję, którą wykonuje. Obecnie reguła ta jest ignorowana i tzw. liczba Amdahla dla typowego superkomputera wynosi .001. W przypadku Data-Scope'a będzie to .6 lub .7.
  17. Chiny informują o zbudowaniu najpotężniejszego superkomputera na świecie. Wydajność maszyny Tianhe-1A wynosi ponad 2,5 petaflopsa. PFlops to biliard (1015) operacji zmiennoprzecinkowych na sekundę. Wiadomo, że superkomputer wykorzystuje 7000 procesorów graficznych oraz 14 000 CPU Intela. Twierdzenia o wydajności maszyny zostały zweryfikowane przez organizację TOP500, która co pół roku publikuje listę najbardziej wydajnych komputerów na świecie. Najbliższe wydanie listy ukaże się już w przyszłym miesiącu i wszystko wskazuje na to, że USA po raz pierwszy od lat stracą pozycję lidera listy TOP500. Najbliższym konkurentem Tianhe-1A (Droga Mleczna) będzie prawdopodobnie XT5 Jaguar z Oak Ridge National Laboratory, którego wydajność wynosi "zaledwie" 1,75 PFlops. Profesor Jack Dongarra z University of Tennessee, jeden z naukowców, którzy pracują nad listą TOP500 potwierdza powyższe doniesienia. "To wszystko prawda. W ubiegłym tygodniu byłem w Chinach, rozmawiałem z jego twórcami, widziałem system i potwierdziłem uzyskane wyniki. Jest o o 47% szybszy od maszyny z ORNL" - stwierdzil Dongarra. Chiński superkomputer waży ponad 155 ton.
  18. Superkomputer Anton został specjalnie zaprojektowany do pracy nad symulacją zaginania protein. Testy wykazały, że wykonuje on tego typu zadania stukrotnie szybciej niż dotychczas używane maszyny. Proteiny przyjmują najróżniejsze kształty, od których zależą ich właściwości. Przewidzenie w jaki sposób zagnie się białko pozwala na określenie funkcji, jaką może spełniać. Jest zatem niezwykle istotne np. podczas produkcji leków. Jednak białka są niezwykle skomplikowanymi strukturami, więc obliczenia konieczne do przewidzenia ich ostatecznego kształtu są bardzo czasochłonne. Tutaj z pomocą przychodzi Anton, który nie tylko potrafi je zagiąć, ale i obserwować jego dynamikę. Byliśmy przeświadczeni, że raz zagięta proteina jest statyczna jak skała, ale to nieprawda. Jest bardzo mobilna. Zmienia się pomiędzy poszczególnymi konformacjami - mówi David Eliezer z Weill Cornell Medical College. Anton to dzieło niezależnego instytutu badawczego D.E. Shaw Research. Jego założycielem jest były profesor Columbia University David Shaw. W 1986 roku porzucił on karierę naukową i zajął się finansami. Z czasem założył własny fundusz hedgingowy. Uczony odniósł sukces. W 2009 roku znalazł się na 123. miejscu listy 400 najbogatszych Amerykanów. Forbes oszacował jego majątek na 2,5 miliarda dolarów. Jednak wcześniej, bo w 2001 roku, profesor powrócił do nauki. Założył własny instytut badawczy i wykorzystał swój majątek by pracować nad tym, co go interesuje, i nie musieć oglądać się na dofinansowanie z budżetu federalnego. Zajął się dynamiką białek. Badania nad nią ma umożliwić Anton, superkomputer nazwany tak na cześć Antoine van Leeuwenhoeka. Maszyna jest od początku do końca dziełem pracowników D.E. Shaw Research. Sam założyciel instytutu był doradcą naukowym prezydenta Clintona, doradza też Obamie. Antona przetestowano za pomocą dwóch dobrze poznanych protein - domeny białka WW oraz inhibitora trypsyny. Superkomputer symulował, co dzieje się z białkiem podczas zginania, odginania i ponownego zginania. Uzyskano niezwykłą zgodność ze znanymi danymi eksperymentalnymi, co świadczy o przydatności Antona. Obliczenia, konieczne do pokazania tego, co dzieje się z inhibitorem trypsyny w ciągu 1 milisekundy zajęły Antonowi 100 dni. Dotychczas w tym samym czasie udawało się symulować procesy zachodzące w czasie 10 mikrosekund. Anton jest zatem 100-krotnie szybszy od poprzedników. Pomimo tak znacznego sukcesu Anton nie będzie nadawał się do każdego rodzaju symulacji. Przede wszystkim sam Shaw mówi, że konieczne jest przetestowanie go z innymi proteinami. Ponadto istnieją też białka, których proces zaginania jest liczony w sekundach. Jego symulowanie jest zatem poza zasięgiem nie tylko innych superkomputerów, ale także i Antona. Niewątpliwie jednak nowa maszyna przyczyni się do znacznego skrócenia czasu wielu badań i posłuży do stworzenia w przyszłości jeszcze szybszych superkomputerów specjalizujących się w zaginaniu białek.
  19. Zdaniem profesora Thomasa Lipperta, dyrektora Centrum Superkomputerowego Juelich w Niemchczech, systemy eksaskalowe pojawią się przed końcem przyszłej dekady. Obecnie na liście TOP 500 wymieniono trzy maszyny pracujące w petaskali, czyli ich wydajność wynosi co najmniej petaflops Skala eksa- zaczyna się od tysiąca petaflopsów. Innymi słowy superkomputery, których wydajność będzie liczona w eksaflopsach będą wykonywały trylion (1018) operacji zmiennoprzecinkowych na sekundę. Jedną z firm, dokonują dużych inwestycji na polu przetwarzania w eksaskali jest Intel. Koncern podpisał umowy z instytucjami specjalizującymi się w problematyce eksaskali. W ich ramach trzy laboratoria wchodzące w skład Intel Labs Europe skupiają się tylko i wyłącznie na pracach nad eksaskalowym przetwarzaniem. Steve Pawlowski, szef intelowskiego wydziału Central Architecture and Planning, mówi, że współczesna technologia nie pozwala na tworzenie komputerów o wydajności eksaflopsów, dlatego też konieczne jest opracowanie nowych rozwiązań. Jednak nie będzie to łatwe. Głównymi zadaniami, które trzeba rozwiązać są energooszczędność, problemy z przetwarzaniem równoległym, niezawodność działania, współpraca z układami pamięci, dostępność przestrzeni do przechowywania danych oraz przesył informacji. Konieczne też będzie opracowanie nowego oprogramowania. Profesor Lipperta uważa, że eksaflopsowe komputery mogą wykorzystywać nawet 10 milionów rdzeni. Obecnie żaden z superkomputerów nie wykorzystuje więcej niż 300 000 rdzeni, co uświadamia, jak trudnym zadaniem będzie stworzenie maszyny eksaflopsowej.
  20. KopalniaWiedzy.pl

    Komputerowy wzrok bliski ludzkiemu

    Na Yale University powstał superkomputer, który potrafi przetwarzać informacje wizualne znacznie szybciej, niż dotychczas stosowane maszyny. Jego twórca, Eugenio Culurciello uważa, że NeuFlow będzie pewnego dnia w stanie kierować samochodem, gdyż sprawnie rozpozna na drodze ludzi, zwierzęta, pojazdy, drzewa i inne przeszkody. NeuFlow został zainspirowany sposobem działania wzroku ssaków i naśladuje naturalną sieć nauronową, dzięki czemu szybko interpretuje otaczający go świat. System korzysta ze specjalnego algorytmu dla rozległych sieci neuronowych używających sztucznych urządzeń wizyjnych. Autorem algorytmu jest Yann LeCun z New York University. LeCun i Culurciello mieli ten sam cel - opracowanie komputera zdolnego do prowadzenia samochodu. Dzięki ich wysiłkom NeuFlow jest w stanie w czasie rzeczywistym przetwarzać obrazy o rozdzielczości dziesiątków megapikseli i rozpoznawać znajdując się na nich obiekty. System jest też wyjątkowo wydajny. Wykonuje ponad 100 miliardów operacji na sekundę, korzystając przy tym z zaledwie kilku watów mocy. Standardowa karta graficzna dla peceta do przeprowadzenia podobnych operacji potrzebuje ponad 300 watów. Jeden z naszych prototypów przewyższa procesory graficzne pod względem wizyjnego rozpoznawania przedmiotów - mówi Culurciello. W zamierzeniach jego twórców cały superkomputer wizyjny ma być nie większy od portfela, a zatem bez problemów uda się go zmieścić w samochodzie. NeuFlow posłuży nie tylko do sterowania samochodami. Będzie można wbudować go w autonomiczne roboty czy w hełmy żołnierzy, zapewniając im 360-stopniowy kąt widzenia. http://www.youtube.com/watch?v=t4KR8laigzk
  21. KopalniaWiedzy.pl

    IBM o nowej generacji superkomputerów

    Podczas konferencji Hot Chips przedstawiciele IBM-a poinformowali, że ich firma, za pieniądze rządowe, buduje superkomputer, który ma zapoczątkować nową generację tego typu maszyn. Przyszłe superkomputery mają być tańsze, zużywać mniej energii i być łatwiejsze w programowaniu niż obecnie wykorzystywane maszyny. Projekt budowy nowego superkomputera nazwano PERCS (Productive, Easy-to-use, Reliable Computing System). Ma on osiągać wydajność przekraczającą petaflops, a szczegóły na temat jego mocy i ceny IBM ma zdradzić podczas konferencji Supercomputing 2010, która odbędzie się w listopadzie. Projekt ten to niezwykły postęp w użyciu optyki w systemach komputerowych oraz zdecydowane przejście z wykorzystania łączy optycznych wyłącznie do przesyłania danych w kierunku użycia ich w obliczeniach - stwierdził Baba Arimilli, główny inżynier odpowiedzialny za projekty układów dla PERCS. Podczas Hot Chips opisano interesujący moduł, zawierający układ scalony działający jako hub wraz z optycznymi łączami. Hub został wykonany w technologii 45 nanometrów, ma 582 milimetry kwadratowe powierzchni i składa się nań 3-gigahercowy przełącznik ze zintegrowanym modułem routingu. Kość zawiera też 48 łączy optycznych o przepustowości 10 Gb/s każde. Moduł taki jest częścią większej płyty, na którą składają się cztery procesory Power7. Cały superkomputer będzie korzystał z 67 000 układów Power7.
  22. Komisja Europejska powołała do życia grupę o nazwie Partnerstwo w Zaawansowanych Obliczeniach Komputerowych w Europie (Prace - Partnership for Advanced Computing in Europe), której celem ma być upowszechnienie używania superkomputerów. UE chce wydać od 70 do 500 milionów euro na zachęcenie do korzystania z tego typu maszyn. W skład Prace wchodzą przedstawiciele krajów członkowskich UE. Grupa oferuje naukowcom m.in. dostęp do najpotężniejszego europejskiego superkomputera Juelicher BlueGene/P. W ciągu następnych pięciu lat do tego zestawu będą dodawane kolejne superkomputery, stojące obecnie w Niemczech, Francji, Hiszpanii czy Włoszech. Każdy z tych krajów chce zainwestować w Prace po 100 milionów euro. Inne państwa zobowiązały się do przekazania mniejszych sum.
  23. KopalniaWiedzy.pl

    Intel zbada eksaflopy

    Firma Intel Corporation, imec i 5 flamandzkich uniwersytetów oficjalnie otworzyły dziś Flanders ExaScience Lab w ośrodku badawczym imec w Leuven w Belgii. Laboratorium opracuje oprogramowanie, które będzie działać na przyszłych, eksaskalowych systemach komputerowych Intela, zapewniających wydajność 1000 razy większą niż najszybsze współczesne superkomputery poprzez wykorzystanie nawet miliona rdzeni i miliarda procesów. ExaScience Lab będzie najnowszym członkiem europejskiej sieci badawczej Intela - Intel Labs Europe - która składa się z 21 laboratoriów zatrudniających ponad 900 pracowników naukowych. Przełom w eksaskalowym przetwarzaniu danych mógłby pozwolić na symulowanie bardzo skomplikowanych systemów, których dziś nie da się replikować, takich jak ludzkie ciało albo ziemski klimat. Jeśli branża komputerowa stanie na wysokości zadania, może to oznaczać znalezienie lekarstw na wiele chorób lub lepsze przewidywanie katastrof naturalnych. Flanders ExaScience Lab skupi się na zastosowaniach naukowych, zaczynając od symulowania i prognozowania „pogody kosmicznej", czyli aktywności elektromagnetycznej w przestrzeni otaczającej ziemską atmosferę. Flary słoneczne - wielkie eksplozje w atmosferze Słońca - mogą powodować bezpośrednie szkody na Ziemi, na przykład w sieciach energetycznych, rurociągach i komunikacji bezprzewodowej. Aby dokładnie przewidzieć i zrozumieć wpływ flar, niezbędna jest eksaskalowa moc obliczeniowa. Oprogramowanie, które powstanie w celu rozwiązania tego problemu - wybranego ze względu na niezwykle złożoną naturę - będzie można wykorzystać w wielu innych dziedzinach. Budowanie komputerów eksaskalowych w oparciu o aktualnie dostępne technologie i metody projektowe powodowałoby ekstremalne nagrzewanie się systemów i wymagałoby użycia własnych elektrowni, które dostarczałyby niezbędny do zasilania prąd. W systemie złożonym z milionów rdzeni niełatwo jest też sprawić, aby wszystkie współpracowały ze sobą przez dłuższy czas. Potrzebne będą zatem zupełnie nowe metody programistyczne i nowe oprogramowanie, które zmniejszy zużycie energii do akceptowalnego poziomu i uczyni system odpornym na błędy. Zasilanie i niezawodność to kluczowe wyzwania, które trzeba zrozumieć, zanim wizja eksaskalowego przetwarzania danych stanie się rzeczywistością. Długa i owocna współpraca między Intelem a imec miała kluczowe znaczenie dla wykorzystania tej unikatowej okazji - powiedział Stephen Pawlowski, starszy specjalista firmy Intel i dyrektor generalny działu Intel Central Architecture and Planning. Niecierpliwie czekamy na rozpoczęcie tego innowacyjnego, wspólnego projektu we Flandrii, który łączy naukową wiedzę z dziedzin przewidywania pogody kosmicznej, symulacji obliczeniowej, niezawodności, wizualizacji i modelowania wydajności. Flanders ExaScience Lab to unikatowy projekt badawczy, który łączy wszystkie flamandzkie uniwersytety - Uniwersytet Antwerpii, Uniwersytet Ghent, Uniwersytet Hasselt, Katholieke Universiteit Leuven oraz Vrije Universiteit w Brukseli - z firmą imec i czołowym światowym producentem półprzewodników. Laboratorium początkowo będzie zatrudniać ponad dwudziestu badaczy, a do 2012 roku zespół powiększy się o kolejnych kilkunastu. Laboratorium będzie działać w siedzibie firmy imec przy wsparciu flamandzkiej Agencji na rzecz Innowacji poprzez Naukę i Technologię (IWT). Jesteśmy podekscytowani unikatową współpracą z Intelem i pięcioma flamandzkimi uniwersytetami - powiedział Luc Van den Hove, prezes i dyrektor generalny firmy imec. Jestem przekonany, że we Flanders ExaScience Lab powstaną cenne rozwiązania programowe dla przyszłych eksaskalowych komputerów Intela. Chciałbym podziękować rządowi flamandzkiemu, Flandryjskiej Agencji Inwestycyjno-Handlowej oraz IWT za wsparcie dla naszego laboratorium. Cieszę się na to długofalowe partnerstwo strategiczne.
  24. KopalniaWiedzy.pl

    Chińska superkomputerowa ofensywa

    Chiny mają ambicję stać się superkomputerową potęgą. Na przedstawionej dzisiaj liście TOP500 - pięciuset najpotężniejszych komputerów na świecie - ich system Nebulae zajmuje drugie miejsce, chociaż teoretyczna maksymalna wydajność plasuje go na pierwszej pozycji. Nebulae to klaster składający się z serwerów Dawning TC3600 Blade, które wykorzystują intelowskie procesory Xeon 5650 oraz układy graficzne Nvidia Tesla C2050. Nebulae stoi w Narodowym Centrum Superkomputerowym w Shenzen. To trzeci w historii komputer, którego wydajność jest większa niż petaflops. Chińska maszyna podczas testu Linpack osiągnęła 1,271 PFlops. Lepszy wynik od niej uzyskał tylko amerykański Jaguar (Cray HT5-HE) z sześciordeniowymi Opteronami, który wykonał 1,759 petaflopów na sekundę. Jednak teoretyczna maksymalna wydajność Nebulae, wynosząco 2,984 PFlops jest wyższa o teoretycznej maksymalnej mocy obliczeniowej Jaguara (2,331 PFlops). Trzecim komputerem zdolnym do wykonania co najmniej biliarda operacji zmiennoprzecinkowych w ciągu sekundy jest Roadrunner. Awans Chin nie dotyczy tylko i wyłącznie jednego superkomputera. Na liście TOP500 znajdują się 24 maszyny pochodzące z Państwa Środka, co daje mu, razem z Niemcami, 4. pozycję. Więcej superkomputerów mają tylko Francja (27), Wielka Brytania (38) oraz Stany Zjednoczone (282). Chińskie maszyny są jednak znacznie potężniejsze od wymienionych krajów europejskich, dlatego też, po raz pierwszy w historii, Chiny zajmują drugą pozycję (po USA) pod względem zainstalowanej mocy obliczeniowej. Łącznie amerykańskie komputery z listy są w stanie wykonać niemal 18 petaflopów w ciągu sekundy. Łączna wydajność chińskich superkomputerów to niemal 3 PFlops. W pierwszej dziesiątce najpotężniejszych maszyn na świecie znalazło się 7 komputerów z USA, 2 z Chin i 1 z Niemiec.
  25. KopalniaWiedzy.pl

    Petaflopsowy superkomputer w Rosji

    Przewodniczący parlamentu Federacji Rosyjskiej zapowiedział, że jeszcze w bieżącym roku moskiewski Uniwersytet Łomonosowa otrzyma superkomputer o wydajności przekraczającej petaflops. Jeśli obietnice te zostaną spełnione, to rosyjska maszyna znajdzie się co najmniej na 3. miejscu listy Top 500. Obecnie uczelnia korzysta z 12. najpotężniejszego komputera na świecie. Moc maszyny wynosi 350,1 gigaflopsa. Nie wiadomo, czy Rosjanie planują po prostu wyposażyć ją w bardziej wydajne procesory, zwiększając przy okazji ich liczbę, czy też mają zamiar przeprowadzić jakąś większą rozbudowę. Dotychczas w swój superkomputer Uniwersytet Łomonosowa zainwestował niemal 12 milionów dolarów.
×