Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'superkomputer' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 68 wyników

  1. Komisja Europejska powołała do życia grupę o nazwie Partnerstwo w Zaawansowanych Obliczeniach Komputerowych w Europie (Prace - Partnership for Advanced Computing in Europe), której celem ma być upowszechnienie używania superkomputerów. UE chce wydać od 70 do 500 milionów euro na zachęcenie do korzystania z tego typu maszyn. W skład Prace wchodzą przedstawiciele krajów członkowskich UE. Grupa oferuje naukowcom m.in. dostęp do najpotężniejszego europejskiego superkomputera Juelicher BlueGene/P. W ciągu następnych pięciu lat do tego zestawu będą dodawane kolejne superkomputery, stojące obecnie w Niemczech, Francji, Hiszpanii czy Włoszech. Każdy z tych krajów chce zainwestować w Prace po 100 milionów euro. Inne państwa zobowiązały się do przekazania mniejszych sum.
  2. Firma Intel Corporation, imec i 5 flamandzkich uniwersytetów oficjalnie otworzyły dziś Flanders ExaScience Lab w ośrodku badawczym imec w Leuven w Belgii. Laboratorium opracuje oprogramowanie, które będzie działać na przyszłych, eksaskalowych systemach komputerowych Intela, zapewniających wydajność 1000 razy większą niż najszybsze współczesne superkomputery poprzez wykorzystanie nawet miliona rdzeni i miliarda procesów. ExaScience Lab będzie najnowszym członkiem europejskiej sieci badawczej Intela - Intel Labs Europe - która składa się z 21 laboratoriów zatrudniających ponad 900 pracowników naukowych. Przełom w eksaskalowym przetwarzaniu danych mógłby pozwolić na symulowanie bardzo skomplikowanych systemów, których dziś nie da się replikować, takich jak ludzkie ciało albo ziemski klimat. Jeśli branża komputerowa stanie na wysokości zadania, może to oznaczać znalezienie lekarstw na wiele chorób lub lepsze przewidywanie katastrof naturalnych. Flanders ExaScience Lab skupi się na zastosowaniach naukowych, zaczynając od symulowania i prognozowania „pogody kosmicznej", czyli aktywności elektromagnetycznej w przestrzeni otaczającej ziemską atmosferę. Flary słoneczne - wielkie eksplozje w atmosferze Słońca - mogą powodować bezpośrednie szkody na Ziemi, na przykład w sieciach energetycznych, rurociągach i komunikacji bezprzewodowej. Aby dokładnie przewidzieć i zrozumieć wpływ flar, niezbędna jest eksaskalowa moc obliczeniowa. Oprogramowanie, które powstanie w celu rozwiązania tego problemu - wybranego ze względu na niezwykle złożoną naturę - będzie można wykorzystać w wielu innych dziedzinach. Budowanie komputerów eksaskalowych w oparciu o aktualnie dostępne technologie i metody projektowe powodowałoby ekstremalne nagrzewanie się systemów i wymagałoby użycia własnych elektrowni, które dostarczałyby niezbędny do zasilania prąd. W systemie złożonym z milionów rdzeni niełatwo jest też sprawić, aby wszystkie współpracowały ze sobą przez dłuższy czas. Potrzebne będą zatem zupełnie nowe metody programistyczne i nowe oprogramowanie, które zmniejszy zużycie energii do akceptowalnego poziomu i uczyni system odpornym na błędy. Zasilanie i niezawodność to kluczowe wyzwania, które trzeba zrozumieć, zanim wizja eksaskalowego przetwarzania danych stanie się rzeczywistością. Długa i owocna współpraca między Intelem a imec miała kluczowe znaczenie dla wykorzystania tej unikatowej okazji - powiedział Stephen Pawlowski, starszy specjalista firmy Intel i dyrektor generalny działu Intel Central Architecture and Planning. Niecierpliwie czekamy na rozpoczęcie tego innowacyjnego, wspólnego projektu we Flandrii, który łączy naukową wiedzę z dziedzin przewidywania pogody kosmicznej, symulacji obliczeniowej, niezawodności, wizualizacji i modelowania wydajności. Flanders ExaScience Lab to unikatowy projekt badawczy, który łączy wszystkie flamandzkie uniwersytety - Uniwersytet Antwerpii, Uniwersytet Ghent, Uniwersytet Hasselt, Katholieke Universiteit Leuven oraz Vrije Universiteit w Brukseli - z firmą imec i czołowym światowym producentem półprzewodników. Laboratorium początkowo będzie zatrudniać ponad dwudziestu badaczy, a do 2012 roku zespół powiększy się o kolejnych kilkunastu. Laboratorium będzie działać w siedzibie firmy imec przy wsparciu flamandzkiej Agencji na rzecz Innowacji poprzez Naukę i Technologię (IWT). Jesteśmy podekscytowani unikatową współpracą z Intelem i pięcioma flamandzkimi uniwersytetami - powiedział Luc Van den Hove, prezes i dyrektor generalny firmy imec. Jestem przekonany, że we Flanders ExaScience Lab powstaną cenne rozwiązania programowe dla przyszłych eksaskalowych komputerów Intela. Chciałbym podziękować rządowi flamandzkiemu, Flandryjskiej Agencji Inwestycyjno-Handlowej oraz IWT za wsparcie dla naszego laboratorium. Cieszę się na to długofalowe partnerstwo strategiczne.
  3. Chiny mają ambicję stać się superkomputerową potęgą. Na przedstawionej dzisiaj liście TOP500 - pięciuset najpotężniejszych komputerów na świecie - ich system Nebulae zajmuje drugie miejsce, chociaż teoretyczna maksymalna wydajność plasuje go na pierwszej pozycji. Nebulae to klaster składający się z serwerów Dawning TC3600 Blade, które wykorzystują intelowskie procesory Xeon 5650 oraz układy graficzne Nvidia Tesla C2050. Nebulae stoi w Narodowym Centrum Superkomputerowym w Shenzen. To trzeci w historii komputer, którego wydajność jest większa niż petaflops. Chińska maszyna podczas testu Linpack osiągnęła 1,271 PFlops. Lepszy wynik od niej uzyskał tylko amerykański Jaguar (Cray HT5-HE) z sześciordeniowymi Opteronami, który wykonał 1,759 petaflopów na sekundę. Jednak teoretyczna maksymalna wydajność Nebulae, wynosząco 2,984 PFlops jest wyższa o teoretycznej maksymalnej mocy obliczeniowej Jaguara (2,331 PFlops). Trzecim komputerem zdolnym do wykonania co najmniej biliarda operacji zmiennoprzecinkowych w ciągu sekundy jest Roadrunner. Awans Chin nie dotyczy tylko i wyłącznie jednego superkomputera. Na liście TOP500 znajdują się 24 maszyny pochodzące z Państwa Środka, co daje mu, razem z Niemcami, 4. pozycję. Więcej superkomputerów mają tylko Francja (27), Wielka Brytania (38) oraz Stany Zjednoczone (282). Chińskie maszyny są jednak znacznie potężniejsze od wymienionych krajów europejskich, dlatego też, po raz pierwszy w historii, Chiny zajmują drugą pozycję (po USA) pod względem zainstalowanej mocy obliczeniowej. Łącznie amerykańskie komputery z listy są w stanie wykonać niemal 18 petaflopów w ciągu sekundy. Łączna wydajność chińskich superkomputerów to niemal 3 PFlops. W pierwszej dziesiątce najpotężniejszych maszyn na świecie znalazło się 7 komputerów z USA, 2 z Chin i 1 z Niemiec.
  4. Przewodniczący parlamentu Federacji Rosyjskiej zapowiedział, że jeszcze w bieżącym roku moskiewski Uniwersytet Łomonosowa otrzyma superkomputer o wydajności przekraczającej petaflops. Jeśli obietnice te zostaną spełnione, to rosyjska maszyna znajdzie się co najmniej na 3. miejscu listy Top 500. Obecnie uczelnia korzysta z 12. najpotężniejszego komputera na świecie. Moc maszyny wynosi 350,1 gigaflopsa. Nie wiadomo, czy Rosjanie planują po prostu wyposażyć ją w bardziej wydajne procesory, zwiększając przy okazji ich liczbę, czy też mają zamiar przeprowadzić jakąś większą rozbudowę. Dotychczas w swój superkomputer Uniwersytet Łomonosowa zainwestował niemal 12 milionów dolarów.
  5. Cray, legandarny producent superkomputerów, podpisał umowę z Microsoft Research. Może ona przyczynić się do szybszego rozwoju zarówno techniki superkomputerowej jak i chmur obliczeniowych. Microsoft chce, by specjaliści z należącej do Craya grupy Custom Engineering pomogli zaprojektować platformę dla chmur obliczeniowych przyszłości. Dzięki umowie, do Craya trafią pieniądze, które zostaną wykorzystane na dalsze badania nad superkomputerami. Umowa przewiduje współpracę ekspertów ze wspomnianej już Custom Engineering ze specjalistami z microsoftowego wydziału Extreme Computing Group. Jej szczegóły nie zostały ujawnione. Warto jednak wspomnieć o fakcie, że współpraca z Microsoftem oznacza, że Cray, po raz pierwszy w historii, zaangażuje się w projektowanie systemu na zamówienie firmy zewnętrznej. Dotychczas przedsiębiorstwo skupiało się na badaniach naukowych i technicznych nad superkomputerami. Microsoft od paru lat coraz bardziej interesuje się rynkiem wysoko wydajnych komputerów, a od niedawna rozwija chmurę obliczeniową Azure.
  6. Podczas konferencji SC09 IBM zaprezentował węzeł Power System IH dla superkomputerów. Wykorzystuje on cztery procesory Power7 i opracowany przez IBM-a system przełączników działający zarówno z łączami optycznymi jak i miedzianymi. Węzły Power System IH są wykorzystywane przy budowie 20-petaflopsowego superkomputera Blue Waters, który stanie na University of Illinois. Kości Power7 powstają w technologii 45 nanometrów, a każda z nich zawiera 8 rdzeni. Każdy z nich posiada 12 jednostek wykonawczych, 64 kilobajty pamięci L1 i 256 kB L2. Cały procesor ma też do dyspozycji 32 megabajty wbudowanej pamięci DRAM, która działa jak współdzielony cache L3, podzielony na 4-megabajtowe segmenty przydzielone do każdego z rdzeni. Power7 korzysta też ze zintegrowanego dwukanałowego kontrolera pamięci DDR3. Układy w węźle będą taktowane zegarem o częstotliwości od 3,5 do 4 GHz. Każdy z węzłów potrzebuje do pracy 800 watów. To sporo, jednak trzeba zwrócić uwagę na fakt, że na każdy wat dostarcza 1,28 gigaflopsów mocy. Dla porównania intelowski energooszczędny procesor Xeon L5530 taktowany zegarem o częstotliwości 2,4 GHz zapewnia 640 megaflopsów na wat. Całkowicie zmontowany węzeł Power System IH nie jest mały. Jego wymiary to 99x182 centymetry. Szafa dla tych węzłów ma format 2U i pomieści 8 z nich. Pojedynczy węzeł korzysta z dwóch olbrzymich płyt głównych, na których mieszczą się procesory, układy pamięci i przełączniki. Płyty są produkowane przez Fujitsu i są to największe tego typu urządzenia w historii. Węzeł jest całkowicie chłodzony wodą. W każdym węźle znajduje się też 16 slotów DIMM, a IBM używa 8-gigabajtowych kości, co oznacza, że każdy z rdzeni ma do dyspozycji 4 gigabajty pamięci operacyjnej. Każda z szaf może zatem zawierać terabajt RAM. Blue Waters ma mieć do dyspozycji 2 petabajty pamięci operacyjnej. Węzły mają też do dyspozycji po 16 slotów PCI-Express 2.0 x16 oraz jeden x8. Cała komunikacja w ramach jednego węzła odbywa się za pomocą łączy miedzianych. Na zewnątrz wychodzą łącza optyczne, którymi połączone są węzły między sobą. Pokazane przez IBM-a przełączniki są w stanie obsłużyć do 512 węzłów, co zapewni całkowitą moc obliczeniową na poziomie 16,4 petaflopsa. By uzyskać wymagane 20 PFlops IBM najprawdopodobniej podkręci procesory do 4,88 GHz.
  7. Zdaniem specjalistów z IBM-a, w ciągu najbliższych 10 lat powstaną komputery, których możliwości obliczeniowe dorównają ludzkiemu mózgowi. Już w tej chwili naukowcy potrafią dokładnie symulować na komputerze mózg kota. O odtworzeniu wirtualnego mózgu zwierzęcia poinformował Dharmendra Modha, który w IBM-ie jest odpowiedzialny za badania nad inteligentnym przetwarzaniem. Podobnymi osiągnięciami mogą pochwalić się naukowcy z czołowych uniwersytetów świata. Zaledwie przed rokiem DARPA przyznała Błękitnemu Gigantowi i pięciu uniwersytetom grant na stworzenie wirtualnego mózgu i symulowanie jego możliwości obliczeniowych, a już obecnie dokonano dwóch bardzo ważnych kroków. Pierwszy to przeprowadzenie w czasie rzeczywistym symulacji pracy ponad miliarda neuronów i 10 bilionów synaps. To więcej niż ma do dyspozycji mózg kota. Drugi z ważnych kroków to stworzenie algorytmu o nazwie BlueMatter, który szczegółowo opisuje wszystkie połączenia w obszarach korowych i podkorowych ludzkiego mózgu. Jego dokładne mapowanie pozwoli nam zrozumieć, w jaki sposób mózg przetwarza informacje. Podczas swoich badań naukowcy wykorzystują najnowsze osiągnięcia neurologii, nanotechnologii oraz doświadczenia z budowy superkomputerów. Nie wiadomo, czy rzeczywiście w ciągu najbliższych 10 lat uda się komputerowo odtworzyć zdolności ludzkiego mózgu. Jednak tempo prac napawa optymizmem i niewykluczone, że około roku 2020 maszyny będą miały zdolności obliczeniowe podobne do naszych mózgów.
  8. Podczas odbywającej się właśnie w Portland konferencji SC09, zebrani zastanawiają się nad przyszłością superkomputerów. Na organizowanych przez Departament Energii warsztatach trwają rozmowy o systemach 1000-krotnie bardziej wydajnych niż Jaguar, obecny lider listy TOP500. Mowa zatem o systemach, których wydajność będzie liczona w eksaflopsach, czyli w trylionach operacji zmiennoprzecinkowych na sekundę. Potrzebujemy tak potężnych systemów do tworzenia dokładnych modeli klimatycznych, prac nad wydajnymi bateriami czy pozyskiwaniem energii z fuzji jądrowej. Przedstawiciele Departamentu Energii, który sfinansował wiele najpotężniejszych superkomputerów na świecie, twierdzą, że w latach 2011-2013 powstanie system o wydajności około 10 petaflopsów. Pierwszy komputer, który przekroczył barierę teraflopsa powstał w 1997 roku, a w 2008 pokonano petaflops. Eksaflopsowa maszyna ma pojawić się około 2018 roku. Twórcy takiego systemu będą musieli rozwiązać wiele problemów, a jednym z najpoważniejszych będzie zapewnienie mu odpowiedniej ilości energii. Jaguar potrzebuje do pracy 7 megawatów, a nieco mniej wydajny Roadrunner - 3,9 MW. Zdaniem Dave'a Tureka z IBM-a eksaflopsowa maszyna będzie potrzebowała około 2 gigawatów mocy. Skąd tak olbrzymi pobór? Szacunki mówią, że komputer o wydajności eksaflopsa musi zostać wyposażony w 10-100 milionów rdzeni obliczeniowych. Turek sądzi, że bardziej dokładne są szacunki bliżej górnej granicy. To z kolei rodzi kolejne problemy. Tak olbrzymia liczba rdzeni będzie oznaczała liczne awarie, a więc trzeba skonstruować narzędzia do diagnostyki i naprawy superkomputera. IBM już teraz pracuje nad zapobieżeniem wielu problemom. Błękitny Gigant chce stworzyć eksaflopsowy system, który do pracy będzie potrzebował nie więcej niż 20 megawatów i zmieści się w 70-80 szafach. Rozwiązaniem może być tworzenie systemów hybrydowych, które z jednej strony będą korzystały z procesorów różnych producentów, a z drugiej będą używały do obliczeń nie tylko CPU ale i GPU.
  9. Na właśnie opublikowanej liście TOP500, gromadzącej 500 najpotężniejszych komputerów świata, trzy pierwsze miejsca zajęły maszyny korzystające z procesorów AMD. Jednak to Intel, z ponad 80-procentowym udziałem na rynku superkomputerów zdominował listę. Jego głównym konkurentem jest IBM i architektura Power (10,4%), a AMD z 8,4-procentowym udziałem uplasował się na trzecim miejscu. Z procesorów Intela korzystają 402 maszyny, kolejne 52 używa architektury Power, a 42 - kości AMD. Wspomniane trzy najpotężniejsze komputery znajdują się w USA i są to maszyny Jaguar (Cray XT5-HE), Roadrunner (BladeCenter QS22/LS21 Cluster) oraz Kraker XT5 (Cray XT5-HE). Jaguar podczas pracy osiąga maksymalną wydajność rzędu 1,79 petaflopsa, jednak jego najwyższa teoretyczna wydajność wynosi aż 2,33 PFlops. Maszyna korzysta z sześciordzeniowych procesorów Istanbul produkcji AMD i ma do dyspozycji 224 162 rdzenie obliczeniowe. Wydajność Jaguara znacznie przewyższa drugiego na liście Roadrunnera. Superkomputer produkcji IBM-a pracuje z maksymalną prędkością 1,04 PFlops, a jego wydajność teoretyczna to 1,375 PFlops. Mózg superkomputera stanowi 122 400 rdzeni procesorów PowerXCell 8i oraz Opteron DC. Na trzeciej pozycji ulasował się Kraken XT5, z wydajnością rzędu 831,7 teraflopsów, którego teoretyczna moc obliczeniowa to 1,028 PFlops. Jest on napędzany przez 98 928 rdzeni procesorów Opteron. Przeglądając najnowszą listę warto zwrócić uwagę na awans Chin w świecie superkomputerów. Najpotężniejszy superkomputer z Państwa Środka - TH-1 - uplasował się na 5. pozycji. Wykonuje on obliczenia z prędkością 563 teraflopsów, a teoretycznie może osiągnąć wydajność rzędu 1,2 PFlops, co mogłoby go awansować na trzecią pozycję. Co ciekawe, chińska maszyna wykorzystuje do obliczeń procesory Xeon oraz układy graficzne Radeon HD4870. Zdaniem specjalistów GPU będą odgrywały coraz większą rolę na rynku superkomputerów. Chiny wyprzedziły Japonię w liczbie superkomputerów, które trafiły na TOP500, i stają się coraz bardziej poważnym graczem na tym rynku. Liderem listy są Stany Zjednoczone z 277 superkomputerami. Kolejna jest Wielka Brytania, która ma 45 maszyn. Trzecie miejsce należy do Niemiec (27 superkomputerów), a czwarte do Francji (26 maszyn). Chiny z 21 komputerami są piąte, dystansując Japonię posiadającą 16 superkomputerów. Polska, z 3 superkomputerami, znalazła się na 16. pozycji. Warto też zauważyć odchodzenie w niebyt systemów korzystających z procesorów jednordzeniowych. Tylko 4 superkomputery korzystają z takiego rozwiązania. Żadne poważniejsze zmiany nie zaszły natomiast w systemach operacyjnych. Twórcy superkomputerów najchętniej używają Linuksa, który jest obecny na 446 (89,2%) maszynach. Pod kontrolą Windows pracuje 5 (1%) superkomputerów.
  10. Roadrunner, najpotężniejszy superkomputer na świecie, który jako pierwszy pokonał barierę petaflopsa (czyli biliarda operacji zmiennoprzecinkowych na sekundę), zakończył prace nad jawnymi projektami. Obecnie rozpoczyna obliczenia na rzecz tajnych programów związanych z bronią atomową. Stany Zjednoczone od ponad 20 lat nie wyprodukowały nowej głowicy jądrowej, a ostatni próbny wybuch przeprowadziły w 1992 roku. Bezpieczeństwo amerykańskiego arsenału jądrowego oraz zagwarantowanie jego niezawodności zależy zatem w dużej mierze od symulacji, które można wykonywać na superkomputerach. Roadrunner od początku kwietnia do końca września pomagał naukowcom zajmującym się 10 różnymi projektami. Supermaszyna pracowała nad stworzeniem największego w historii komputerowego modelu rozszerzającego się wszechświata, co ma pomóc w zrozumieniu ciemnej materii i ciemnej energii. Brała też udział w pracach nad stworzeniem olbrzymiego drzewa ewolucyjnego całej rodziny wirusa HIV, dzięki czemu naukowcom łatwiej będzie opracować nowe leki zwalczające ten patogen. Naukowcy wspomagali się też Roadrunnerem przy symulowaniu interakcji zachodzących pomiędzy plazmą a laserem. Ich zrozumienie jest kluczowym elementem dla pracy National Ignition Facility. Superkomputer przeprowadzał też atom po atomie symulacje zachowania się nanokabli poddawanych działaniu sił, które prowadziły do ich przerwania. Pomagał odpowiadać na pytanie, jak zmieniają się właściwości mechaniczne i elektryczne nanokabli po zmianie położenia pojedynczego atomu. Maszyna badała również zjawisko rekoneksji magnetycznej, które występuje w plazmie. Często prowadzi ono do gwałtownego uwolnienia się energii przechowywanej w polu magnetycznym. Jego zrozumienie jest ważne dla naszej wiedzy na temat funkcjonowania ziemskiej magnetosfery, Słońca, maszyn służących do fuzji magnetycznej (np. magnetyczne uwięzienie plazmy) czy też astrofizyki.
  11. Amerykański Narodowy Instytut Nauk Komputerowych stał się właścicielem superkomputera, którego wydajność przekracza 1 petaflops. To pierwsza taka maszyna w świecie akademickim. Kraken, czyli Cray XT5 został rozbudowany tak, że obecnie dysponuje mocą obliczeniową rzędu 1,03 PFlops. Maszyna korzysta z 16 512 sześciordzeniowych układów AMD Istambuł, taktowanych zegarem o częstotliwości 2,6 GHz. Komputer jest wyposażony w 129 terabajtów pamięci operacyjnej i 3,3 petabajty pamięci masowej. Maszyna jest zbudowana z 8256 węzłów, a na każdy z nich składają się dwa procesory, 16 gigabajtów pamięci operacyjnej, zapewniający komunikacją chipset Seastar2 Craya oraz router. Został on podłączony do Teragridu, amerykańskiej sieci superkomputerów, która jest największą na świecie platformą obliczeniową udostępnioną do badań naukowych. Kraken jest wykorzystywany do przeprowadzania wysoko zaawansowanych naukowych symulacji trójwymiarowych, jego zadaniem będzie też znalezienie odpowiedzi na pytanie, co dzieje się we wnętrzu gwiazdy podczas zapadania się jej jądra.
  12. Opublikowaną właśnie 33. lista najpotężniejszych superkomputerów świata rozpoczyna, podobnie jak w październiku 2008, Roadrunner. Ten wybudowany przez IBM-a komputer jest pierwszą maszyną w historii, której wydajność przekroczyła barierę petaflopsa (1,105 PFlops). Na drugim miejscu ponownie uplasował się Jaguar (1,059 PFlops) czyli system Cray XT5. Zmiany zaszły na trzeciej pozycji, gdzie znajdziemy maszynę IBM BlueGene/P o nazwie JUGENE. Stoi ona w niemieckim Forschungszentrum Juelich (FZJ) i w teście Linpack osiągnęła wydajność 825,5 teraflopsów. Teoretycznie i ona jest w stanie przekroczyć barierę petaflopsa. FZJ jest też właścicielem kolejnego komputera, który uplasował się w pierwszej 10. To zajmujący 10. miejsce komputer JUROPA, złożony z serwerów Bull Novascale i SunBlade x6048, o wydajności 274,8 TFlops. Oba niemieckie komputery to jedynie nieamerykańskie maszyny wśród 10 najpotężniejszych superkomputerów. W pierwszej 10 zaszły jeszcze dwie zmiany. Na miejscu 6. znajdziemy kolejny system Craya - Cray XT5 o nazwie Kraken. Maszyna zainstalowana na University of Tennessee osiąga 463,3 TFlops i jest najpotężniejszym na świecie komputerem wykorzystywanym przez uczelnię. Z kolei na 9. pozycji uplasował się IBM BlueGene/P o nazwie Dawn (415,7 TFlops). Warto wspomnieć też o chińskim Dawning 5000A z Szanghajskiego Centrum Superkomputerowego. Zajmujący 15. miejsce w zestawieniu sprzęt (180,6 TFlops) jest najpotężniejszym komputerem z systemem Windows HPC 2008. Nie powinniśmy również zapomnieć o Shaheenie, superkomputerze BlueGene/P z Arabii Saudyjskiej. Maszyna o wydajności 185,17 TFlops uplasowała się na 14. pozycji. Najwięcej superkomputerów z listy TOP500 pracuje w USA. Jest ich tam 291, czyli tyle samo, co w listopadzie ubiegłego roku. Europa umieściła na liście 145 systemów, czyli o 6 mniej niż w ubiegłym roku. Udziały Azji zwiększyły się z 45 do 47 maszyn. Jeszcze w listopadzie 2008 na liście TOP500 znajdowało się 6 polskich superkomputerów. Obecnie są cztery i uplasowały się na pozycjach 107. (Galera, Politechnika Gdańska), 281. (firma telekomunikacyjna), 300. (firma telekomunikacyjna) i 422. (Uniwersytet Warszawski). Największym producentem superkomputerów jest HP. Na liście znalazło się 212 maszyn tej firmy (42,40%). Na drugim miejscu jest IBM ze 188 komputerami (37,6%). IBM jest jednak liderem pod względem całkowitej zainstalowanej mocy obliczeniowej. Warto zwrócić też uwagę na legendarną firmę Cray, która ma na liście 20 maszyn, czyli 4%, ale cieszą się one dużą popularnością wśród nabywców najpotężniejszych z potężnych. Wśród pierwszej 50 jest aż 10 (czyli 20%) komputerów Craya. Błyskawicznie rosną wymagania stawiane przed maszynami z pierwszej światowej pięćsetki. Obecnie wydajność ostatniego komputera na liście wynosi 17,1 TFlops. Jeszcze pół roku temu było to 12,64 TFlops. Najsłabszy obecnie superkomputer uplasowałby się w listopadzie ubiegłego roku na 274. pozycji. Całkowita zainstalowana moc na TOP500 wynosi 22,6 PFlops, gdy jeszcze przed rokiem było to 11,7 PFlops. Wśród producentów procesorów bezapelacyjnie wygrywa Intel, którego układy znajdziemy w 399 systemach (79,8%). Koncern więc zwiększył swoje posiadanie o 4 punkty procentowe. Odbyło się to kosztem IBM-a i AMD. Procesory tej pierwszej firmy znajdziemy w 55 systemach, a drugiej - w 43. Jeszcze przed pół roku było to, odpowiednio, 60 i 59 systemów. Udział systemów operacyjnych praktycznie nie uległ zmianie. Liderem jest Linux zainstalowany na 443 superkomputerach (88,60%). Na drugim miejscu uplasował się Unix z 22 komputerami (4,40%), na trzecim Windows (5 komputerów, 1%), dalej BSD (1 komputer, 0,2%), a 29 maszyn (5,8%) używa systemów mieszanych. W ciągu pół roku Linux zyskał więc 4 systemy, Unix stracił 1, z rankingu zniknął Mac, a liczba systemów mieszanych zmniejszyła się o 2.
  13. IBM otrzymał rządowe zlecenie na budowę 20-petaflopsowego superkomputera Sequoia. Najbliższe lata będą więc dla Błękitnego Giganta bardzo pracowite, gdyż, jak już informowaliśmy, ma też zbudować ponad 10-petaflopsowy Blue Waters. Jakby jeszcze tego było mało, firmie zlecono stworzenie komputera Dawn o mocy 500 teraflopsów, który będzie wspomagał Sequoię. Wszystkie trzy supermaszyny mają rozpocząć pracę już w 2011 roku. Sequoia powstaje na potrzeby National Nuclear Security Administration, która jest częścią Departamentu Energii. Komputer będzie wykorzystywany do symulowania testów broni jądrowej. Superkomputer stanie w Lawrence Livermoer National Laboratory, a korzystać będą z niego też Laboratoria Narodowe Los Alamos i Sandia. Specyfikacja komputera Sequoia przewiduje wyposażenie go w 16 petabajtów pamięci, 98 304 węzły i 16 milionów rdzeni procesora Power. Dotychczas barierę petaflopsa, czyli biliarda (1 000 000 000 000 000) operacji zmiennoprzecinkowych na sekundę przekroczyły dwa komputery - IBM-owski RoadRunner (1,105 PFlops) oraz Jaguar (1,059 PFlops) firmy Cray. Sequoia będzie od nich 20-krotnie szybszy.
  14. Już w drugiej połowie bieżącego roku mają zakończyć się prace nad AMD Fusion Render Cloud - superkomputerem graficznym, którego moc obliczeniowa ma przekroczyć barierę 1 petaflopsa. Ta niezwykle wydajna maszyna ma, jak zapewnia AMD, zrewolucjonizować sposób tworzenia i dystrybucji grafiki oraz obrazu wideo. Dzięki niej użytkownik będzie mógł jadąc z pracy do domu rozpocząć oglądanie filmu na wyświetlaczu telefonu komórkowego, a gdy dotrze do domu, dokończy go oglądać na ekranie telewizora. Wszystko dzięki bezprzewodowej łączności z Internetem, która pozwoli też np. na wykorzystanie komórki do grania w najbardziej zaawansowane gry bez konieczności instalacji dodatkowego oprogramowania. Nie wspominając już o ograniczeniach technicznych samego telefonu. Obsługą gry zajmie się AMD Fusion Render Cloud, zbudowany z wykorzystanie procesorów Phenom II, chipsetów AMD 790 i kart graficznych ATI Radeon HD 4870. Maszyna powstaje we współpracy z firmą OTOY, autorem zaawansowanego oprogramowania dla multimediów. Użytkownikowi wystarczy dostęp do Sieci i przeglądarka. Resztą zajmie się superkomputer, który w czasie rzeczywistym prześle do wyświetlenia gotowy obraz. Zdalne renderowanie umożliwi odtwarzanie obrazu HD na urządzeniach przenośnych, które ze względów technologicznych nie są w stanie przechowywać i przetwarzać tak olbrzymiej ilości danych.
  15. Naukowcy z Sandia National Laboratories udowodnili, że próby podnoszenia wydajności superkomputerów poprzez samo tylko zwiększanie liczby rdzeni w procesorach, w przypadku wielu złożonych aplikacji prowadzą do... spadku mocy obliczeniowej. Przeprowadzone symulacje wykazały, że jeśli w superkomputerach użyjemy procesorów dwu- zamiast czterordzeniowych, uzyskamy znaczy wzrost wydajności. Dalsze zwiększanie liczby rdzeni i zastosowanie układów ośmiordzeniowych w miejsce czterordzeniowych staje się nieopłacalne. Wzrost mocy jest bowiem bardzo niewielki. Z kolei użycie jeszcze bardziej złożonych procesorów prowadzi do stopniowego spadku wydajności systemu. I tak superkomputer do którego budowy wykorzystano 16-rdzeniowe procesory będzie tak samo wydajny, jak maszyna z identyczną liczbą układów... dwurdzeniowych. Przyczyną takiego stanu rzeczy są z jednej strony niewystarczająca szerokość interfejsów pamięci, a z drugiej - ciągła rywalizacja rdzeni o dostęp do niej. Na opublikowanym wykresie wyraźnie widać (niebieska linia) gwałtowny wzrost czasu oczekiwania na dostęp do pamięci w przypadku wykorzystywania standardowych technologii i procesorów 16-rdzeniowych. Wciąż nierozwiązany pozostaje problem dostępu procesorów do podsystemu pamięci, chociaż, jak wynika z wykresu, teoretycznie można go przezwyciężyć stosując istniejące, przynajmniej na papierze, rozwiązania.
  16. Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops. Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops. Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows. W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów). Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495. Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce. Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową. W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD. Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell. Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej. Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows. Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.
  17. Przed rokiem informowaliśmy o położeniu kamienia węgielnego pod budowę Uniwersytetu Nauki i Technologii im. Króla Abdullaha (Kaust). Uczelnia zostanie otwarta we wrześniu 2009 roku, a władze Arabii Saudyjskiej chcą, by pracowali w niej najwybitniejsi naukowcy na świecie. Jednym z magnesów, który ma ich przyciągać będzie superkomputer Shaheen, czyli sokół wędrowny. Wydajność maszyny ma wynieść 222 teraflopsy, co w obecnym zestawieniu 500 najpotężniejszych superkomputerów dałoby jej 6. miejsce. Shaheen będzie wykorzystywany głównie do badań środowiska naturalnego Morza Czerwonego oraz trójwymiarowego modelowania pól naftowych. Dzięki Kaust znacząco zwiększą się światowe możliwości obliczeniowe dostępne dla środowisk naukowych. Superkomputer, który tam stanie, jest dla mnie jedną z największych atrakcji - mówi David Keyes, naukowiec Columbia University i dyrektor Institute for Scientific Computing Research w Lavrence Livermoore National Laboratory, który na Kaust obejmie fotel dziekana Wydziału Nauk Matematycznych, Informatycznych i Inżynieryjnych. Z "Sokoła wędrownego" będą korzystali uczeni z Kaust, Cornell University, University of Oxford, Stanford University oraz Texas A&M University. Z najnowszych informacji dostępnych na witrynie Kaust, można dowiedzieć się m.in. że powstająca uczelnia już podpisała z Uniwersytetem Kalifornijskim w San Diego umowę, na podstawie której powstanie najbardziej zaawansowane na świecie centrum wizualizacji.
  18. IBM otrzymał z NASA zamówienie na zbudowanie kolejnego superkomputera dla Agencji. Klaster iDataPlex będzie składał się z 1024 czterordzeniowych procesorów Xeon i zostanie połączony z już istniejącym klastrem Discover, trzykrotnie zwiększając jego moc obliczeniową. Wydajność całego systemu wyniesie 67 teraflopsów. Oznacza to, że maszyna znalazłaby się na 25. miejscu najnowszej listy najpotężniejszych komputerów na świecie. Nowy system powstanie w ramach IBM-owskiej inicjatywy "Big Green". Zgodnie z założeniami koncernu, superkomputery mają zużywać o 40% mniej energii, a jednocześnie zapewniać pięciokrotnie więcej mocy obliczeniowej. Nowy klaster będzie używany głownie do modelowania klimatu. Zajmie się też analizowaniem aktywności Słońca i danych z kosmosu. Jego pierwszym zadaniem będzie zaś stworzenie modeli klimatycznych dla obecnego wieku, ponowna analiza obecnie wykorzystywanych modeli oraz zbadanie wpływu aktywności słonecznej na naszą planetę.
  19. Cray, jeden z najbardziej znanych producentów superkomputerów, we współpracy z Microsoftem zaprezentował najtańszy superkomputer w swojej ofercie. Cena maszyny CX1 rozpoczyna się już od 25 000 dolarów. W najdroższej konfiguracji kosztuje zaś ona ponad 60 tysięcy USD. W skład maszyny wchodzi do 8 węzłów i do 16 dwu- lub czterordzeniowych procesorów Intel Xeon. Każdy z węzłów może obsłużyć do 64 gigabajtów pamięci operacyjnej, a przestrzeń dyskowa CX1 wynosi do 4 terabajtów. Maszyna jest na tyle niewielka (jej wymiary to 31x44,5x90,5 cm), że może stać pod biurkiem i pełnić rolę "osobistego" superkomputera. Superkomputer sprzedawany jest z preinstalowanym systemem Microsoft HPC Server 2008. Na specjalnie życzenie klienta Cray może jednak zastąpić go systemem Red Hat Enterprise Linux. Firma nie podaje wyników testów wydajności maszyny w jej najbardziej wydajnej konfiguracji, zapewnia jednak, że w roku 2004 CX1 znalazłby się na liście TOP 500. Oznacza to, że maszyna jest w stanie wykonać od 624 miliardów do niemal 36 bilionów operacji zmiennoprzecinkowych w ciągu sekundy. Współpraca Craya i Microsoftu dowodzi, że gigant z Redmond poważnie interesuje się rynkiem HPC (High Performance Computing).
  20. The Register dotarł do dokumentów, z których wynika, że IBM przygotowuje ośmiordzeniowy procesor Power7. Błękitny Gigant będzie sprzedawał je w dwuprocesorowych modułach, a więc klienci będą mogli nabyć co najmniej 16 rdzeni. Wydajność każdego z nich wynosi 32 gigaflopsy, a więc wydajność procesora to 256 GFlops. To dwukrotnie więcej niż wydajność dwurdzeniowego Power6, który taktowany jest zegarem o częstotliwości 5 GHz. Power7 będzie współpracował ze znaczne wolniejszym zegarem. The Register powołuje się na dokumenty, w których czytamy, że Power7 trafi na rynek w 2010 roku, zostanie wykonany w procesie 45 nanometrów i będzie taktowany 4,0 GHz zegarem. Pojedynczy rdzeń będzie wykonywał cztery wątki równocześnie. Serwis twierdzi, że na informację o Power7 natrafił w dokumentach dotyczących superkomputera, który ma powstać na zlecenie National Center for Supercomputing Applications (NCSA). Maszyna "Blue Waters" zostanie dofinansowana kwotą 208 milionów dolarów i w 2011 roku stanie na University of Illinois. Będzie to najpotężniejszy komputer, jaki kiedykolwiek stworzono. Jego wydajność ma przekraczać 10 petaflopsów. "Blue Waters" będzie zbudowany z 38 900 procesorów Power7 i zostanie wyposażony w 620 terabajtów pamięci operacyjnej i 26 petabajtów przestrzeni dyskowej. Ponadto IBM zaoferuje exabajt przestrzeni do archiwizowania danych.
  21. IBM pokazał najbardziej wydajny z superkomputerów pracujących zarówno pod kontrolą systemów Linux, jak i Windows. System Akka pracuje w High Performance Computing Center North (HPC2N) na północy Szwecji. Akka to klaster składający się z 672 węzłów. Każdy z nich tworzą dwa energooszczędne czterordzeniowe układy Xeon L5420 oraz 16 gigabajtów pamięci RAM. W sumie Akka korzysta z 5376 rdzeni i 10,7 TB RAM oraz 100 terabajtów przestrzeni dyskowej. Teoretyczna wydajność superkomputera wynosi 53,8 teraflopsa. Podczas testu LINPACK osiągnął on wydajność rzędu 46,04 TFlops, co na obecnie obowiązującej liście superkomputerów TOP500 dałoby mu 23. miejsce na świecie. Jutro (18 czerwca) zostanie opublikowana nowa lista i wówczas przekonamy się, które ostatecznie miejsce zajmie Akka. Fakt, że superkomputer działa też pod kontrolą systemu Windows to wynik ostatnich wysiłków Microsoftu, który postanowił zaistnieć na rynku HPC (High Performance Computing). Koncern z Redmond chce pokazać, że skoro jego system operacyjny dla klastrów (Windows High Performance Computing Server) nadaje się dla superkomputerów, to obsłuży również mniejsze firmowe maszyny tego typu. Co ciekawe, część klastra będzie korzystała też z procesorów Power oraz CellBE. Będą używane one przede wszystkim do prac nad nowymi algorytmami przetwarzania równoległego. Akka zostanie uruchomiony 25 czerwca. Od tego dnia jego użytkownicy będą mogli korzystać z systemu Linux. Windows zostanie zainstalowany i udostępniony jesienią bieżącego roku.
  22. Superkomputer RoadRunner przekroczył barierę petaflopsa. Nowo powstała maszyna wykonuje 1,026 biliarda operacji zmiennoprzecinkowych na sekundę. RoadRunner kosztował 133 miliony dolarów i jest dziełem specjalistów z IBM-a oraz z Los Alamos National Laboratory. Komputer będzie wykorzystywany przede wszystkim do tajnych projektów wojskowych związanych z bronią jądrową. Mo obliczeniowa maszyny zostanie też udostępniona naukowcom zmagającym się z takimi problemami, jak modelowanie zmian klimatycznych. Thomas D'Agostino z National Nuclear Administration mówi, że gdyby wszyscy mieszkańcy Ziemi otrzymali kalkulatory i używaliby ich przez 24 godziny na dobę i 7 dni w tygodniu wykonywałby obliczenia, to przez 46 lat dokonaliby tylu obliczeń, ilu RoadRunner dokonuje w ciągu doby. Superkomputer jest klastrem składającym się z 6912 dwurdzeniowych procesorów Opteron oraz 12 960 procesorów Cell eDP. Procesory Opteron korzystają z 55 terabajtów pamięci operacyjnej, a układy Cell mają do dyspozycji 52 terabajty. Tak więc w sumie RoadRunner dysponuje 107 TB RAM. RoadRunner składa się z 296 szaf i zajmuje powierzchnię 511 metrów kwadratowych. Do osiągnięcia swojej szczytowej teoretycznej wydajności (1,33 PFlops z procesorów Cell + 49,8 TFlops z procesorów Opteron) wymaga 3,9 megawata mocy, co oznacza, że na każdy wat przypada aż 0,35 gigaflopsa. Na RoadRunnerze mogą działać systemy operacyjne RHEL (Red Hat Enterprise Linux) oraz Fedora Linux.
  23. W najnowszej edycji TOP500, listy 500 najpotężniejszych superkomputerów, znalazły się aż 3 maszyny z Polski. Tak wielu najbardziej wydajnych komputerów nasz kraj nie miał od 1995 roku. Pierwszym polskim superkomputerem na TOP500 (lista z czerwca 1995 roku) był Power Chellenge autorstwa SGI, który znalazł się 486. pozycji. W grudniu 1995 mieliśmy już trzy superkomputery SP2/15, z których najbardziej wydajny trafił na 479. pozycję. Czerwiec roku 1996 to dwie polskie maszyny. Bardziej wydajna z nich, SPP1200/XA-32 uplasowała się na 406. miejscu. W listopadzie 1996 komputer był już samotnym przedstawicielem naszego kraju. Zajmował 408. miejsce. Pół roku później Polskę reprezentuje, na 434. pozycji, samotny T3E. Nasz kraj na kilka lat wypada z listy superkomputerów. Ponownie pojawia się w czerwcu 2000 roku z maszyną HPC 1000 400 MHz Cluster autorstwa Suna, który zajmuje 242. pozycję. Mija pół roku i polska maszyna spada na 467. miejsce. W czerwcu 2001 roku HPC 10000 wypada z listy, ale pojawia się na niej ORIGIN 3000 500 MHz (376. pozycja). Polska jest nieobecna do listopada 2003 roku, kiedy to na listę trafia słynny Hołk i zajmuje na niej 231. miejsce. W czerwcu 2004 Hołk spada na 487. pozycję, ale na miejscu 366. pojawił sie SuperDome 875 MHz/HperPlex. Przez kilka lat żaden superkomputer nie reprezentuje Polski, aż w listopadzie ubiegłego roku na listę trafia BladeCenter HS21 Cluster (426. miejsce). Obecna edycja listy to trzy polskie superkomputery: - Galera (45. pozycja), - Cluster Platform 3000 BL460c (274. miejsce) oraz - Nova ACTION (318. pozycja). Szerzej o polskich superkomputerach i najnowszej liście TOP500 piszemy w artykule "Pierwsza taka lista TOP500".
  24. Naukowcy z Lawrence Berkeley National Laboratory (LBNL) proponują stworzenie superkomputera, który będzie wykorzystywał energooszczędne wbudowane procesory, montowane zwykle w urządzeniach przenośnych, takich jak telefony komórkowe czy odtwarzacze MP3. Zdaniem Michaela Wehnera i Lenny Olikera z LBNL oraz Johna Shalfa z National Energy Research Scientific Computing Center, taka maszyna przyda się do tworzenia modeli pogodowych. Proponowany przez nich komputer miałby zająć się precyzyjnym wyliczaniem zachmurzenia. Obecnie wykorzystywane modele pogodowe korzystają z modułów odpowiedzialnych za symulację tworzenia się chmur, jednak nie są one dokładne. Uczeni chcą stworzyć superkomputer, który będzie w stanie wyliczyć szczegółowy model chmur rozciągniętych na przestrzeni kilometra. Naukowcy mówią, że do stworzenia takiego modelu potrzebny jest komputer tysiąckrotnie potężniejszy od obecnie wykorzystywanych superkomputerów. Wybudowanie takiego superkomputera przy użyciu tradycyjnych podzespołów kosztowałoby około miliarda dolarów. Stworzona w ten sposób maszyna potrzebowałaby do pracy około 200 megawatów energii. To ilość wystarczająca do zasilania 100-tysięcznego miasta. Tymczasem Wehner, Oliker i Shalf twierdzą, że równie dobrze superkomputer można stworzyć z 20 milionów mikroprocesorów, z których obecnie buduje się telefony komórkowe i iPody. Maszyna taka kosztowałaby około 75 milionów USD, zużywała mniej niż 4 megawaty mocy, a jej szczytowa wydajność obliczeniowy wynosiłaby aż 200 petaflopsów.
  25. Cray, legendarny producent superkomputerów, podpisał z Intelem umowę, na podstawie której będzie wykorzystywał produkty i technologie półprzewodnikowego giganta w produkowanych przez siebie maszynach. Dotychczas Cray używał procesorów AMD i technologii HyperTransport. Od 2011 roku w ofercie producenta superkomputerów pojawią się procesory Intela i technologia QuickPath Interconnect (QPI). Peter Ungaro, szef Craya, stwierdził, że jego firma nie porzuca AMD. "Będziemy używali produktów obu firm i damy konsumentom wybór". Na podstawie podpisanej właśnie umowy Cray i Intel będą pracowały nad połączeniem intelowskiego QPI z własnymi technologiami Craya. Ponadto współpraca będzie dotyczyła też technologii budowy procesorów. Cray stosuje bowiem własne wielowątkowe rozwiązania zoptymalizowane pod kątem wykorzystania ich w superkomputerach.
×
×
  • Dodaj nową pozycję...