Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'superkomputer' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 68 wyników

  1. Jak donosi PC World Komputer, na Politechnice Gdańskiej stanął najpotężniejszy komputer w Polsce i 9. pod względem wydajności w Europie. W uroczystości uruchomienia Galery wzięli udział m.in. Lech Wałęsa i prezes Intela Paul Otellini. Moc obliczeniowa 7-tonowego komputera to 50 teraflopsów. Superkomputer korzysta z 1344 czterordzeniowych Xeonów Intela. Tworzą one 336 węzłów, a każdy węzeł składa się z dwóch płyt głównych, na których umieszczono po dwa procesory. Całość umieszczono w 27 szafach połączonych siecią InfinoBand o przepustowości 20 Gb/s. Galera ma do dyspozycji 5,3 terabajta pamięci operacyjnej i 107,5 TB przestrzeni dyskowej. Superkomputer będzie wykorzystywany przede wszystkim do modelowania procesów zwijania białek oraz badań związanych z lotnictwem.
  2. Nvidia twierdzi, że za cztery lata aż trzy z pięciu najpotężniejszych na świecie komputerów będzie korzystało z procesorów graficznych, a nie z CPU. Obaj główni producenci GPU – ATI i Nvidia – już od pewnego czasu mówią o wykorzystaniu ich produktów do obliczeń niezwiązanych z przetwarzaniem grafiki. Takie rozwiązanie może być bardzo korzystne dla właścicieli superkomputerów. Obecnie maszyny te korzystają nawet z dziesiątków czy setek tysięcy procesorów. Współczesne GPU charakteryzują się większą mocą obliczeniową niż CPU, tak więc komputer o tej samej mocy wymagałby zastosowania mniejszej liczby kości. To oznacza, że zarówno jego zbudowanie jak i utrzymanie (tutaj mowa jest przede wszystkim o kosztach energii elektrycznej) byłoby tańsze. Jako przykład niech posłuży superkomputer BlueGene/L. Obecnie jego maksymalna wydajność wynosi 596 teraflopsów. Maszyna korzysta z 213 000 procesorów PowerPC 440. Maksymalna wydajność najnowszych GPU to około 0,5 Tflops. Oznacza to, że BlueGene/L mógłby wykorzystywać mniej więcej 1200 procesorów graficznych w miejsce 213 000 CPU. Do wykorzystania GPU w superkomputerach droga jednak daleka. Należy nie tylko przekonać producentów tych maszyn, by zechcieli używać chipów graficznych, ale również odpowiednio przygotować architekturę i oprogramowanie najpotężniejszych maszyn na świecie.
  3. IBM poinformował, że Moskiewski Uniwersytet Państwowy złożył zamówienie na maszynę BlueGene. Superkomputer, który stanie w stolicy Rosji będzie wykonywał 27,8 miliarda operacji zmiennoprzecinkowych na sekundę (27,8 GFlops). Ma zostać wykorzystany do badań nad nanotechnologią oraz w pewnych specyficznych zastosowaniach, jak np. przy modelowaniu serca. Wydział Matematyki Obliczeniowej uniwersytetu zapłacił już około 5 milionów dolarów za dwa moduły superkomputera, które mają rozpocząć pracę w kwietniu bieżącego roku. Ich konstrukcja umożliwia dalszą rozbudowę i zwiększanie wydajności maszyny. Nowy rosyjski superkomputer będzie najpotężniejszą maszyną, jaka kiedykolwiek istniała na terenie byłego Związku Radzieckiego. Urządzenie trafi do pierwszej pięćdziesiątki listy TOP500, na której wymieniono 500 najbardziej wydajnych komputerów na świecie. BlueGene/L, najpotężniejszy superkomputer świata, który jest wykorzystywany przez amerykański Departament Energii, wykonuje ponad 478 miliardów operacji zmiennoprzecinkowych w ciągu sekundy.
  4. Badacze IBM-a uważają, że w przyszłości możliwe będzie stworzenie superkomputera wielkości laptopa. Koncern uważa, że do komunikacji pomiędzy rdzeniami procesora można wykorzystać światło zamiast elektryczności, a to stukrotnie zwiększyłoby prędkość przesyłu danych. IBM pracuje nad technologią zwaną krzemową nanofotoniką. Ma ona pozwolić na zastąpienie miniaturowymi światłowodami przynajmniej części tradycyjnych połączeń w układzie scalonym. Jak zapewnia Will Green, jeden z badaczy IBM-a, takie rozwiązanie powoduje, że dane przesyłane są 100-krotnie szybciej, a do ich przekazania potrzeba 10-krotnie mniej energii. To z kolei niezwykle ważny czynnik, gdyż koszty związane z użytkowaniem superkomputerów są bardzo duże. Green dodaje, że podstawowe założenia krzemowej nanofotoniki są podobne do tych, na podstawie których stworzono kable optyczne wykorzystywane w Internecie. Różnica jest taka, że tutaj informacje przesyłane są na odległość liczoną w centymetrach. Zdaniem IBM-owskiego badacza dzięki nowej technologii laptopy i komputery biurkowe osiągną moc dzisiejszych superkomputerów. „Będziemy mogli w jednym układzie scalonym umieścić setki czy tysiące rdzeni” – mówi Green. Dodaje, że pierwsze układy korzystające z krzemowej nanofotoniki mogą powstać za 10-12 lat. Obwody elektryczne nie nadają się do budowania tak potężnych procesorów, o których wspomina Green. Wydzielają zbyt dużo ciepła, zbyt wolno przekazują dane, a sygnał elektryczny może w nich wędrować pomiędzy rdzeniami na odległość najwyżej kilku milimetrów. IBM-owskie badania nad krzemową nanofotoniką są współfinansowane przez DARPA.
  5. Firma Yahoo, choć jest najbardziej znana ze swoich portali, daje o sobie znać również w innych dziedzinach informatyki. Najnowszym dokonaniem amerykańskiego giganta jest udostępnienie środowisku akademickiemu potężnego klastra superkomputerowego. Maszyna nosząca nazwę M45 ma parametry budzące szacunek niezależnie od tego, czy jej moc do czegokolwiek mogłaby nam posłużyć: trzy terabajty pamięci operacyjnej, 1,5 petabajta (około 1500 terabajtów) przestrzeni dyskowej oraz teoretyczne maksimum mocy obliczeniowej przekraczjące 27 teraflopów. Możliwości te plasują komputer w pierwszej pięćdziesiątce superkomputerów na świecie. M45 składa się z 4000 procesorów, które będą pracować nad takimi problemami, jak przetwarzanie języka naturalnego, grafika komputerowa czy doskonalenie technik zdobywania informacji. Działanie urządzenia nadzoruje oprogramowanie Hadoop, opracowane jako jeden z projektów Open Source. Co ciekawe, jednym z kierunków badań ma być optymalizacja pracy klastrów komputerowych. Oznacza to, że M45 w pewnym sensie będzie mógł się samodoskonalić.
  6. Na liście 500 najpotężniejszych superkomputerów świata znalazła się jedna polska maszyna. To komputer BladeCenter HS21 Cluster autorstwa IBM-a. Zbudowany został przy użyciu 3-gigahercowych procesorów Xeon 51xx i osiąga wydajność 6,35 teraflopsa. Maszyna należy do jednej z firm telekomunikacyjnych i zajmuje 428. pozycję na liście. Poza tym na 30., jubileuszowej, liście zaszły znaczące zmiany. W pierwszej dziesiątce znalazło się aż pięć nowych maszyn, a jedna ze „starych” została znacząco zmodyfikowana. Tym zmodyfikowanym komputerem jest BlueGene/L IBM-a, który już od trzech lat zajmuje 1. pozycję. Po rozbudowie osiągnął on w teście Linpack wydajność rzędu 478,2 TFlops (478,2 biliona operacji zmiennoprzecinkowych na sekundę). Jeszcze pół roku temu jego wydajność wynosiła 280,6 TFlops. Na drugim miejscu znajdziemy kolejną maszynę zbudowaną przez Błękitnego Giganta. To debiutant, system BlueGene/P, zwany Jugene. Superkomputer zainstalowany jest w niemieckim Forschungszentrum Juelich i osiąga wydajność rzędu 167,3 TFlops. Trzecie miejsce przypadło kolejnemu debiutantowi, komputerowi SGI Altix ICE 8200 z właśnie tworzonego centrum superkomputerowego w Nowym Meksyku. Jego wydajność to 126,9 teraflopsów. Czwartą pozycję na liście po raz pierwszy w historii zajął komputer z Indii. Maszyna HP Cluster Platform 3000 BL460c jest w stanie wykonać 117,9 biliona operacji zmiennoprzecinkowych w ciągu sekundy. Na piątym miejscu uplasował się kolejny debiutant – superkomputer HP Cluster Platform BL460c o wydajności 102,8 teraflopsa. Należy on do jednej ze szwedzkich agend rządowych. Ostatnim debiutantem wśród 10 rekordzistów jest Cray XT4. Znalazł się on na dziewiątym miejscu, a jego wydajność to 85,4 teraflopsa. Największymi producentami superkomputerów są IBM i HP. Pierwszy z wymienionych koncernów zbudował 232 (46,4%) maszyn z listy TOP500, a drugi jest autorem 166 (33,2%) systemów. Obecnie, by dostać się na listę TOP500 superkomputer musi charakteryzować się wydajnością co najmniej 5,9 TFlops. Jeszcze pół roku temu wystarczyło 4,0 teraflopsów. System, który obecnie znajduje się na ostatnim miejscu, jeszcze pół roku temu zajmowałby 255. pozycję na liście. Obecny przyrost mocy jest większy od średniego. Moc obliczeniowa wszystkich komputerów na liście wynosi w sumie 6,97 petaflopsów. Jeszcze pół roku temu było to 4,92 PFlops, a przed rokiem niemal dwukrotnie mniej – 3,54 PFlops. Większość superkomputerów używa procesorów wielordzeniowych. Najbardziej imponującym wzrostem zainteresowania mogą poszczycić się intelowskie czterordzeniowce z rodziny Clovertown. Przed pół roku wykorzystywało je 19 superkomputerów, teraz znajdują się w 102 maszynach. Aż 354 superkomputery (70,8%) korzystają z procesorów Intela. Jeszcze nigdy w historii udział tej firmy w liście TOP500 nie był tak duży. Pół roku temu były one stosowane w 289 systemach (57,8%). Drugie miejsce zajmują układy AMD, które zainstalowano w 78 komputerach (15,6%). Oznacza to spadek w porównaniu z listą sprzed 6 miesięcy, kiedy to CPU AMD były obecne w 105 superkomputerach (21%). Trzecie miejsce należy do IBM-a. Procesory Power wykorzystano w 61 systemach (pół roku temu było to 85 superkomputerów). Największym krajem pod względem liczby zainstalowanych superkomputerów pozostają Stany Zjednoczone. Na ich terenie stoją 284 maszyny z listy TOP500. Drugie miejsce zajmują kraje europejskie (149 systemów), a trzecie Azja (58 superkomputerów). W Europie najwięcej tego typu maszyn jest używanych w Wielkiej Brytanii (48) i Niemczech (31). Najpopularniejszą rodziną systemów operacyjnych jest Linux. Korzysta z niego aż 426 superkomputerów. Drugie pod względem popularności są systemy mieszane (34 maszyny) oraz Unix (30 komputerów). Warto też zauważyć, że rośnie udział systemów Microsoftu. Koncern z Redmond poważnie zainteresował się rynkiem HPC i w chwili obecnej system Windows Compute Cluster Server 2003 zainstalowano na 6 superkomputerach. Jeszcze pół roku temu był on zainstalowany na 2 maszynach, a przed rokiem na żadnej.
  7. Microsoft coraz większą wagę przywiązuje do rynku superkomputerów. Najlepszym tego dowodem jest fakt, że gigant z Redmond zatrudnił właśnie Dana Reeda, znanego specjalistę ds. superkomputerów. Reed dołaczy do działu Microsoft Research, w którym będzie dyrektorem odpowiedzialnym za badania nad najbardziej wydajnymi maszynami. Nowy pracownik Microsoftu był dotychczas dyrektorem Renaissance Computing Institute na Uniwersytecie Północnej Karoliny. Pracuję nad przetwarzaniem równoległym przez całe moje życie zawodowe, a pojawienie się wielordzeniowych układów spowodowało, że przetwarzanie równoległe stało się jednym z najważniejszych problemów informatyki – mówi Reed. Będzie on współpracował z Burtonem Smithem, innym guru ds. superkomputerów, który dołączył do Microsoftu w 2005 roku. W ubiegłym roku w jednym z wywiadów Smith wspominał o dwóch językach, które rozwija w Microsofcie. Sam Reed informuje: Moim podstawowym zadaniem będzie praca nad olbrzymimi bazami danych, a w drugiej kolejności nad architekturami wielordzeniowymi. Burton Smith zajmuje się tymi samymi problemami, ale w odwrotnej kolejności, więc będziemy ze sobą współpracowali. Reed po rozpoczęciu pracy w Microsoftcie zachowa swoje stanowisko w grupie doradców ds. technologii i nauki przy prezydencie USA oraz nadal będzie przewodniczącym Computing Research Association, która skupia akademickie i przemysłowe centra badawcze Ameryki Północnej. W przeszłości Reed był dyrektorem National Center for Supercomputing Applications na Uniwersytecie Stanowym Illinois oraz głównym architektem programu TeraGrid, prowadzonego przez Narodową Fundację Nauki. Zatrudnienie w Microsofcie będzie dla Reeda pierwszą pracą w sektorze przemysłowym.
  8. O Top500, liście 500 najpotężniejszych superkomputerów na świecie, słyszeli wszyscy chyba miłośnicy komputerów. Teraz przyszedł czas na listę Green500. Jest ona opracowywana przez naukowców z Virginia Tech i ma być uzupełnieniem Top500. Green500 to lista 500 najbardziej energooszczędnych superkomputerów. Jej pomysłodawcy zwracają uwagę, że budowanie komputerów pod kątem osiągnięcia przez nie jak największej wydajności jest prostsze, niż wzięcie pod uwagę innych czynników. Znacznie trudniej jest konstruować maszynę, która będzie nie tylko wydajna, ale i energooszczędna, czyli takiej, która osiągnie bardzo dobry stosunek wydajności do zużycia energii. Lista Green500 ma pokazać, który z producentów superkomputerów oferuje maszyny najwydajniejsze pod względem wykorzystania energii. Pełna lista zostanie zaprezentowana jeszcze w bieżącym miesiącu. Do jej ułożenia zostaną wykorzystane dane dotyczące zużycia energii podczas testu Linpack. Obecnie udostępniono bardzo krótkie, wstępne zestawienie Green500, które prezentujemy poniżej. Miejsce na Green500 Maszyna i producent Miejsce na Top500 Wydajność w teście Linpack (GFLOPS) TRP (kW)* MFLOPS/W 1. BlueGene/L (IBM) 1. 280.600 1494 187,79 2. Mare Nostrum (IBM) 5. 62.630 788 79,48 3. Jaguar-Cray XT3 (Cray) 10. 43.480 1331 32,67 4. Columbia (SGI) 4. 51.870 1950 26,59 5. ASC Purple (IBM) 3. 75.760 3952 19,17 6. Earth Simulator (NEC) 14. 35.860 7000 5,12 7. ASC Q (HP) 40. 13.880 3000 4,63 8. ASC White (IBM) 90. 7.304 3000 2,43 *Total Rated Power - energia zużywana przez sam komputer, bez systemu chłodzącego
  9. Szkoccy naukowcy stworzyli niewielki superkomputer, który nie wykorzystuje procesorów. Komputer Maxwell powstał na uniwersytecie w Edynburgu, a jego twórcą jest FPGA High Performance Computing Alliance (FHPCA). Zamiast procesorów wykorzystuje on 64 programowalne układy logiczne FPGA firmy Xilinx. Całość zamknięto w obudowie IBM-a przeznaczonej dla serwerów typu blade. Układy są osobno programowane do każdego zadania i to w taki sposób, by otrzymywały tylko i wyłącznie instrukcje konieczne do jego wykonania. Dzięki temu pracują one z maksymalną wydajnością. FHPCA twierdzi, że wart 3,6 miliona funtów system jest 10-krotnie bardziej wydajny i 300-krotnie szybszy od tradycyjnych superkomputerów porównywalnej wielkości. Jednocześnie do pracy potrzebuje 10 razy mniej energii. Maxwell będzie wykonywał zadania typowe dla superkomputerów. Zostanie więc zaangażowany do obróbki danych sejsmologicznych, finansowych oraz do modelowania czy zadań obronnych. Przed zbytnim optymizmem dotyczącym Maxwella ostrzegają jednak sami jego twórcy. Układy FPGA są trudne w programowaniu i może się to stać główną przeszkodą na drodze upowszechnienia się bezprocesorowych superkomputerów. Mark Persons, dyrektor Edinburgh Parallel Computing Centre, mówi, że następnym krokiem będzie zachęcenie biznesu i środowiska naukowego do używania Maxwella oraz prace nad uproszczeniem tworzenia oprogramowania dla tego typu maszyn.
  10. Opublikowano kolejną edycję listy TOP500, czyli zestawienia 500 najpotężniejszych superkomputerów świata. W bieżącej edycji nie znalazł się jeszcze, co zrozumiałe, Blue Gene/P, o którym pisaliśmy wczoraj. Numerem 1. wciąż więc jest Blue Gene/L. Na liście zaszły znaczne zmiany, szczególnie w czołówce. Swoją pozycję umocniła firma Cray, której superkomputery zajęły 2. i 3. miejsce. Jedną z ciekawych zmian jest fakt, że w czołowej 500 znalazły się dwie maszyny wykorzystujące Windows Compute Cluster Server 2003. Dotychczas na superkomputerach spotykane były pojedyncze instalacje systemów Windows 2000 czy Windows Server 2003. Nie cieszyły się one zbytnią popularnością o czym świadczy chociażby fakt, że na liście z października 2006 nie było już żadnego superkomputera z systemem Microsoftu. Windows Compute Cluster Server 2003 to pierwszy system z Redmond, który powstał z myślą o najbardziej wydajnych maszynach. Najbliższe edycje listy (publikowana jest ona co pół roku), powinny pokazać nam, czy Microsoft ma szanse na zaistnienie na rynku superkomputerów. Niekwestionowanym liderem zestawienia systemów operacyjnych dla superkomputerów jest jednak Linux, który zainstalowano na 77,8% maszyn z TOP500. Drugie miejsce zajmuje Unix (12%). Maszyna, aby zostać wpisaną na obecną listę musi charakteryzować się wydajnością co najmniej 4,005 teraflopsa. Jeszcze pół roku temu wystarczyło 2,737 TFlops. Co więcej, komputer, który obecnie znajduje się na miejscu 500. przed sześcioma miesiącami zająłby 216. pozycję. To największy skok w 15-letniej historii projektu TOP500. Bardzo dobrze świadczy to ogromnym zapotrzebowaniu na moce obliczeniowe i przyspieszeniu prac nad superkomputerami. Łączna moc obliczeniowa 500 maszyn z listy wyniosła 4,92 petaflopsa. To dużo więcej niż 3,54 PFlops sprzed pół roku. Jednocześnie pokazuje nam jak olbrzymią mocą charakteryzuje się najnowszy superkomputer IBM-a – Blue Gene/P. Najpopularniejszymi procesorami wykorzystywanymi do budowy superkomputerów są układy Intela. Zastosowano je na 289 maszynach (57,9%). Pół roku temu do Intela „należało” 261 superkomputerów (52,5%). Rynek straciło zarówno AMD (105 systemów czyli 21% obecnie, a 113 systemów i 22,6% przed pół roku) oraz IBM (teraz 85 superkomputerów i 17-procentowy udział, wcześniej 93 maszyny i 18,6% rynku). Rynek superkomputerów zdominowały procesory dwurdzeniowe. Olbrzymim sukcesem mogą pochwalić się Woodcresty Intela. Jeszcze sześć miesięcy temu wykorzystano je jedynie w 31 maszynach, teraz są obecne w 205 systemach. Wzrosły też udziały dwurdzniowych Opteronów AMD, z 75 do 90 komputerów. Największym producentem pod względem liczby maszyn na TOP500 jest HP. Na liście znajdują się 202 (40,4%) komputerów tego wytwórcy. Drugie miejsce, ze 192 (38,4%) systemami zajął IBM. Inni producenci, jak Dell (23 maszyny), SGI (19) czy Cray (11) nie przekroczyli 5%. Z kolei liderem listy ułożonej pod względem wydajności zainstalowanych maszyn pozostaje IBM. W sumie wszystkie superkomputery tego producenta dostarczają 41,9% (pół roku temu było to 49,5%) mocy wszystkich 500 maszyn. Drugie miejsce (24,5% mocy, wzrost z 16,5%) zajął HP. Najwięcej superkomputerów znajduje się w USA. Stoi tam 281 najpotężniejszych maszyn na świecie. Na drugim miejscu z 42 maszynami uplasowała się Wielka Brytania, a na trzecim Niemcy, które posiadają 24 komputery z listy TOP500. Po jednym superkomputerze mają Indonezja, Nowa Zelandia, Filipiny, RPA, Turcja, Zjednoczone Emiraty Arabskie i Wietnam. Żaden z polskich superkomputerów nie dostał się na listę. Poniżej przedstawiamy 10 najpotężniejszych maszyn z TOP500: LP Właściciel komputera i kraj Nazwa i producent Procesory Wydajność (GFlops) Wydajność szczytowa (GFlops) 1 Lawrence Livermoore National Laboratory USA Blue Gene/L IBM 131072 280600 367000 2 Oak Ridge National Laboratory USA Jaguar Cray 23016 101700 119350 3 Sandia National Laboratories USA Red Storm Cray 36544 101400 127411 4 IBM Thomas J. Watson Research Center USA BGW IBM 40960 91290 114688 5 New York Center for Computational Sciences USA New York Blue IBM 36864 82161 103219 6 Lawrence Livermoore National Laboratory USA ASC Purple IBM 12208 75760 92781 7 Rensselaer Polytechnic Institute USA eServer Blue Gene Solution IBM 32768 73032 91750 8 NCSA USA Abe Dell 9600 62680 89587 9 Centro Nacional de Supercomputación Hiszpania Mare Nostrum IBM 10240 62630 94208 10 Leibniz Rechenzentrum Niemcy HLRB II SGI 9728 56520 62259 1 GFlops = 1 miliard operacji zmiennoprzecinkowych na sekundę.
  11. Nvidia, znany producent procesorów graficznych z serii GeForce, postanowiła zmienić obecnie wykorzystywane stacje robocze w urządzenia, które nazwała superkomputerami osobistymi. Firma zaoferowała procesory Tesla, oparte na GPU układy, które charakteryzuje wyjątkowo duża wydajność. Dzięki temu naukowcy czy inżynierowie potrzebujących potężnych mocy obliczeniowych nie muszą już starać się o dostęp do superkomputerów. Wiele zadań będą mogli wykonać dzięki Tesli zainstalowanej w swoich stacjach roboczych. W ramach rodziny Testla Nvidia proponuje:procesor GPU Nvidia Tesla zamontowany na dedykowanej karcie rozszerzeń. GPU Tesla składa się ze 128 procesorów równoległych a jego moc obliczeniowa dochodzi do 518 gigaflopsów (518 miliardów operacji zmiennoprzecinkowych na sekundę);superkomputer desksite Nvidia Tesla, czyli rozszerzalny system obliczeniowy zawierający dwa procesory Tesla, który można podłączyć do peceta lub stacji roboczej za pomocą adaptera PCI Express. Nvidia zapewnia, że takie rozwiązanie będzie charakteryzowało się mocą obliczeniową rzędu 8 teraflopsów (8 bilonów operacji zmiennoprzecinkowych na sekundę). Wynik jest o tyle szokujący, że 8-teraflopsowy system uplasowałby się na 84. miejscu listy 500 najpotężniejszych superkomputerów na świecie;serwer obliczeń GPU Nvidia Tesla, który zawiera do ośmiu procesorów Tesla i oferuje teraflopy mocy obliczeniowej.Nvidia zapewnia, że Tesla, dostarczona już firmom i ośrodkom naukowym zapewniła wzrost wydajności systemów komputerowych od 45 do 415 razy. Tesla uzyskała takie wyniki podczas pracy z bazą danych sejsmicznych, symulowania neuronów, chmur czy w czasie przetwarzania obrazów rezonansu magnetycznego.
  12. Amerykańscy naukowcy z Almaden Research Lab IBM-a oraz University of Nevada odtworzyli na superkomputerze BlueGene/L działanie mysiego mózgu. Zgodnie z danymi BBC, połowa mózgu gryzonia to ok. 8 milionów neuronów, a każdy tworzy do 8 tys. synaps. Maszyna zdolna do symulacji niezwykle złożonych procesów żywej kory gryzonia musiała zawierać 4096 procesorów, z których każdy dysponował 32 megabajtami pamięci. W ten sposób wirtualny mózg składał się z 8 tysięcy komórek nerwowych, a każda z nich tworzyła do 6.300 synaps. Eksperyment był tak skomplikowany, że mógł trwać tylko 10 sekund, zaś tempo dokonywania operacji nawet przeciętna mysz uznałaby za niskie (był to odpowiednik 1 sekundy czasu rzeczywistego). James Frye, Rajagopal Ananthanarayanan i Dharmendra S. Modha podsumowali uzyskane wyniki w publikacji pt. "Towards Real-Time, Mouse-Scale Cortical Simulations" (W kierunku przebiegającej w czasie rzeczywistym symulacji korowej mysiego mózgu). Oprócz "dużej" symulacji przeprowadzono także kilka pomniejszych. Udało się uzyskać "biologicznie spójne właściwości dynamiczne" w postaci impulsów nerwowych widocznych w obrębie sztucznej kory mózgowej. Wzorce rozchodzenia się pobudzenia przypominały te istniejące w naturze (były m.in. skoordynowane). W dodatku neurony zaczęły spontanicznie łączyć się w grupy. Odtworzono procesy, ale już nie strukturę mózgu myszy. Naukowcy nie ustają jednak w wysiłkach i pracują nad przyspieszeniem technologii, zwiększeniem jej wiarygodności neurobiologicznej, uszczegółowieniem reakcji neuronów i synaps oraz odtworzeniem anatomii mózgu, czyli struktur spotykanych w przyrodzie.
  13. Microsoftowy system dla klastrów komputerowych Windows Compute Cluster Server (CCS) zaczyna odnosić sukcesy. Obecnie rynek klastrów jest niemal całkowicie zdominowany przez Linuksa. Aby się o tym przekonać, wystarczy spojrzeć na listę TOP500, na której wymieniono 500 najpotężniejszych superkomputerów świata. To w przeważającej mierze (72,20%) klastry. Zdecydowana większość z nich, bo aż 75,20% korzysta z systemów Linux. Kolejny pod względem popularności jest Unix (17,20%). Windows jest na klastrach zupełnie nieobecny. Sytuacja jednak powoli ulega zmianie. Microsoft tworząc CCS nie miał zamiaru konkurować na rynku superkomputerów. Koncern postanowił skierować swoją ofertę do właścicieli mniejszych klastrów. I, jak wszystko na to wskazuje, był to strzał w dziesiątkę. To zachęcający rynek, którym nikt się jeszcze nie zainteresował. Gdy Microsoft pokazał CCS byliśmy dość sceptyczni, ale idzie im znacznie lepiej, niż się spodziewaliśmy – mowi John Enck, analityk firmy Gartner. Windows Compute Cluster Server zakupił na przykład South Florida Water Management District. System Microsoftu pracuje na niewielkim, składającym się z pięciu maszyn, klastrze, który jest odpowiedzialny za zarządzanie przepływem wody w ramach wartego miliardy dolarów projektu rewitalizacji bagien w Everglades National Park. Wspomniana organizacja korzysta też ze znacznie większego linuksowego klastra, ale używa również windowsowych programów do modelowania, które, dzięki zainstalowaniu CCS, z łatwością przeniesiono na klaster. Innym klientem Microsoftu został Virginia Polytechnic Institute. CCS działa tam na 16-serwerowym klastrze i służy do badań nad zagadnieniami dotyczącymi transportu oraz nad modelowaniem molekuł związanych z badaniami nad nowotworami. Microsoft zaczyna, co prawda, odnosić sukcesy, ale przed koncernem jeszcze sporo pracy. Firma musi walczyć z niechęcią użytkowników. Gdy, na przykład, firma SGI, która specjalizuje się w produkcji wysoko wydajnych systemów komputerowych (HPC – high-performance computing), ogłosiła, że oprócz Linuksa będzie oferowała swoim klientom system CCS, spotkało się to z bardzo chłodnym przyjęciem. Rynek HPC jest od dziesiątków lat związany z rozwiązaniami bazującymi na Uniksie i Linuksie – wyjaśnia analityk Carl Claunch z Gartnera. Środowisko uniwersyteckie jest bardzo przywiązane do Linuksa. Pozycja tego systemu na rynku HPC jest bardzo silna. Linux ma na rynku klastrów tę przewagę nad Windows, że jest to rozwiązanie dobrze znane, dojrzałe, istnieje na niego wiele programów, a sam system nieraz udowodnił, że jest łatwo skalowalny i może działać na potężnych klastrach, komentuje Claunch. Tymczasem Shawn Hansen, odpowiedzialny w Microsofcie za rynek HPC, zapowiada, że wraz z drugą wersją CCS zostanie wprowadzonych wiele zmian, które pozwolą temu systemowi lepiej konkurować z innymi rozwiązaniami. Jego firma podpisała już zresztą umowy o współpracy z takimi producentami klastrów jak IBM, Dell, SGI czy HP. CCS version 2 ma bazować na architekturze Longhorn Server, czyli następcy Windows Server 2003. Longhorn Server trafi na rynek jeszcze w bieżącym roku. Nie wiadomo natomiast, kiedy nastąpi premiera CCS v2.
  14. Amerykański Urząd Badań Atmosfery i Oceanów (National Oceanic & Atmospheric Administration) poinformował o uruchomieniu swoich dwóch najnowszych superkomputerów. Maszyny zbudowano w ubiegłym roku i znalazły się na 36. oraz 37. miejscu listy TOP500, prezentującej 500 najpotężniejszych superkomputerów na świecie. Każda z maszyn NOAA jest w stanie wykonać 14 bilionów operacji zmiennoprzecinkowych w ciągu sekundy (14 teraflopsów), natomiast ich najwyższa zmierzona wydajność to 18 bilionów operacji na sekundę (18 TFlops). Każdego dnia obie maszyny przetworzą dane z 240 milionów obserwacji pogodowych pochodzących z całego globu. Zbierają też informacje pochodzące z Constellation Observing System for Meteorology, Ionosphere and Climate (COSMIC) – sieci 6 satelitów pogodowych wystrzelonych przez NOAA w ubiegłym roku. Każdy z superkomputerów składa się ze 160 serwerów System p575 firmy IBM, z których każdy wykorzystuje 16 procesorów Power5+ pracujących z częstotliwością 1,9 GHz. Tak więc oba komputery używają w sumie 5120 procesorów. Każdy z nich ma też do dyspozycji macierz dyskową DS4800 o pojemności 160 terabajtów.
  15. Na Uniwersytecie Tokijskim powstał układ scalony, który wyposażono w 512 rdzeni. W jego stworzeniu japońskim naukowcom pomagały firmy TSMC oraz Alchip Technologies z Tajwanu. Układ zwany Sing to część większego projektu o nazwie Grape DR. Jego celem jest zbudowanie superkomputera o mocy 2 petaflopsów, czyli 2 biliardów (2 000 000 000 000 000) operacji zmiennoprzecinkowych na sekundę. Obecnie najpotężniejszy superkomputer wykonuje ich 260 bilionów w ciągu sekundy. Sing to koprocesor matematyczny taktowany zegarem o częstotliwości 500 megaherców. Jest w stanie wykonać 512 miliardów operacji zmiennoprzecinkowych na sekundę. Charakteryzuje się też niskim poborem mocy, nie przekraczającym 60 watów. Nowa kość będzie montowana na kartach PCI Express, które następnie znajdą się w serwerach, te zaś stworzą potężny klaster. Grape DR będzie składał się z wielu mniejszych klastrów skomunikowanych łączami o przepustowości od 40 do 400 gigabitów na sekundę. W skład pojedynczego klastra wejdzie od 32 do 128 serwerów wyposażonych w karty Grape-DR z których każda będzie zawierała 8 układów Sing. Mniejsze klastry zostaną ponadto wyposażone w pamięć masową o pojemności od 50 do 400 terabajtów.
  16. DARPA, amerykańska Agencja ds. Badań nad Zaawansowanymi Projektami Obronnymi, przyznała firmom IBM i Cray 494 miliony dolarów, które mają być przeznaczone na rozwój superkomputerów. W ramach czteroletniego projektu oba koncerny mają opracować maszynę, która będzie 100-krotnie bardziej wydajna od współczesnych superkomputerów. Ma również być łatwiejsza w programowaniu, administrowaniu i użyciu. Zgodnie z założeniami projektu High Productivity Computing Systems (HPCS) w jego trzeciej fazie firmy mają zbudować superkomputer o wydajności 1 petaflopsa, czyli maszynę, zdolną do wykonania biliarda (1 000 000 000 000 000) operacji zmiennoprzecinkowych na sekundę. Obecnie najbardziej wydajny superkomputer wykonuje ich 260 bilionów w ciągu sekundy. Celem programu HPCS jest wybudowanie 2-petaflopowej maszyny, którą będzie można w przyszłości rozbudować tak, by osiągnęła wydajność 4 Pflops. IBM otrzymał 244 miliony, które przeznaczy na rozwój procesorów Power7, prace nad systemem operacyjnym AIX, systemem plików GPFS (General Parallel File System – równoległy system plików, który zapewnia dużą niezawodność i wydajny dostęp do danych użytkowanych przez klaster), środowiska Parellel Environment (PE – to środowisko projektowe i wykonawcze dla aplikacji z przetwarzaniem równoległym, zapewnia obsługę pamięci rozproszonej i komunikacji pomiędzy aplikacjami na wielu węzłach). Z kolei Cray wyda swoje 250 milionów USD na rozwój programu Cascade, nowej hybrydowej architektury, która łączy technologie wieloprocesorowe, wydajną sieć oraz oprogramowanie w jeden zintegrowany system. Cray będzie rozwijał technologie zastosowane przez AMD w procesorach Opteron, zajmie się też technologią HyperTransport.
  17. Opublikowano 28. już wydanie listy TOP500, na której wymieniono 500 najpotężniejszych superkomputerów na świecie. Na czele listy wciąż znajduje się komputer BlueGene/L produkcji IBM’a, który pracuje w Lawrence Livermore National Labolatory w USA. Jego maksymalna zmierzona moc obliczeniowa wynosi 280,6 teraflopsa, czyli 280,6 biliona operacji na sekundę. Teoretycznie jednak może on osiągnąć wydajność rzędu 367 teraflopsów. Na drugim miejscu nastąpiła zmiana. Obecnie znajduje się na nim maszyna Red Storm zbudowana przez Craya. Stojący w Sandia National Laboratories superkomputer osiągnął wydajność 101,4 biliona operacji na sekundę. Trzecie miejsce, po spadku z drugiego, należy do kolejnego produktu IBM’a o nazwie eServer Blue Gene Solution, który powstał na potrzeby Thomas J. Watson Research Center. Jego wydajność to 91,2 teraflopsów. Czwarte miejsce przypadło kolejnemu komputerowi z USA – ASC Purple, produkcji IBM’a. Znalazł się tam dzięki osiągnięciu 75,76 biliona operacji w ciągu sekundy. Dopiero na 5. miejscu napotykamy najpotężniejszy europejski komputer – MareNostrum z Barcelony. Maszyna autorstwa inżynierów z IBM’a potrafi wykonać 62 biliony 630 miliardów operacji w ciągu sekundy. Najpotężniejszy superkomputer na świecie wykorzystuje 131 072 procesory z rodziny PowerPC IBM’a. Podobnie jest w innych maszynach autorstwa Błękitnego Giganta. Blue Gene Solution to 40 960 procesorów, ASC Purple korzysta z 12 208, a MareNostrum z 10 240 CPU. W pierwszej piątce tylko Red Storm wykorzystuje inne procesory. Są to 2,4-gigahercowe dwurdzeniowe Opterony. W superkomputerze mieści się ich 26 544. Największym producentem superkomputerów na świecie jest IBM. Zbudował on 236 (czyli 47,2%) maszyn z listy TOP500. Na drugim miejscu znajduje się Hewlett-Packard ze 158 (31,6%) komputerami, następnie SGI, które stworzyło 20 superkomputerów, później zaś Dell (18) oraz Cray (15). Najczęściej w superkomputerach wykorzystywane są układy Intela. Przede wszystkim kości zbudowane w oparciu o architekturę IA-32. Na świecie znajduje się 120 superkomputerów z listy TOP500 korzystających z tych procesorów. Drugą pod względem popularności jest architektura AMD x86_64, którą znajdziemy w 113 maszynach. Kolejne miejsce należy znowu do Intela. Procesory EM64T zostały zastosowane w 108 maszynach. Na kolejnych miejscach znalazły się IBM-owskie procesory Power (91 superkomputerów) oraz IA-64 Intela (35 maszyn). Skoro już o procesorach mowa, to warto wspomnieć, że większość superkomputerów z listy wykorzystuje od 513 do 1024 procesorów. Takich maszyn jest 192. W niewielu mniej, bo 185, znajdziemy od 1025 do 2048 CPU. Na liście znajdują się natomiast jedynie 4 komputery korzystające z 32 do 64 procesorów. Natomiast jeśli chodzi o największą liczbę jednostek centralnych to wszelkie rekordy bije BlueGene/L, który jest jedynym komputerem w przedziale od 64 000 do 128 000 CPU. Mimo to jego maksymalna wydajność jest jedynie dwuipółkrotnie mniejsza, niż wydajność wszystkich 192 maszyn z przedziału 513-1024 procesory. Najwięcej, bo aż 285 superkomputerów, nie ma przydzielonego stałego zadania. Oznacza to, że wykorzystywane są w wielu różnych celach, w tym wojskowych, gdzie służą m.in. do symulacji wybuchów jądrowych. Równie dobrze jednak używane są do badania oddziaływania różnych leków czy innych związków chemicznych na białka. Przemysł półprzewodnikowy wykorzystuje 50 superkomputerów, a do zadań typowo akademickich zaprzęgnięto 46 maszyn. Finansami zajmuje się 29 tego typu maszyn, 17 służy geofizykom, a kolejne 17 wykorzystywane jest do badań nad klimatem. Superkomputery korzystają przede wszystkim z różnych odmian systemu Linux. Takich maszyn jest aż 376. Z czołowej pięćsetki 86 komputerów wykorzystuje systemy uniksowe, a 32 – mieszane. Pod kontrolą systemów z rodziny BSD pracują 3 superkomputery, tyle samo co pod kontrolą Mac OS. Najwięcej superkomputerów znajduje się w Stanach Zjednoczonych. Jest ich tam 309. Drugie miejsce w tej klasyfikacji zajmują, ex aequo, Wielka Brytania i Japonia. Biorąc jednak pod uwagę moc obliczeniową, japońskie komputery są potężniejsze. W sumie wykonują one 286,674 biliona operacji na sekundę, podczas gdy brytyjskie "tylko” 186,420 biliona. Na trzecim miejscu znowu jest remis, tym razem pomiędzy Niemcami a Chinami. W obu tych krajach pracuje po 18 superkomputerów. Dwkrotnie bardziej wydajne są jednak te niemieckie (145 teraflopsów wobec 72 Tflops). Na czwartym miejscu uplasowała się Francja z 12 superkomputerami, a na piątym 10 indyjskich maszyn. Na liście TOP500 znalazły się komputery, których wydajność wynosiła co najmniej 2,736 teraflopsa. Nie zmieściła się na niej żadna maszyna z Polski.
  18. Tajwańskie firmy Tyan Computer i Chenbro Micom zostały wybrane jako dostawcy składników nowego superkomputera, który zostanie stworzony w Tomsku, w Rosji. Przewiduje się, że będzie to najszybsza maszyna nie tylko w Rosji, lecz w całej Europie Wschodniej. Serwer składać się będzie z dwuprocesorowych płyt głównych Tyan Tempest i5000VF (S5380) oraz obudów typu rack Chenbro RM11702. Nowy klaster ma uzyskać w teście Linpack wydajność 7,8 TFLOP (biliona operacji zmiennoprzecinkowych na sekundę). Wynik taki pozwoli na uzyskanie 60. miejsca na liście TOP500 najszybszych na świecie superkomputerów. Klaster zawierać ma 283 węzły, z których każdy składa się z dwóch dwurdzeniowych procesorów Intel Xeon 5150 (Woodcrest). System, zwany SKIF Cyberia złożony zostanie przez rosyjską firmę T-Platforms, która planuje, iż będzie on gotowy pod koniec tego lub na początku przyszłego roku. Maszyna zawierać ma 1,1 TB pamięci RAM oraz 22,5 TB przestrzeni dyskowej, a jej zbudowanie kosztować będzie 51 milionów rubli, czyli 1,9 miliona dolarów. Działający pod kontrolą systemu operacyjnego Microsoft Windows Compute Cluster Server 2003 klaster stanie na Uniwersytecie w Tomsku, 3,5 tysiąca kilometrów na wschód od Moskwy.
×
×
  • Dodaj nową pozycję...