Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Biurkowy potwór: Tesla Personal Supercomputer

Recommended Posts

Nvidia, wraz ze swoimi partnerami, wśród których znaleźli się m.in. Dell i Lenovo, zapowiedziała dzisiaj początek superkomputerowej rewolucji. Ma być ona możliwa dzięki maszynie Tesla Personal Supercomputer, która wykorzystuje GPGPU (General Purpose Graphic Processing Unit - procesor graficzny ogólnego przeznaczenia) Tesla oraz architekturę CUDA. Tesla Personal Supercomputer to nic innego jak superkomputer w obudowie zwykłego peceta.

Po raz pierwszy CUDA i układ Tesla zostały zaprezentowane w ubiegłym roku. Przypomnijmy, że pomysł Nvidii polega na wykorzystaniu procesora graficznego do równoległego przetwarzania innych danych niż informacje dotyczące wyświetlania grafiki. Dzięki temu, że nowoczesne graficzne są zwykle bardziej wydajne niż CPU, możemy uzyskać dodatkowy przyrost mocy.

Z kolei CUDA (Compute Unified Device Architecture) to zestaw narzędzi, który umożliwia developerom tworzenie w języku C aplikacji dla Tesli i nie tylko dla niej, gdyż w niezbędne komponenty CUDA zostały wyposażone także sterowniki dla nowych procesorów z serii GeForce oraz Quadro.

Technologią CUDA zainteresował się przede wszystkim świat naukowy. Nic dziwnego, gdyż to właśnie na uniwersytetach i w instytucjach badawczych najbardziej przydaje się wysoko wydajne przetwarzanie wielowątkowe. Już teraz wiadomo, że w porównaniu z komputerem wyposażonym tylko w procesor x86 maszyna dodatkowo wykorzystująca technologię CUDA charakteryzuje się od 18- (kodowanie wideo) do nawet 149-krotnie (symulacje finansowe) zwiększoną wydajnością. Na University of Utah komputer z CUDA zapewnia 146-krotnie szybszą pracę przy obrazuwaniu medycznym, a uczeni z University of Maryland 30-krotnie szybciej dokonują sekwencjonowania genomu.

O zainteresowaniu technologią Nvidii świadczy też fakt, iż kursy programowania dla CUDA są prowadzone na ponad 50 uczelniach wyższych, a na całym świecie już 25 000 programistów pracuje z tą technologią.


Wraz z wydajnością idzie oszczędność energii. Serwer Tesla S1070, z którego korzystają m.in. firmy Chevron, Petrobras, Motorola czy Kodak i takie uczelnie jak uniwersytet w Heidelbergu, University of Maryland, Rice University czy Chińska Akademia Nauk, zapewnia 18-krotnie większą wydajność na wat niż serwer z procesorami x86.

Nvidia wraz z partnerami postanowili jednak pójść dalej. Ogłosili powstanie gotowego biurkowego superkomputera Tesla Personal Supercomputer. Jego maksymalna wydajność może wynieść do 4 teraflopsów, zapewnianych dzięki 960 rdzeniom i 4 procesorom (prawdopodobnie Tesla C1060). Komputer pracuje ze standardowymi edycjami Windows i Linux (w przyszłości także Mac OS X), a jego cena wyniesie mniej niż 10 000 dolarów.

Innymi słowy, jak zapewnia Nvidia, każdy z zainteresowanych naukowców może nabyć maszynę o 250 razy bardziej wydajną niż pecet i 100 razy tańszą niż wysoko wydajny klaster. Za stosunkowo niewielką cenę zyska peceta o wydajności superkomputera.

Z przeprowadzonych przez Nvidię testów wynika, że Tesla Personal Supercomputer znacząco przyspiesza wykonywanie zadań typowych dla przemysłu i nauki. I tak na przykład czas wykonania przeciętnego zadania z zakresu chemii skraca się z 4,6 dnia do 27 minut, modelowanie w neurologii trwa nie 2,7 doby, a pół godziny. Z kolei trójwymiarowa ultradźwiękowa tomografia komputerowa zajmie 16 minut zamiast dotychczasowych 3 godzin.

Jak już wspomniano, Nvidia i partnerzy kierują swoją ofertę do naukowców i inżynierów, których liczbę oceniają na 15 milionów na całym świecie.

Oczywiście pojawienie się Tesla Personal Supercomputer nie oznacza, że na tym kończą się możliwości architektury CUDA. Można ją dalej skalować tworząc standardowy klaster obliczeniowy, który będzie 5000 razy bardziej wydajny od zwykłego peceta, a jego cena zamknie się w granicach od 100 000 do miliona dolarów.

Niewykluczone zatem, że już wkrótce na listę 500 najpotężniejszych superkomputerów na świecie trafią pierwsze maszyny z architekturą CUDA.

Share this post


Link to post
Share on other sites

Teraz każda uczelnia będzie mogła sobie pozwolić na taki "superkomputer" - rewelacja. Ciekawe jak się to przełoży na przyspieszenie wszelakich eksperymentów - które do tej pory były obrazowane/obliczane baaardzo długo. Ile eksperymentów w ogóle ruszy z miejsca, gdyż pojawią się zasoby na takie obrazowanie/obliczenia na maszynach dostępnych na uczelni.

Sam bym chciał zobaczyć o ile wzrośnie liczba przetwarzanych próbek w Seti@home przez standardowy komputer z technologią CUDA.

Share this post


Link to post
Share on other sites

No ale żeby przyspieszyć obliczenia trzeba nowe oprogramowanie.

Programowanie na maszyny wieloprocesorowe jest w powijakach cały czas...

Share this post


Link to post
Share on other sites

Tylko patrząc na możliwości procesorów wielordzeniowych a architektury CUDA i systemu Tesla Personal Supercomputer podejrzewam, że więcej ludzi będzie chętnych programować to cacko niż zwykłe procki. Dodatkowo (domniemywam tylko) oprogramowanie do obrazowania i obliczeń (którymi Ci naukowcy się zajmują) i tak pewnie musiało być tworzone od podstaw. Więc nie powinno być problemu między wyborem - robić program na zwykły procesor, czy robić program do obsługi CUDA.

Share this post


Link to post
Share on other sites

Zobaczymy, nie byłabym tak optymistycznie nastawiona.

To nie jest mały soft, stworzenie go od podstaw też nie kosztuje mało.

Pewnie studenci będą klepać.. ;D

Share this post


Link to post
Share on other sites

Dotychczas też studenci klepali + inżynierowie z danej uczelni i jakoś im razem wychodziło. Teraz też dadzą sobie radę. Na szczęście programuje się to w starym dobrym "C", więc trudności "leksykalnych" być nie powinno. Zauważ też że:

 

O zainteresowaniu technologią Nvidii świadczy też fakt, iż kursy programowania dla CUDA są prowadzone na ponad 50 uczelniach wyższych, a na całym świecie już 25 000 programistów pracuje z tą technologią.

 

Śmiem twierdzić że starczy :D

Share this post


Link to post
Share on other sites

No... moje współczucie, programowanie dużego kodu w starym dobrym C, bywa... cóż... nieprzyjemne, chodź fakt że efektywność programowania w tym języku jest często dobrą nagroda nawet na normalne komputerki.

Share this post


Link to post
Share on other sites

@lililea nie wiem skąd Twój brak wiary w dzisiejszych programistów :D W starym, dobrym C klepią od dawna i nie przeszkadza im, że to jest nieprzyjemne. Do tego typu zastosowań język nie może być "za bardzo" wysokopoziomowy, bo liczy się wydajność i elastyczność,a nie szybkość tworzenia oprogramowania. Lepiej tworzyć program dłużej, i krócej czekać na obliczenia, niż szybko "poskładać program z klocków" i patrzeć jak się wlecze :)

Pozdrawiam

Share this post


Link to post
Share on other sites

@lililea nie wiem skąd Twój brak wiary w dzisiejszych programistów :) W starym, dobrym C klepią od dawna i nie przeszkadza im, że to jest nieprzyjemne. Do tego typu zastosowań język nie może być "za bardzo" wysokopoziomowy, bo liczy się wydajność i elastyczność,a nie szybkość tworzenia oprogramowania. Lepiej tworzyć program dłużej, i krócej czekać na obliczenia, niż szybko "poskładać program z klocków" i patrzeć jak się wlecze :P

 

Niestety coraz mniej ludzi tak uważa. Dla wielu liczy się już tylko Java albo C# "...a procesor jest od tego żeby liczył".  ::D

Share this post


Link to post
Share on other sites

Niestety coraz mniej ludzi tak uważa. Dla wielu liczy się już tylko Java albo C# "...a procesor jest od tego żeby liczył".  ::D

Dla jakich wielu ? Dla tych którzy się zajmują obliczeniami na klastrach uczelnianych ? Czy dla tych co się zajmują aplikacjami webowymi ? Bo mówiliśmy o tych pierwszych. Dla nich Java nie nadaje się do niczego - bo za wolna. C zdecydowanie wygląda na najlepsze rozwiązanie...

Share this post


Link to post
Share on other sites
Niestety coraz mniej ludzi tak uważa. Dla wielu liczy się już tylko Java albo C# "...a procesor jest od tego żeby liczył".  Z politowaniem

Na coś trzeba wykorzystać potencjał :D

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Firma NVIDIA zaprezentowała wczoraj procesor NVIDIA Tegra 3, rozpoczynając erę czterordzeniowych urządzeń przenośnych o wydajności porównywalnej z komputerami PC, cechujących się dłuższym czasem pracy na baterii i większą wygodą użytkowania. Pierwszym tabletem na świecie z czterordzeniowym procesorem Tegra 3 jest Eee Pad Transformer Prime firmy ASUS.
      Procesor Tegra 3, znany wcześniej pod nazwą kodową „Projekt Kal-El," osiąga trzykrotnie wyższą wydajność od procesora Tegra 2, a także cechuje się mniejszym nawet o 61 procent poborem energii. Dzięki temu urządzenia oparte na tym procesorze są w stanie odtwarzać materiały wideo w wysokiej rozdzielczości (HD) przez 12 godzin na jednym ładowaniu akumulatora.
      W procesorze Tegra 3 zaimplementowano nową, opatentowaną technologię zmiennego, symetrycznego przetwarzania wielowątkowego (ang. vSMP - Variable Symmetric Multiprocessing). vSMP zakłada wykorzystanie piątego „towarzyszącego" procesora, który został zaprojektowany do zadań niewymagających znacznej mocy obliczeniowej i cechuje się niewielkim poborem energii. Cztery główne rdzenie zostały specjalnie zaprojektowane do pracy z zadaniami wymagającymi wysokiej wydajności i na ogół pobierają mniej energii od procesorów dwurdzeniowych.
      Podczas wykonywania zadań wymagających mniejszego zużycia energii, takich jak słuchanie muzyki, odtwarzanie filmów lub aktualizowanie danych w tle, procesor Tegra 3 wyłącza cztery wysokowydajne rdzenie i pracuje wyłącznie na rdzeniu towarzyszącym. I odwrotnie - podczas realizacji zadań wymagających wysokiej wydajności, takich jak przeglądanie stron internetowych, pracy wielozadaniowej i gier, procesor Tegra 3 wyłącza rdzeń towarzyszący.
    • By KopalniaWiedzy.pl
      Nvidia prawdopodobnie o rok opóźni premierę układów wykonanych w technologii 28 oraz 22/20 nanometrów. Dwudziestoośmionanometrowy Kepler miał zadebiutować w bieżącym roku, a układ Maxwell wykonany w technologii 22 lub 20 nanometrów miał pojawić się w roku 2013. Z nieoficjalnych informacji wynika, że układy zadebiutują w roku 2012 i 2014.
      Przyczyną opóźnienia są problemy, jakie ma TSMC - zleceniobiorca Nvidii - z wdrażaniem kolejnych kroków technologicznych.
      To nie pierwsze problemy TSMC. Producent w 2009 roku miał trudności z wdrażaniem technologii 40 nanometrów, przez co opóźniły się premiery układu Ferii Nvidii oraz 40-nanometrowych procesorów AMD.
      Początkowo firma TSMC przewidywała, że w roku 2011 wdroży w jednej ze swoich fabryk technologię 28 nanometrów, a w roku 2012 rozpocznie pilotażową komercyjną produkcję układów 20-nanometrowych.
    • By KopalniaWiedzy.pl
      NVIDIA informuje, że Moskiewski Uniwersytet Państwowy rozbuduje swój superkomputer Łomonosow o 1554 układy GPU Tesla X2070. Dzięki temu maksymalna wydajność Łomonosowa ma osiągnąć 1,3 petaflopsa. Tym samym rosyjski superkomputer mógłby trafić do pierwszej dziesiątki najpotężniejszych maszyn na świecie.
      „Rozbudowany system łączy w sobie 1554 układy NVIDIA Tesla X2070 z identyczną liczbą czterordzeniowych CPU, dzięki czemu jego maksymalna moc obliczeniowawyniesie 1,3 petaflopsa, co uczyni go numerem 1 w Rosji i jednym z najszybszych systemów na świecie. System używany jest do badań wymagających intensywnych obliczeń, takich jak zmiany klimatyczne, modelowanie oceanów, formowanie się galaktyk" - czytamy w oświadczeniu NVIDII.
    • By KopalniaWiedzy.pl
      Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo.
      Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli.
      Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać.
      Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie.
      Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach.
      Kal-El ma pojawić się na rynku jeszcze w bieżącym roku.
       
      http://www.youtube.com/watch?v=eBvaDtshLY8
    • By KopalniaWiedzy.pl
      Nvidia zaprezentowała swój pierwszy GPU z rodziny GeForce 500M przeznaczony dla graczy korzystających z notebooków.
      Procesor GeForce GTX 560M zapewnia rozdzielczość 1080p i jest kompatybilny z bibliotekami DirectX11 oraz korzysta z technologii Optimus. Technologia ta przedłuża czas pracy na bateriach, wyłączając i włączając w razie potrzeby procesor graficzny.
      Układ 560M korzysta z tej samej platformy co desktopowy GeForce GTS TXS 550 Ti. Procesor wyposażono w 192 rdzenie CUDA, pracuje z szyną pamięci do 192 bitów. Rdzenie taktowane są zegarem o częstotliwości 775 MHz, a shadery - 1550 MHz. Układ współpracuje z kośćmi pamiędi GDDR5 taktowanymi 2,5-gigahercowym zegarem. Całość jest o okoł0o 15% bardziej wydajna niż układ GTX 460M.
      Zaprezentowano też układ GeForce GT 520MX, który powstał z myślą o lżejszych, mniej wydajnych maszynach. Kość ta współpracuje z 64-bitową szyną pamięci, wyposażona jest w 48 rdzeni CUDA. Wykorzystuje ona pamięci DDR3 i jest taktowana 900-megahercowym zegarem.
      Układ GeForce GTX 560M znajdziemy w notebookach Toshiby, Alienware'a, ASUSA i MSI.
×
×
  • Create New...