Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Nvidia, wraz ze swoimi partnerami, wśród których znaleźli się m.in. Dell i Lenovo, zapowiedziała dzisiaj początek superkomputerowej rewolucji. Ma być ona możliwa dzięki maszynie Tesla Personal Supercomputer, która wykorzystuje GPGPU (General Purpose Graphic Processing Unit - procesor graficzny ogólnego przeznaczenia) Tesla oraz architekturę CUDA. Tesla Personal Supercomputer to nic innego jak superkomputer w obudowie zwykłego peceta.

Po raz pierwszy CUDA i układ Tesla zostały zaprezentowane w ubiegłym roku. Przypomnijmy, że pomysł Nvidii polega na wykorzystaniu procesora graficznego do równoległego przetwarzania innych danych niż informacje dotyczące wyświetlania grafiki. Dzięki temu, że nowoczesne graficzne są zwykle bardziej wydajne niż CPU, możemy uzyskać dodatkowy przyrost mocy.

Z kolei CUDA (Compute Unified Device Architecture) to zestaw narzędzi, który umożliwia developerom tworzenie w języku C aplikacji dla Tesli i nie tylko dla niej, gdyż w niezbędne komponenty CUDA zostały wyposażone także sterowniki dla nowych procesorów z serii GeForce oraz Quadro.

Technologią CUDA zainteresował się przede wszystkim świat naukowy. Nic dziwnego, gdyż to właśnie na uniwersytetach i w instytucjach badawczych najbardziej przydaje się wysoko wydajne przetwarzanie wielowątkowe. Już teraz wiadomo, że w porównaniu z komputerem wyposażonym tylko w procesor x86 maszyna dodatkowo wykorzystująca technologię CUDA charakteryzuje się od 18- (kodowanie wideo) do nawet 149-krotnie (symulacje finansowe) zwiększoną wydajnością. Na University of Utah komputer z CUDA zapewnia 146-krotnie szybszą pracę przy obrazuwaniu medycznym, a uczeni z University of Maryland 30-krotnie szybciej dokonują sekwencjonowania genomu.

O zainteresowaniu technologią Nvidii świadczy też fakt, iż kursy programowania dla CUDA są prowadzone na ponad 50 uczelniach wyższych, a na całym świecie już 25 000 programistów pracuje z tą technologią.


Wraz z wydajnością idzie oszczędność energii. Serwer Tesla S1070, z którego korzystają m.in. firmy Chevron, Petrobras, Motorola czy Kodak i takie uczelnie jak uniwersytet w Heidelbergu, University of Maryland, Rice University czy Chińska Akademia Nauk, zapewnia 18-krotnie większą wydajność na wat niż serwer z procesorami x86.

Nvidia wraz z partnerami postanowili jednak pójść dalej. Ogłosili powstanie gotowego biurkowego superkomputera Tesla Personal Supercomputer. Jego maksymalna wydajność może wynieść do 4 teraflopsów, zapewnianych dzięki 960 rdzeniom i 4 procesorom (prawdopodobnie Tesla C1060). Komputer pracuje ze standardowymi edycjami Windows i Linux (w przyszłości także Mac OS X), a jego cena wyniesie mniej niż 10 000 dolarów.

Innymi słowy, jak zapewnia Nvidia, każdy z zainteresowanych naukowców może nabyć maszynę o 250 razy bardziej wydajną niż pecet i 100 razy tańszą niż wysoko wydajny klaster. Za stosunkowo niewielką cenę zyska peceta o wydajności superkomputera.

Z przeprowadzonych przez Nvidię testów wynika, że Tesla Personal Supercomputer znacząco przyspiesza wykonywanie zadań typowych dla przemysłu i nauki. I tak na przykład czas wykonania przeciętnego zadania z zakresu chemii skraca się z 4,6 dnia do 27 minut, modelowanie w neurologii trwa nie 2,7 doby, a pół godziny. Z kolei trójwymiarowa ultradźwiękowa tomografia komputerowa zajmie 16 minut zamiast dotychczasowych 3 godzin.

Jak już wspomniano, Nvidia i partnerzy kierują swoją ofertę do naukowców i inżynierów, których liczbę oceniają na 15 milionów na całym świecie.

Oczywiście pojawienie się Tesla Personal Supercomputer nie oznacza, że na tym kończą się możliwości architektury CUDA. Można ją dalej skalować tworząc standardowy klaster obliczeniowy, który będzie 5000 razy bardziej wydajny od zwykłego peceta, a jego cena zamknie się w granicach od 100 000 do miliona dolarów.

Niewykluczone zatem, że już wkrótce na listę 500 najpotężniejszych superkomputerów na świecie trafią pierwsze maszyny z architekturą CUDA.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz każda uczelnia będzie mogła sobie pozwolić na taki "superkomputer" - rewelacja. Ciekawe jak się to przełoży na przyspieszenie wszelakich eksperymentów - które do tej pory były obrazowane/obliczane baaardzo długo. Ile eksperymentów w ogóle ruszy z miejsca, gdyż pojawią się zasoby na takie obrazowanie/obliczenia na maszynach dostępnych na uczelni.

Sam bym chciał zobaczyć o ile wzrośnie liczba przetwarzanych próbek w Seti@home przez standardowy komputer z technologią CUDA.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ale żeby przyspieszyć obliczenia trzeba nowe oprogramowanie.

Programowanie na maszyny wieloprocesorowe jest w powijakach cały czas...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko patrząc na możliwości procesorów wielordzeniowych a architektury CUDA i systemu Tesla Personal Supercomputer podejrzewam, że więcej ludzi będzie chętnych programować to cacko niż zwykłe procki. Dodatkowo (domniemywam tylko) oprogramowanie do obrazowania i obliczeń (którymi Ci naukowcy się zajmują) i tak pewnie musiało być tworzone od podstaw. Więc nie powinno być problemu między wyborem - robić program na zwykły procesor, czy robić program do obsługi CUDA.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zobaczymy, nie byłabym tak optymistycznie nastawiona.

To nie jest mały soft, stworzenie go od podstaw też nie kosztuje mało.

Pewnie studenci będą klepać.. ;D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dotychczas też studenci klepali + inżynierowie z danej uczelni i jakoś im razem wychodziło. Teraz też dadzą sobie radę. Na szczęście programuje się to w starym dobrym "C", więc trudności "leksykalnych" być nie powinno. Zauważ też że:

 

O zainteresowaniu technologią Nvidii świadczy też fakt, iż kursy programowania dla CUDA są prowadzone na ponad 50 uczelniach wyższych, a na całym świecie już 25 000 programistów pracuje z tą technologią.

 

Śmiem twierdzić że starczy :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No... moje współczucie, programowanie dużego kodu w starym dobrym C, bywa... cóż... nieprzyjemne, chodź fakt że efektywność programowania w tym języku jest często dobrą nagroda nawet na normalne komputerki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@lililea nie wiem skąd Twój brak wiary w dzisiejszych programistów :D W starym, dobrym C klepią od dawna i nie przeszkadza im, że to jest nieprzyjemne. Do tego typu zastosowań język nie może być "za bardzo" wysokopoziomowy, bo liczy się wydajność i elastyczność,a nie szybkość tworzenia oprogramowania. Lepiej tworzyć program dłużej, i krócej czekać na obliczenia, niż szybko "poskładać program z klocków" i patrzeć jak się wlecze :)

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@lililea nie wiem skąd Twój brak wiary w dzisiejszych programistów :) W starym, dobrym C klepią od dawna i nie przeszkadza im, że to jest nieprzyjemne. Do tego typu zastosowań język nie może być "za bardzo" wysokopoziomowy, bo liczy się wydajność i elastyczność,a nie szybkość tworzenia oprogramowania. Lepiej tworzyć program dłużej, i krócej czekać na obliczenia, niż szybko "poskładać program z klocków" i patrzeć jak się wlecze :P

 

Niestety coraz mniej ludzi tak uważa. Dla wielu liczy się już tylko Java albo C# "...a procesor jest od tego żeby liczył".  ::D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niestety coraz mniej ludzi tak uważa. Dla wielu liczy się już tylko Java albo C# "...a procesor jest od tego żeby liczył".  ::D

Dla jakich wielu ? Dla tych którzy się zajmują obliczeniami na klastrach uczelnianych ? Czy dla tych co się zajmują aplikacjami webowymi ? Bo mówiliśmy o tych pierwszych. Dla nich Java nie nadaje się do niczego - bo za wolna. C zdecydowanie wygląda na najlepsze rozwiązanie...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Niestety coraz mniej ludzi tak uważa. Dla wielu liczy się już tylko Java albo C# "...a procesor jest od tego żeby liczył".  Z politowaniem

Na coś trzeba wykorzystać potencjał :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W sterownikach graficznych Nvidii znaleziono liczne dziury, które umożliwiają przeprowadzenie DoS (denial of service), wykonanie złośliwego kodu oraz inne rodzaje ataków. Nvidia wydala już odpowiednie poprawki, które należy jak najszybciej zainstalować.
      Dziury występują przede wszystkim w sterownikach do procesorów GeForce, Quadro i Tesla dla systemu Windows.
      Najpoważniejsza dziura znajduje się w panelu sterowania grafiki, elemencie umożliwiającym użytkownikowi zmianę ustawień GPU. Nvidia informuje, że napastnik z lokalnym dostępem może doprowadzić do awarii systemu plików panelu sterowania, co pozwala mu albo na przeprowadzenie ataku DoS, albo na zwiększenie uprawnień. Lukę tę (CVE-2020-5957) oceniono na 8,4 w 10-stopniowej skali zagrożeń CVSS.
      Kolejna dziura (CVE-2020-5958), uznana za średnio poważną, również występuje w panelu kontrolnym. Użytkownik z dostępem lokalnym może dzięki niej zainstalować zmanipulowany plik DLL, dzięki czemu może przeprowadzić atak DOS, zyskać uprawnienia do wykonywania kodu, odczytania zastrzeżonych informacji.
      Obie dziury zostały załatane. Na poprawki czeka jeszcze wersja R440 dla procesora Tesla. Zostaną one udostępnione w przyszłym tygodniu.
      Liczne dziury znaleziono też w Virtual GPU Manager. To oprogramowanie pozwalające wielu wirtualnym maszynom na jednoczesny dostęp do tego samego procesora graficznego. Tutaj najpoważniejsza dziura (CVE-2020-5959) spowodowana jest nieprawidłową weryfikacją danych wejściowych, co pozwala na przeprowadzenie ataku DoS. Lukę tę oceniono na 7,8 w skali CVSS. Druga z luk występująca w tym oprogramowaniu, CVE-2020-5960, została oceniona jako średnio poważna. Również ona umożliwia DoS.
      Poprawione wersje sterowników można pobrać na stronie Nvidii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Firma NVIDIA zaprezentowała wczoraj procesor NVIDIA Tegra 3, rozpoczynając erę czterordzeniowych urządzeń przenośnych o wydajności porównywalnej z komputerami PC, cechujących się dłuższym czasem pracy na baterii i większą wygodą użytkowania. Pierwszym tabletem na świecie z czterordzeniowym procesorem Tegra 3 jest Eee Pad Transformer Prime firmy ASUS.
      Procesor Tegra 3, znany wcześniej pod nazwą kodową „Projekt Kal-El," osiąga trzykrotnie wyższą wydajność od procesora Tegra 2, a także cechuje się mniejszym nawet o 61 procent poborem energii. Dzięki temu urządzenia oparte na tym procesorze są w stanie odtwarzać materiały wideo w wysokiej rozdzielczości (HD) przez 12 godzin na jednym ładowaniu akumulatora.
      W procesorze Tegra 3 zaimplementowano nową, opatentowaną technologię zmiennego, symetrycznego przetwarzania wielowątkowego (ang. vSMP - Variable Symmetric Multiprocessing). vSMP zakłada wykorzystanie piątego „towarzyszącego" procesora, który został zaprojektowany do zadań niewymagających znacznej mocy obliczeniowej i cechuje się niewielkim poborem energii. Cztery główne rdzenie zostały specjalnie zaprojektowane do pracy z zadaniami wymagającymi wysokiej wydajności i na ogół pobierają mniej energii od procesorów dwurdzeniowych.
      Podczas wykonywania zadań wymagających mniejszego zużycia energii, takich jak słuchanie muzyki, odtwarzanie filmów lub aktualizowanie danych w tle, procesor Tegra 3 wyłącza cztery wysokowydajne rdzenie i pracuje wyłącznie na rdzeniu towarzyszącym. I odwrotnie - podczas realizacji zadań wymagających wysokiej wydajności, takich jak przeglądanie stron internetowych, pracy wielozadaniowej i gier, procesor Tegra 3 wyłącza rdzeń towarzyszący.
    • przez KopalniaWiedzy.pl
      Nvidia prawdopodobnie o rok opóźni premierę układów wykonanych w technologii 28 oraz 22/20 nanometrów. Dwudziestoośmionanometrowy Kepler miał zadebiutować w bieżącym roku, a układ Maxwell wykonany w technologii 22 lub 20 nanometrów miał pojawić się w roku 2013. Z nieoficjalnych informacji wynika, że układy zadebiutują w roku 2012 i 2014.
      Przyczyną opóźnienia są problemy, jakie ma TSMC - zleceniobiorca Nvidii - z wdrażaniem kolejnych kroków technologicznych.
      To nie pierwsze problemy TSMC. Producent w 2009 roku miał trudności z wdrażaniem technologii 40 nanometrów, przez co opóźniły się premiery układu Ferii Nvidii oraz 40-nanometrowych procesorów AMD.
      Początkowo firma TSMC przewidywała, że w roku 2011 wdroży w jednej ze swoich fabryk technologię 28 nanometrów, a w roku 2012 rozpocznie pilotażową komercyjną produkcję układów 20-nanometrowych.
    • przez KopalniaWiedzy.pl
      NVIDIA informuje, że Moskiewski Uniwersytet Państwowy rozbuduje swój superkomputer Łomonosow o 1554 układy GPU Tesla X2070. Dzięki temu maksymalna wydajność Łomonosowa ma osiągnąć 1,3 petaflopsa. Tym samym rosyjski superkomputer mógłby trafić do pierwszej dziesiątki najpotężniejszych maszyn na świecie.
      „Rozbudowany system łączy w sobie 1554 układy NVIDIA Tesla X2070 z identyczną liczbą czterordzeniowych CPU, dzięki czemu jego maksymalna moc obliczeniowawyniesie 1,3 petaflopsa, co uczyni go numerem 1 w Rosji i jednym z najszybszych systemów na świecie. System używany jest do badań wymagających intensywnych obliczeń, takich jak zmiany klimatyczne, modelowanie oceanów, formowanie się galaktyk" - czytamy w oświadczeniu NVIDII.
    • przez KopalniaWiedzy.pl
      Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo.
      Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli.
      Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać.
      Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie.
      Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach.
      Kal-El ma pojawić się na rynku jeszcze w bieżącym roku.
       
      http://www.youtube.com/watch?v=eBvaDtshLY8
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...