Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Fermi - przyszłość według Nvidii

Recommended Posts

Nvidia zaprezentowała nową architekturę procesorów graficznych. Fermi ma być nie tylko następcą obecnie wykorzystywanej architektury G80. To także pierwszy procesor graficzny ogólnego przeznaczenia.

Jen-Hsun Huang podczas wstępnej prezentacji nowej architektury przedstawił ją jako architekturę GPU, jednak Fermi to coś więcej niż procesor graficzny. Dlatego też Nvidia pozycjonuje go bardzo ostrożnie, wskazując na jego przydatność we współpracy z CUDA.

Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy tranzystorów. Firma zapewnia, że udało się jej ośmiokrotnie zwiększyć szybkość wykonywania operacji zmiennoprzecinkowych podwójnej precyzji.

Kość składa się z 16 multiprocesorów strumieniowych (SM), na które przypadają po 32 rdzenie. Każdy z nich ma do dyspozycji 64 kilobajty przestrzeni pamięci L1, którą można skonfigurować albo jako 48 kB pamięci współdzielonej + 16 kB cache L1 lub też 16 kB współdzielone + 48 kB L1. Na każdy SM przypada również 768 kilobajtów współdzielonej pamięci L2.

Nvidia zastosowała też zunifikowaną przestrzeń adresową, dzięki czemu Fermi w pełni wspiera oprogramowanie napisane nie tylko w C, ale również w C++. Usprawnieniu operacji i lepszemu wykorzystaniu C i C++ służy też zaimplementowanie technologii Nvidia Parallel DataCache, dzięki której oba rodzaje pamięci cache obsługują wszystkie przeprowadzane operacje, które są dokonywane w ściśle określonym porządku. Dzięki wykorzystaniu pamięci L1 do przechowywania danych rejestru (wcześniej były one przechowywane bezpośrednio w pamięci RAM) uzyskano znaczne skrócenie czasu dostępu do danych. Natomiast współdzielona pamięć L2 umożliwia błyskawiczną wymianę danych pomiędzy poszczególnymi SM.

Fermi to pierwszy układ graficzny, w którym zaimplementowano obsługę ECC (Error Correcting Code), chroniącą dane przed błędami powodowanymi przez wpływ promieniowania kosmicznego.

Jedną z ważnych technologii wykorzystanych w Fermim jest Nvidia GigaThread Engine. Pozwala on na jednoczesne wykonywanie różnych obliczeń w kontekście tej samej aplikacji. Dzięki temu programy wykorzystujące liczne mikrojądra mają do dyspozycji całą dostępną moc obliczeniową. W przypadku tradycyjnego, sekwencyjnego przetwarzania mikrojąder, wykorzystuje się tylko część dostępnej mocy.

Fermi współpracuje z 384-bitowymi kośćmi GDDR5 i jest w stanie obsłużyć do terabajta pamięci. Obsługuje technologie DirectX 11, OpenGL 3.2 oraz OpenCL.

Przy okazji prezentacji architektury Fermi poinformowano, że Nvidia i Microsoft stworzyły środowisko programistyczne Nexus. Zostało ono opracowane na potrzeby masowych obliczeń równoległych i jest zintegrowane z Microsoft Visual Studio. Nexus będzie, oczywiście, korzystał z możliwości Fermiego.

Producent Fermiego podkreśla jego przydatność w obliczeniach naukowych i związek z CUDA, jednak z drugiej strony porównuje go do G80. Fermi może więc być układem wykorzystywanym zarówno superkomputerach jak i pecetach miłośników gier komputerowych.

Share this post


Link to post
Share on other sites

A te rdzenie i procesory to ile zasilaczy będą potrzebowały do stabilnego działania?

I czy chłodzenie powietrzne jeszcze wystarczy?

 

Może tak bardziej skupić się na odejściu od krzemu a nie na upychaniu tranzystorów?

Share this post


Link to post
Share on other sites

Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy procesorów.

 

Chyba chodzi o najzwyklejsze tranzystory.

Share this post


Link to post
Share on other sites

A te rdzenie i procesory to ile zasilaczy będą potrzebowały do stabilnego działania?

I czy chłodzenie powietrzne jeszcze wystarczy?

 

Wg pracownika NV karta nie pobiera więcej prądu niż dzisiejsze rozwiązania. A co do chłodzenia powietrzem to tak jak na fotkach, jest chłodzona powietrzem ;)

Share this post


Link to post
Share on other sites

Ehhh... jeszcze nie zdążyłem kupić GeForce'a z serii 8 ani dwurdzeniowego procesora, a tu już się szykuje kolejna zmiana ;)  Biedni to mają ciężko..

Share this post


Link to post
Share on other sites

może wreszcie karta graficzna nie będzie wykorzystywana tylko w czasie grania, łatwiej będzie wydać na nią kasę skoro będę miał świadomość że oprócz grania będę ją wykorzystywał w codziennych zadaniach ;)

Share this post


Link to post
Share on other sites
Może tak bardziej skupić się na odejściu od krzemu a nie na upychaniu tranzystorów?

 

Ta firma nie produkuje układów scalonych, więc odejdzie od krzemu wtedy, kiedy zrobi to TSMC (czy kto tam teraz jest zleceniobiorcą nvidii).

Share this post


Link to post
Share on other sites

Przemku, nie wmówisz mi, ze producenci sprzętu nie mają wpływu na postęp technologiczny, że nie mają udziału i wiedzy w aktualnych badaniach i planach. Tym bardziej producenci sprzętu komputerowego, który w znacznej mierze nakręca światową gospodarkę i zapewnia rzekę pieniędzy płynącą do kasy.

Share this post


Link to post
Share on other sites

Nvidia to tzw. firma typu fabless. Oni projektują układ na podstawie swoich założeń, testują wszystko na symulatorze, wrzucają projekt do dostarczonego przez fabrykę "kompilatora", to potem leci na taśmę i po trzech tygodniach wracają fizyczne sample do testowania. Kilka razy nvidia przejechała się na zbyt szybkim przejściu na nowy proces proponowany przez TSMC, więc najwyraźniej nie brali udziału w pracach nad "gęstszymi" technologiami fotolitograficznymi. Ale firmy tego rodzaju mogą mieć spory udział w powstawaniu technologii umożliwiających używanie częściowo uszkodzonych struktur (patrz: geforce mx i inne "osłabione" karty graficzne).

Share this post


Link to post
Share on other sites

@scanner: Skoro z krzemu nie rezygnują IBM i Intel, którzy mają znacznie większą swobodę w tym zakresie niż ktokolwiek inny, to znaczy, że obecenie porzucenie krzemu jest niemożliwe (i nieważne, czy z przyczyn technologicznych czy biznesowych). Przypuszczam też, że pojedyncza firma i tak sama niewiele wywalczy. Cały przemysł pewnie musi być na to gotów. Intel jest w końcu zależny od producentów płyt głównych, pozespołów do nich, a przede wszystkim od producentów narzędzi, które wykorzystuje w swoich fabrykach.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Firma NVIDIA zaprezentowała wczoraj procesor NVIDIA Tegra 3, rozpoczynając erę czterordzeniowych urządzeń przenośnych o wydajności porównywalnej z komputerami PC, cechujących się dłuższym czasem pracy na baterii i większą wygodą użytkowania. Pierwszym tabletem na świecie z czterordzeniowym procesorem Tegra 3 jest Eee Pad Transformer Prime firmy ASUS.
      Procesor Tegra 3, znany wcześniej pod nazwą kodową „Projekt Kal-El," osiąga trzykrotnie wyższą wydajność od procesora Tegra 2, a także cechuje się mniejszym nawet o 61 procent poborem energii. Dzięki temu urządzenia oparte na tym procesorze są w stanie odtwarzać materiały wideo w wysokiej rozdzielczości (HD) przez 12 godzin na jednym ładowaniu akumulatora.
      W procesorze Tegra 3 zaimplementowano nową, opatentowaną technologię zmiennego, symetrycznego przetwarzania wielowątkowego (ang. vSMP - Variable Symmetric Multiprocessing). vSMP zakłada wykorzystanie piątego „towarzyszącego" procesora, który został zaprojektowany do zadań niewymagających znacznej mocy obliczeniowej i cechuje się niewielkim poborem energii. Cztery główne rdzenie zostały specjalnie zaprojektowane do pracy z zadaniami wymagającymi wysokiej wydajności i na ogół pobierają mniej energii od procesorów dwurdzeniowych.
      Podczas wykonywania zadań wymagających mniejszego zużycia energii, takich jak słuchanie muzyki, odtwarzanie filmów lub aktualizowanie danych w tle, procesor Tegra 3 wyłącza cztery wysokowydajne rdzenie i pracuje wyłącznie na rdzeniu towarzyszącym. I odwrotnie - podczas realizacji zadań wymagających wysokiej wydajności, takich jak przeglądanie stron internetowych, pracy wielozadaniowej i gier, procesor Tegra 3 wyłącza rdzeń towarzyszący.
    • By KopalniaWiedzy.pl
      Nvidia prawdopodobnie o rok opóźni premierę układów wykonanych w technologii 28 oraz 22/20 nanometrów. Dwudziestoośmionanometrowy Kepler miał zadebiutować w bieżącym roku, a układ Maxwell wykonany w technologii 22 lub 20 nanometrów miał pojawić się w roku 2013. Z nieoficjalnych informacji wynika, że układy zadebiutują w roku 2012 i 2014.
      Przyczyną opóźnienia są problemy, jakie ma TSMC - zleceniobiorca Nvidii - z wdrażaniem kolejnych kroków technologicznych.
      To nie pierwsze problemy TSMC. Producent w 2009 roku miał trudności z wdrażaniem technologii 40 nanometrów, przez co opóźniły się premiery układu Ferii Nvidii oraz 40-nanometrowych procesorów AMD.
      Początkowo firma TSMC przewidywała, że w roku 2011 wdroży w jednej ze swoich fabryk technologię 28 nanometrów, a w roku 2012 rozpocznie pilotażową komercyjną produkcję układów 20-nanometrowych.
    • By KopalniaWiedzy.pl
      NVIDIA informuje, że Moskiewski Uniwersytet Państwowy rozbuduje swój superkomputer Łomonosow o 1554 układy GPU Tesla X2070. Dzięki temu maksymalna wydajność Łomonosowa ma osiągnąć 1,3 petaflopsa. Tym samym rosyjski superkomputer mógłby trafić do pierwszej dziesiątki najpotężniejszych maszyn na świecie.
      „Rozbudowany system łączy w sobie 1554 układy NVIDIA Tesla X2070 z identyczną liczbą czterordzeniowych CPU, dzięki czemu jego maksymalna moc obliczeniowawyniesie 1,3 petaflopsa, co uczyni go numerem 1 w Rosji i jednym z najszybszych systemów na świecie. System używany jest do badań wymagających intensywnych obliczeń, takich jak zmiany klimatyczne, modelowanie oceanów, formowanie się galaktyk" - czytamy w oświadczeniu NVIDII.
    • By KopalniaWiedzy.pl
      Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo.
      Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli.
      Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać.
      Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie.
      Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach.
      Kal-El ma pojawić się na rynku jeszcze w bieżącym roku.
       
      http://www.youtube.com/watch?v=eBvaDtshLY8
    • By KopalniaWiedzy.pl
      Nvidia zaprezentowała swój pierwszy GPU z rodziny GeForce 500M przeznaczony dla graczy korzystających z notebooków.
      Procesor GeForce GTX 560M zapewnia rozdzielczość 1080p i jest kompatybilny z bibliotekami DirectX11 oraz korzysta z technologii Optimus. Technologia ta przedłuża czas pracy na bateriach, wyłączając i włączając w razie potrzeby procesor graficzny.
      Układ 560M korzysta z tej samej platformy co desktopowy GeForce GTS TXS 550 Ti. Procesor wyposażono w 192 rdzenie CUDA, pracuje z szyną pamięci do 192 bitów. Rdzenie taktowane są zegarem o częstotliwości 775 MHz, a shadery - 1550 MHz. Układ współpracuje z kośćmi pamiędi GDDR5 taktowanymi 2,5-gigahercowym zegarem. Całość jest o okoł0o 15% bardziej wydajna niż układ GTX 460M.
      Zaprezentowano też układ GeForce GT 520MX, który powstał z myślą o lżejszych, mniej wydajnych maszynach. Kość ta współpracuje z 64-bitową szyną pamięci, wyposażona jest w 48 rdzeni CUDA. Wykorzystuje ona pamięci DDR3 i jest taktowana 900-megahercowym zegarem.
      Układ GeForce GTX 560M znajdziemy w notebookach Toshiby, Alienware'a, ASUSA i MSI.
×
×
  • Create New...