Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Fermi - przyszłość według Nvidii

Recommended Posts

Nvidia zaprezentowała nową architekturę procesorów graficznych. Fermi ma być nie tylko następcą obecnie wykorzystywanej architektury G80. To także pierwszy procesor graficzny ogólnego przeznaczenia.

Jen-Hsun Huang podczas wstępnej prezentacji nowej architektury przedstawił ją jako architekturę GPU, jednak Fermi to coś więcej niż procesor graficzny. Dlatego też Nvidia pozycjonuje go bardzo ostrożnie, wskazując na jego przydatność we współpracy z CUDA.

Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy tranzystorów. Firma zapewnia, że udało się jej ośmiokrotnie zwiększyć szybkość wykonywania operacji zmiennoprzecinkowych podwójnej precyzji.

Kość składa się z 16 multiprocesorów strumieniowych (SM), na które przypadają po 32 rdzenie. Każdy z nich ma do dyspozycji 64 kilobajty przestrzeni pamięci L1, którą można skonfigurować albo jako 48 kB pamięci współdzielonej + 16 kB cache L1 lub też 16 kB współdzielone + 48 kB L1. Na każdy SM przypada również 768 kilobajtów współdzielonej pamięci L2.

Nvidia zastosowała też zunifikowaną przestrzeń adresową, dzięki czemu Fermi w pełni wspiera oprogramowanie napisane nie tylko w C, ale również w C++. Usprawnieniu operacji i lepszemu wykorzystaniu C i C++ służy też zaimplementowanie technologii Nvidia Parallel DataCache, dzięki której oba rodzaje pamięci cache obsługują wszystkie przeprowadzane operacje, które są dokonywane w ściśle określonym porządku. Dzięki wykorzystaniu pamięci L1 do przechowywania danych rejestru (wcześniej były one przechowywane bezpośrednio w pamięci RAM) uzyskano znaczne skrócenie czasu dostępu do danych. Natomiast współdzielona pamięć L2 umożliwia błyskawiczną wymianę danych pomiędzy poszczególnymi SM.

Fermi to pierwszy układ graficzny, w którym zaimplementowano obsługę ECC (Error Correcting Code), chroniącą dane przed błędami powodowanymi przez wpływ promieniowania kosmicznego.

Jedną z ważnych technologii wykorzystanych w Fermim jest Nvidia GigaThread Engine. Pozwala on na jednoczesne wykonywanie różnych obliczeń w kontekście tej samej aplikacji. Dzięki temu programy wykorzystujące liczne mikrojądra mają do dyspozycji całą dostępną moc obliczeniową. W przypadku tradycyjnego, sekwencyjnego przetwarzania mikrojąder, wykorzystuje się tylko część dostępnej mocy.

Fermi współpracuje z 384-bitowymi kośćmi GDDR5 i jest w stanie obsłużyć do terabajta pamięci. Obsługuje technologie DirectX 11, OpenGL 3.2 oraz OpenCL.

Przy okazji prezentacji architektury Fermi poinformowano, że Nvidia i Microsoft stworzyły środowisko programistyczne Nexus. Zostało ono opracowane na potrzeby masowych obliczeń równoległych i jest zintegrowane z Microsoft Visual Studio. Nexus będzie, oczywiście, korzystał z możliwości Fermiego.

Producent Fermiego podkreśla jego przydatność w obliczeniach naukowych i związek z CUDA, jednak z drugiej strony porównuje go do G80. Fermi może więc być układem wykorzystywanym zarówno superkomputerach jak i pecetach miłośników gier komputerowych.

Share this post


Link to post
Share on other sites

A te rdzenie i procesory to ile zasilaczy będą potrzebowały do stabilnego działania?

I czy chłodzenie powietrzne jeszcze wystarczy?

 

Może tak bardziej skupić się na odejściu od krzemu a nie na upychaniu tranzystorów?

Share this post


Link to post
Share on other sites

Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy procesorów.

 

Chyba chodzi o najzwyklejsze tranzystory.

Share this post


Link to post
Share on other sites

A te rdzenie i procesory to ile zasilaczy będą potrzebowały do stabilnego działania?

I czy chłodzenie powietrzne jeszcze wystarczy?

 

Wg pracownika NV karta nie pobiera więcej prądu niż dzisiejsze rozwiązania. A co do chłodzenia powietrzem to tak jak na fotkach, jest chłodzona powietrzem ;)

Share this post


Link to post
Share on other sites

Ehhh... jeszcze nie zdążyłem kupić GeForce'a z serii 8 ani dwurdzeniowego procesora, a tu już się szykuje kolejna zmiana ;)  Biedni to mają ciężko..

Share this post


Link to post
Share on other sites

może wreszcie karta graficzna nie będzie wykorzystywana tylko w czasie grania, łatwiej będzie wydać na nią kasę skoro będę miał świadomość że oprócz grania będę ją wykorzystywał w codziennych zadaniach ;)

Share this post


Link to post
Share on other sites
Może tak bardziej skupić się na odejściu od krzemu a nie na upychaniu tranzystorów?

 

Ta firma nie produkuje układów scalonych, więc odejdzie od krzemu wtedy, kiedy zrobi to TSMC (czy kto tam teraz jest zleceniobiorcą nvidii).

Share this post


Link to post
Share on other sites

Przemku, nie wmówisz mi, ze producenci sprzętu nie mają wpływu na postęp technologiczny, że nie mają udziału i wiedzy w aktualnych badaniach i planach. Tym bardziej producenci sprzętu komputerowego, który w znacznej mierze nakręca światową gospodarkę i zapewnia rzekę pieniędzy płynącą do kasy.

Share this post


Link to post
Share on other sites

Nvidia to tzw. firma typu fabless. Oni projektują układ na podstawie swoich założeń, testują wszystko na symulatorze, wrzucają projekt do dostarczonego przez fabrykę "kompilatora", to potem leci na taśmę i po trzech tygodniach wracają fizyczne sample do testowania. Kilka razy nvidia przejechała się na zbyt szybkim przejściu na nowy proces proponowany przez TSMC, więc najwyraźniej nie brali udziału w pracach nad "gęstszymi" technologiami fotolitograficznymi. Ale firmy tego rodzaju mogą mieć spory udział w powstawaniu technologii umożliwiających używanie częściowo uszkodzonych struktur (patrz: geforce mx i inne "osłabione" karty graficzne).

Share this post


Link to post
Share on other sites

@scanner: Skoro z krzemu nie rezygnują IBM i Intel, którzy mają znacznie większą swobodę w tym zakresie niż ktokolwiek inny, to znaczy, że obecenie porzucenie krzemu jest niemożliwe (i nieważne, czy z przyczyn technologicznych czy biznesowych). Przypuszczam też, że pojedyncza firma i tak sama niewiele wywalczy. Cały przemysł pewnie musi być na to gotów. Intel jest w końcu zależny od producentów płyt głównych, pozespołów do nich, a przede wszystkim od producentów narzędzi, które wykorzystuje w swoich fabrykach.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      W sterownikach graficznych Nvidii znaleziono liczne dziury, które umożliwiają przeprowadzenie DoS (denial of service), wykonanie złośliwego kodu oraz inne rodzaje ataków. Nvidia wydala już odpowiednie poprawki, które należy jak najszybciej zainstalować.
      Dziury występują przede wszystkim w sterownikach do procesorów GeForce, Quadro i Tesla dla systemu Windows.
      Najpoważniejsza dziura znajduje się w panelu sterowania grafiki, elemencie umożliwiającym użytkownikowi zmianę ustawień GPU. Nvidia informuje, że napastnik z lokalnym dostępem może doprowadzić do awarii systemu plików panelu sterowania, co pozwala mu albo na przeprowadzenie ataku DoS, albo na zwiększenie uprawnień. Lukę tę (CVE-2020-5957) oceniono na 8,4 w 10-stopniowej skali zagrożeń CVSS.
      Kolejna dziura (CVE-2020-5958), uznana za średnio poważną, również występuje w panelu kontrolnym. Użytkownik z dostępem lokalnym może dzięki niej zainstalować zmanipulowany plik DLL, dzięki czemu może przeprowadzić atak DOS, zyskać uprawnienia do wykonywania kodu, odczytania zastrzeżonych informacji.
      Obie dziury zostały załatane. Na poprawki czeka jeszcze wersja R440 dla procesora Tesla. Zostaną one udostępnione w przyszłym tygodniu.
      Liczne dziury znaleziono też w Virtual GPU Manager. To oprogramowanie pozwalające wielu wirtualnym maszynom na jednoczesny dostęp do tego samego procesora graficznego. Tutaj najpoważniejsza dziura (CVE-2020-5959) spowodowana jest nieprawidłową weryfikacją danych wejściowych, co pozwala na przeprowadzenie ataku DoS. Lukę tę oceniono na 7,8 w skali CVSS. Druga z luk występująca w tym oprogramowaniu, CVE-2020-5960, została oceniona jako średnio poważna. Również ona umożliwia DoS.
      Poprawione wersje sterowników można pobrać na stronie Nvidii.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Firma NVIDIA zaprezentowała wczoraj procesor NVIDIA Tegra 3, rozpoczynając erę czterordzeniowych urządzeń przenośnych o wydajności porównywalnej z komputerami PC, cechujących się dłuższym czasem pracy na baterii i większą wygodą użytkowania. Pierwszym tabletem na świecie z czterordzeniowym procesorem Tegra 3 jest Eee Pad Transformer Prime firmy ASUS.
      Procesor Tegra 3, znany wcześniej pod nazwą kodową „Projekt Kal-El," osiąga trzykrotnie wyższą wydajność od procesora Tegra 2, a także cechuje się mniejszym nawet o 61 procent poborem energii. Dzięki temu urządzenia oparte na tym procesorze są w stanie odtwarzać materiały wideo w wysokiej rozdzielczości (HD) przez 12 godzin na jednym ładowaniu akumulatora.
      W procesorze Tegra 3 zaimplementowano nową, opatentowaną technologię zmiennego, symetrycznego przetwarzania wielowątkowego (ang. vSMP - Variable Symmetric Multiprocessing). vSMP zakłada wykorzystanie piątego „towarzyszącego" procesora, który został zaprojektowany do zadań niewymagających znacznej mocy obliczeniowej i cechuje się niewielkim poborem energii. Cztery główne rdzenie zostały specjalnie zaprojektowane do pracy z zadaniami wymagającymi wysokiej wydajności i na ogół pobierają mniej energii od procesorów dwurdzeniowych.
      Podczas wykonywania zadań wymagających mniejszego zużycia energii, takich jak słuchanie muzyki, odtwarzanie filmów lub aktualizowanie danych w tle, procesor Tegra 3 wyłącza cztery wysokowydajne rdzenie i pracuje wyłącznie na rdzeniu towarzyszącym. I odwrotnie - podczas realizacji zadań wymagających wysokiej wydajności, takich jak przeglądanie stron internetowych, pracy wielozadaniowej i gier, procesor Tegra 3 wyłącza rdzeń towarzyszący.
    • By KopalniaWiedzy.pl
      Nvidia prawdopodobnie o rok opóźni premierę układów wykonanych w technologii 28 oraz 22/20 nanometrów. Dwudziestoośmionanometrowy Kepler miał zadebiutować w bieżącym roku, a układ Maxwell wykonany w technologii 22 lub 20 nanometrów miał pojawić się w roku 2013. Z nieoficjalnych informacji wynika, że układy zadebiutują w roku 2012 i 2014.
      Przyczyną opóźnienia są problemy, jakie ma TSMC - zleceniobiorca Nvidii - z wdrażaniem kolejnych kroków technologicznych.
      To nie pierwsze problemy TSMC. Producent w 2009 roku miał trudności z wdrażaniem technologii 40 nanometrów, przez co opóźniły się premiery układu Ferii Nvidii oraz 40-nanometrowych procesorów AMD.
      Początkowo firma TSMC przewidywała, że w roku 2011 wdroży w jednej ze swoich fabryk technologię 28 nanometrów, a w roku 2012 rozpocznie pilotażową komercyjną produkcję układów 20-nanometrowych.
    • By KopalniaWiedzy.pl
      NVIDIA informuje, że Moskiewski Uniwersytet Państwowy rozbuduje swój superkomputer Łomonosow o 1554 układy GPU Tesla X2070. Dzięki temu maksymalna wydajność Łomonosowa ma osiągnąć 1,3 petaflopsa. Tym samym rosyjski superkomputer mógłby trafić do pierwszej dziesiątki najpotężniejszych maszyn na świecie.
      „Rozbudowany system łączy w sobie 1554 układy NVIDIA Tesla X2070 z identyczną liczbą czterordzeniowych CPU, dzięki czemu jego maksymalna moc obliczeniowawyniesie 1,3 petaflopsa, co uczyni go numerem 1 w Rosji i jednym z najszybszych systemów na świecie. System używany jest do badań wymagających intensywnych obliczeń, takich jak zmiany klimatyczne, modelowanie oceanów, formowanie się galaktyk" - czytamy w oświadczeniu NVIDII.
    • By KopalniaWiedzy.pl
      Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo.
      Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli.
      Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać.
      Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie.
      Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach.
      Kal-El ma pojawić się na rynku jeszcze w bieżącym roku.
       
      http://www.youtube.com/watch?v=eBvaDtshLY8
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...