Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Nowy gracz na rynku kart graficznych
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Kiedy przyglądamy się na ekranach komputerów spektakularnym efektom wizualnym w najnowszych grach czy filmach, rzadko analizujemy to, w jaki sposób możemy w ogóle je zobaczyć. Tymczasem karty graficzne, bo to właśnie ich zasługa, to jedne z najbardziej złożonych urządzeń w świecie technologii. Te małe i niepozorne urządzenia potrafią w ułamkach sekund wykonywać obliczenia, które jeszcze kilkadziesiąt lat temu zajęłyby superkomputerom kilka dni. Co warto wiedzieć o współczesnych kartach graficznych?
Wielkość ze skromnych początków, czyli historia i ewolucja kart graficznych Hasło znane z herbu brytyjskiego odkrywcy Francisa Drake’a, który jako jeden z pierwszych zdołał opłynąć świat, doskonale oddaje historię i rozwój kart graficznych. W latach 70. i 80. XX wieku pierwsze układy graficzne obsługiwały jedynie proste grafiki 2D, często oferując zaledwie kilka kolorów.
Przełom nastąpił w 1996 roku, gdy firma 3dfx wypuściła Voodoo Graphics – pierwszą masowo produkowaną kartę dedykowaną akceleracji 3D. Kolejne lata to rywalizacja gigantów: NVIDIA (z przełomowym GeForce 256, pierwszym oficjalnie nazwanym GPU) oraz ATI (później przejęte przez AMD).
Z każdą generacją wydajność rosła wręcz wykładniczo. Dzisiejsze karty mają więcej mocy obliczeniowej niż najbardziej zaawansowane superkomputery z początku wieku.
Architektura i działanie GPU CPU i GPU to typy procesorów używane w komputerach, ale mają różne funkcje. CPU (Central Processing Unit) jest głównym procesorem, który wykonuje większość obliczeń i zarządza całym komputerem. GPU (Graphics Processing Unit) to natomiast bardziej specjalistyczny procesor, który przyśpiesza operacje związane z grafiką, np. w grach lub programach do obróbki grafiki.
Jednostka CPU składa się z kilku rdzeni zoptymalizowanych pod kątem sekwencyjnego przetwarzania szeregowego, natomiast jednostki GPU zbudowane są z tysięcy mniejszych, wydajnych rdzeni zaprojektowanych z myślą o przetwarzaniu wielu zadań jednocześnie. Jest on przeznaczony do renderowania obrazów, filmów i animacji i sprawdza się podczas wydajnej obsługi danych wizualnych. NVIDIA nazywa je rdzeniami CUDA, AMD – Stream Processors, a Intel – Execution Units.
Zastosowania wykraczające poza gry Choć karty graficzne kojarzymy głównie z grami, ich prawdziwa siła tkwi we wszechstronności. Dzięki masowej równoległości obliczeń GPU zrewolucjonizowały wiele dziedzin. W medycynie przyspieszają analizę obrazów diagnostycznych i symulacje molekularne przy projektowaniu leków. Naukowcy używają ich do modelowania klimatu i symulacji astrofizycznych. Inżynierowie projektują na nich złożone struktury i przeprowadzają symulacje.
Szczególnie spektakularna jest ich rola w sztucznej inteligencji – trenowanie modeli deep learning przyspieszyło dzięki nim kilkaset razy. To właśnie karty graficzne napędzają boom AI, jaki obserwujemy w ostatnich latach.
Ciekawostki technologiczne i rekordy Świat kart graficznych pełen jest rekordów. Uznawana przez wielu za najmocniejszą konsumencką kartę graficzną na rynku – NVIDIA GeForce RTX 4090 – osiąga wydajność ponad 80 teraflopsów w obliczeniach FP32. To moc obliczeniowa porównywalna z superkomputerami sprzed zaledwie dekady! Dobre karty graficzne znajdziesz między innymi tutaj: https://www.morele.net/kategoria/karty-graficzne-12/,,,,,,,,0,,,,8143O2252854/1/
Miłośnicy ekstremalnego podkręcania używają ciekłego azotu, aby schłodzić karty do temperatur poniżej -150°C i wycisnąć z nich jeszcze więcej mocy. Rekordy taktowania przekraczają 3 GHz, podczas gdy standardowe zegary wynoszą około 2,2 GHz. Warto też wspomnieć o tym, że topowe modele potrafią pobierać ponad 450W mocy. To więcej niż pralka w trybie ekologicznym. Niektóre z nich wymagają nawet trzech złączy zasilania 8-pin, a producenci zalecają zasilacze o mocy 1000W lub więcej.
Przyszłość technologii GPU Przyszłość kart graficznych rysuje się w jeszcze jaśniejszych barwach. Ray tracing – technologia symulująca rzeczywiste zachowanie światła – staje się standardem, oferując fotorealistyczne odbicia, cienie i oświetlenie. Algorytmy oparte na AI, jak NVIDIA DLSS czy AMD FSR, pozwalają generować obrazy w wyższych rozdzielczościach przy mniejszym obciążeniu sprzętu. Producenci pracują nad kartami, które zaoferują większą moc przy niższym zużyciu energii. Jednocześnie rozwija się technologia chipletów, gdzie GPU składa się z wielu mniejszych układów zamiast jednego monolitu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
AMD zaprezentowała dzisiaj kartę graficzną Radeon HD 7970. Firma twierdzi, że to najbardziej wydajna jednoprocesorowa karta na świecie, która korzysta z jedynego GPU wykonanego w technologii 28 nanometrów. Procesor wykorzystuje nową mikroarchitekturę Graphics Core Next. W porównaniu z poprzednią generacją architektura ta jest o 150% bardziej wydajna na każdy milimetr kwadratowy powierzchni.
Bazujący na Tahiti GPU kość Radeon HT 7970 korzysta z 2048 procesorów strumieniowych, 384-bitowej szyny pamięci GDDR5 i 4,31 miliarda tranzystorów. Powierzchnia procesora wynosi zaledwie 365 milimetrów kwadratowych.
Układ Radeon 7970 taktowany jest zegarem o częstotliwości 925 megaherców, a jego teoretyczna szczytowa wydajność wynosi 3,79 teraflopsa. To nieco ponad teraflops więcej niż wydajność karty Radeon 6970. Szyna pamięci nowej karty taktowana jest 1,375-gigahercowym zegarem, co pozwala jej na przesłanie 264 gigabajtów danych w ciągu sekundy. Przepustowość szyny 6970 wynosi 176 GB/s.
-
przez KopalniaWiedzy.pl
Podczas konferencji Supercomputing 2010 główny inżynier Nvidii, Bill Dally, zaprezentował projekt układu graficznego, który będzie napędzał eksaflopsowe komputery. System Echelon, który na razie istnieje tylko na papierze, będzie charakteryzował się wydajnością rzędu 10 teraflopsów. Wykona on pojedynczą operację zmiennoprzecinkową zużywając do tego celu zaledwie 10 pikodżuli, czyli 20-krotnie mniej niż obecne układy Fermi.
Echelon składa się ze 128 procesorów strumieniowych, z których każdy zbudowany jest z 8 rdzeni. W efekcie otrzymamy 1024-rdzeniowy procesor, którego każdy rdzeń jest w stanie wykonać w jednym takcie zegara cztery operacje zmiennoprzecinkowe o podwójnej precyzji. Odpowiada to wydajności 10 teraflopsów.
Echelon będzie zatem korzystał z dwukrotnie większej liczby rdzeni niż obecne najbardziej wydajne GPU Nvidii, z których każdy wykona czterokrotnie więcej operacji w takcie zegara. Poważne zmiany zajdą też w podsystemie pamięci. Echelon będzie miał do dyspozycji 256 megabajtów dynamicznie konfigurowalnej SRAM. Pamięć będzie można podzielić aż na sześć różnych poziomów, przydzielając każdemu z rdzeni własną przestrzeń. Dzięki takiej konfiguracji dane będą znajdowały się możliwe blisko miejsca przetwarzania, co pozwoli zaoszczędzić olbrzymią ilość energii zużywanej obecnie na ich przesyłanie. Ponadto chip zostanie wyposażony w mechanizm rozgłaszania, dzięki któremu wyniki poszczególnych działań będą mogły zostać udostępnione dowolnemu węzłowi, który będzie ich potrzebował. Struktura pamięci podręcznej układu będzie spójna pod względem logicznym ze strukturą CPU, co ułatwi tworzenie oprogramowania dla Echelona.
Nvidia pracuje nad Echelonem w ramach finansowanego przez DARPA projektu Ubiquitous High Performance Computing. Firma rywalizuje tutaj z Intelem, MIT-em i Sandia National Laboratory. DARPA postawiła przed uczestnikami programu zadanie zbudowania do 2014 roku prototypowego petaflopsowego systemu, który ma zużywać nie więcej niż 57 kilowatów mocy. Taki system ma stać się podstawą do zbudowania do 2018 roku eksaflopsowego superkomputera.
-
przez KopalniaWiedzy.pl
W drugim kwartale bieżącego roku AMD dostarczyło na rynek więcej procesorów graficznych niż Nvidia. Pomiędzy kwietniem a czerwcem do AMD należało 51% rynku GPU, do Nvidii - 49%. Jeszcze rok wcześniej AMD mogło pochwalić się jedynie 41-procentowym udziałem.
Do tak znacznego wzrostu niewątpliwie przyczynił się fakt, że AMD jako pierwsze rozpoczęło sprzedaż kart obsługujących technologię DirectX 11, rozpowszechnianą wraz z systemem Windows 7.
Z kolei Nvidia nie była w stanie dostarczyć odpowiedniej liczby kart GTX 470 i GTX 480, a ostatnia przegrana przed sądem z firmą Rambus spowodowała, że Apple nie wykorzystuje GPU Nvidii w swoich najnowszych komputerach.
Z danych Mercury Research wynika też, że największym graczem na rynku układów graficznych pozostaje Intel, który może pochwalić się udziałami rzędu 54,3%. AMD ma 24,5% rynku, a Nvidia - 19,8%.
-
przez KopalniaWiedzy.pl
Jak donosi serwis Daily Tech, Intel zrezygnował z układu Larrabee, o którego prezentacji niedawno informowaliśmy. Powodem podjęcia takiej decyzji była zbyt mała wydajność układu.
Procesor miał zadebiutować w przyszłym roku, a jego wydajność miała sięgać 2 teraflopsów. Okazało się jednak, że konkurencja zaskoczyła Intela. ATI najpierw pokazało procesor Radeon HD 5870 o wydajności 2,72 TFlops, a niedawno na rynku zadebiutował koleny GPU tej firmy - Radeon HD 5970, którego wydajność przekracza 5 teraflopsów. To był ostatni gwóźdź do trumny intelowskiego GPGPU.
Koncern poinformował, że Larrabee nie spełnił jego oczekiwań. W związku z tym układ na pewno nie trafi na rynek. Będzie rozwijany jako platforma testowa, która ma w przyszłości umożliwić Intelowi wkroczenie na rynek samodzielnych układów graficznych.
Przedstawiciele Intela zapowiedzieli, że w przyszłym roku przedstawią nowe plany rozwoju firmowych GPU.
Przypomnijmy, że to już kolejna podjęta przez tę firmę próba zaistnienia na rynku GPU. W 1998 roku Intel rozpoczął sprzedaż układów i740, które miały spopularyzować szynę AGP. Szyna się przyjęła, jednak układy nie spełniły oczekiwań klientów i szybko zniknęły z rynku.
Intel pozostaje zatem największym na świecie producentem wbudowanych rdzeni graficznych, jednak wciąż nie jest w stanie zaistnieć na rynku samodzielnych GPU.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.