Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'GPU' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 33 wyników

  1. AMD zaprezentowała dzisiaj kartę graficzną Radeon HD 7970. Firma twierdzi, że to najbardziej wydajna jednoprocesorowa karta na świecie, która korzysta z jedynego GPU wykonanego w technologii 28 nanometrów. Procesor wykorzystuje nową mikroarchitekturę Graphics Core Next. W porównaniu z poprzednią generacją architektura ta jest o 150% bardziej wydajna na każdy milimetr kwadratowy powierzchni. Bazujący na Tahiti GPU kość Radeon HT 7970 korzysta z 2048 procesorów strumieniowych, 384-bitowej szyny pamięci GDDR5 i 4,31 miliarda tranzystorów. Powierzchnia procesora wynosi zaledwie 365 milimetrów kwadratowych. Układ Radeon 7970 taktowany jest zegarem o częstotliwości 925 megaherców, a jego teoretyczna szczytowa wydajność wynosi 3,79 teraflopsa. To nieco ponad teraflops więcej niż wydajność karty Radeon 6970. Szyna pamięci nowej karty taktowana jest 1,375-gigahercowym zegarem, co pozwala jej na przesłanie 264 gigabajtów danych w ciągu sekundy. Przepustowość szyny 6970 wynosi 176 GB/s.
  2. Podczas konferencji Supercomputing 2010 główny inżynier Nvidii, Bill Dally, zaprezentował projekt układu graficznego, który będzie napędzał eksaflopsowe komputery. System Echelon, który na razie istnieje tylko na papierze, będzie charakteryzował się wydajnością rzędu 10 teraflopsów. Wykona on pojedynczą operację zmiennoprzecinkową zużywając do tego celu zaledwie 10 pikodżuli, czyli 20-krotnie mniej niż obecne układy Fermi. Echelon składa się ze 128 procesorów strumieniowych, z których każdy zbudowany jest z 8 rdzeni. W efekcie otrzymamy 1024-rdzeniowy procesor, którego każdy rdzeń jest w stanie wykonać w jednym takcie zegara cztery operacje zmiennoprzecinkowe o podwójnej precyzji. Odpowiada to wydajności 10 teraflopsów. Echelon będzie zatem korzystał z dwukrotnie większej liczby rdzeni niż obecne najbardziej wydajne GPU Nvidii, z których każdy wykona czterokrotnie więcej operacji w takcie zegara. Poważne zmiany zajdą też w podsystemie pamięci. Echelon będzie miał do dyspozycji 256 megabajtów dynamicznie konfigurowalnej SRAM. Pamięć będzie można podzielić aż na sześć różnych poziomów, przydzielając każdemu z rdzeni własną przestrzeń. Dzięki takiej konfiguracji dane będą znajdowały się możliwe blisko miejsca przetwarzania, co pozwoli zaoszczędzić olbrzymią ilość energii zużywanej obecnie na ich przesyłanie. Ponadto chip zostanie wyposażony w mechanizm rozgłaszania, dzięki któremu wyniki poszczególnych działań będą mogły zostać udostępnione dowolnemu węzłowi, który będzie ich potrzebował. Struktura pamięci podręcznej układu będzie spójna pod względem logicznym ze strukturą CPU, co ułatwi tworzenie oprogramowania dla Echelona. Nvidia pracuje nad Echelonem w ramach finansowanego przez DARPA projektu Ubiquitous High Performance Computing. Firma rywalizuje tutaj z Intelem, MIT-em i Sandia National Laboratory. DARPA postawiła przed uczestnikami programu zadanie zbudowania do 2014 roku prototypowego petaflopsowego systemu, który ma zużywać nie więcej niż 57 kilowatów mocy. Taki system ma stać się podstawą do zbudowania do 2018 roku eksaflopsowego superkomputera.
  3. W drugim kwartale bieżącego roku AMD dostarczyło na rynek więcej procesorów graficznych niż Nvidia. Pomiędzy kwietniem a czerwcem do AMD należało 51% rynku GPU, do Nvidii - 49%. Jeszcze rok wcześniej AMD mogło pochwalić się jedynie 41-procentowym udziałem. Do tak znacznego wzrostu niewątpliwie przyczynił się fakt, że AMD jako pierwsze rozpoczęło sprzedaż kart obsługujących technologię DirectX 11, rozpowszechnianą wraz z systemem Windows 7. Z kolei Nvidia nie była w stanie dostarczyć odpowiedniej liczby kart GTX 470 i GTX 480, a ostatnia przegrana przed sądem z firmą Rambus spowodowała, że Apple nie wykorzystuje GPU Nvidii w swoich najnowszych komputerach. Z danych Mercury Research wynika też, że największym graczem na rynku układów graficznych pozostaje Intel, który może pochwalić się udziałami rzędu 54,3%. AMD ma 24,5% rynku, a Nvidia - 19,8%.
  4. Jak donosi serwis Daily Tech, Intel zrezygnował z układu Larrabee, o którego prezentacji niedawno informowaliśmy. Powodem podjęcia takiej decyzji była zbyt mała wydajność układu. Procesor miał zadebiutować w przyszłym roku, a jego wydajność miała sięgać 2 teraflopsów. Okazało się jednak, że konkurencja zaskoczyła Intela. ATI najpierw pokazało procesor Radeon HD 5870 o wydajności 2,72 TFlops, a niedawno na rynku zadebiutował koleny GPU tej firmy - Radeon HD 5970, którego wydajność przekracza 5 teraflopsów. To był ostatni gwóźdź do trumny intelowskiego GPGPU. Koncern poinformował, że Larrabee nie spełnił jego oczekiwań. W związku z tym układ na pewno nie trafi na rynek. Będzie rozwijany jako platforma testowa, która ma w przyszłości umożliwić Intelowi wkroczenie na rynek samodzielnych układów graficznych. Przedstawiciele Intela zapowiedzieli, że w przyszłym roku przedstawią nowe plany rozwoju firmowych GPU. Przypomnijmy, że to już kolejna podjęta przez tę firmę próba zaistnienia na rynku GPU. W 1998 roku Intel rozpoczął sprzedaż układów i740, które miały spopularyzować szynę AGP. Szyna się przyjęła, jednak układy nie spełniły oczekiwań klientów i szybko zniknęły z rynku. Intel pozostaje zatem największym na świecie producentem wbudowanych rdzeni graficznych, jednak wciąż nie jest w stanie zaistnieć na rynku samodzielnych GPU.
  5. Niedawno Microsoft zapowiedział, że Internet Explorer 9 będzie korzystał z Direct2D, co pozwoli na użycie procesorów graficznych do renderowania zawartości witryn WWW. Ma to umożliwić stworzenie przeglądarki, która będzie co najmniej tak szybka, jak produkty konkurencji. Wygląda na to, że na podobny pomysł wpadli przedstawiciele Mozilli i Firefox może być pierwszą przeglądarką wykorzystującą GPU. Bas Schouten, jeden z developerów Firefoksa, oświadczył na swoim blogu, że właśnie zakończono prace nad wersją alfa Firefoksa korzystającego z Direct2D. Jak informuje Schouten, wstępne testy pokazują, że różnica pomiędzy renderowaniem witryny przez GPU i CPU jest niewielka. Jednak, jego zdaniem, z czasem będzie się to zmieniało. W miarę jak strony będą wykorzystywały coraz więcej grafiki i zawartości dynamicznej, będziemy widzieli coraz większą przewagę przeglądarek korzystających z Direct2D. Wszystko wskazuje na to, że Mozilla wyprzedzi Microsoft w wykorzystywaniu GPU. Firefox 3.7 ma zadebiutować w pierwszej połowie przyszłego roku i to prawdopodobnie on będzie pierwszą przeglądarką korzystającą z procesora graficznego. Microsoft dopiero rozpoczął prace nad Internet Explorerem 9 i nie wiadomo, na kiedy planowana jest premiera tego programu.
  6. Ze slajdów, które niedawno wypłynęły do Sieci, dowiadujemy się, jak wyglądają plany AMD na najbliższe dwa lata. Możemy więc zobaczyć, że w drugiej połowie przyszłego roku zadebiutuje platforma Leo i jej pierwszy przedstawiciel, czyli 6-rdzeniowy procesor Thuban i chipsety z serii 800. Wśród GPU dominowała będzie linia Evergreen. Nie wiadomo, czy zajdą w niej jakieś zmiany, chociaż już jakiś czas temu pojawiły się plotki, że w 2010 roku AMD pokaże drugą generację Evergreen. Jedną z najważniejszych informacji jest pojawienie się na slajdach kolejnej rodziny procesorów graficznych. Układy o nazwie kodowej Northern Islands będą produkowane w technologii 32 nanometrów. Mają one zadebiutować w 2011 roku wraz z platformami Scorpius i Lynx. W ramach pierwszej z nich na rynek trafią ponad czterordzeniowe procesory Bulldozer wykonane w technologii 32 nm. Z kolei wraz z Lynx zadebiutuje nowa technologia Fusion. W jej ramach zobaczymy układy z 32-nanometrowymi rdzeniami Stars (obecnie używanymi w układach Phenom II X4) oraz zintegrowanym GPU. Nieoficjalnie mówi się, że procesor graficzny będzie oparty na technologii Evergreen. Zmiany zajdą też na rynku notebooków. W 2010 roku pojawi się platforma Danube z pierwszym w historii AMD czterordzeniowym CPU dla komputerów przenośnych. Dużą niespodzianką jest informacja o procesorach graficznych planowanych na 2010 rok. Notebookowe układy o nazwach kodowych Park, Madison i Broadway mają być tworzone w technologii 32 nm i, jak głosi plotka, będą unowocześnioną wersją 40-nanometrowych desktopowych kości Evergreen. W roku 2011 na notebooki trafi technologia Fusion i platformy Sabine i Brazos. W tym czasie pojawią się też 32-nanometrowe GPU z rodziny Northern Island.
  7. Podczas konferencji prasowej w Tajpei AMD pokazało pierwszy procesor graficzny obsługujący DirectX 11. Urządzenie ma zadebiutować już pod koniec bieżącego roku. DirectX 11, a więc i obsługujące tę technologię CPU, wprowadzają do świata grafiki komputerowej trzy bardzo ważne elementy. Pierwszy z nich to teselator, moduł odpowiedzialny za teselację, czyli zamianę brył w sieć składającą się z olbrzymiej liczby trójkątów. Im jest ich więcej, tym lepiej odwzorowany jest obiekt. Sprzętowo realizowana teselacja pozwala na osiągnięcie znacznie lepszej wydajności niż dotychczas i daje twórcy grafiki więcej swobody - nie musi on już poświęcać jakości grafiki na rzecz wydajności. Sprzętowa teselacja nie jest zupełną nowością. Zastosowano ją w układzie graficznym dla Xboksa 360 oraz w kartach graficznych od ATI Radeon HD 2000 po ATI Radeon HD 4000. Kolejną nowością w DX11 jest shader powłoki (hull shader), odpowiedzialny za traktowanie danych wejściowych jako siatki powiązanych ze sobą danych o różnych częstotliwościach, co pozwala łatwo zmieniać jedną reprezentację powierzchni w inną. Dotychczas dokonywało tego specjalne oprogramowanie. Teraz zajmie się tym procesor graficzny, dzięki czemu uzyskamy znacznie bardziej realistyczne bryły o gładkich powierzchniach. Inny ważny element to shader dziedziny (domain shader), który umożliwia jednorazowe generowanie przedmiotu i "pracę" z nim. Oznacza to, że karta graficzna wygeneruje np. budynek, a gdy nasz bohater ostrzela go i częściowo zniszczy, to GPU nie będzie musiał generować obrazu zniszczonego budynku, a jedynie zajmie się tymi fragmentami, które w czasie ostrzału uległy zmianie. Wraz z DirectX 11 zadebiutuje też Shader Model 5.0, zwiększający dokładność renderingu. Całość umożliwia szybsze, łatwiejsze i tańsze tworzenie gier komputerowych. Biblioteki DX11 pojawią się wraz z Windows 7. Mniej więcej w tym samym czasie na rynek trafi nowy procesor graficzny AMD. Można się spodziewać, że i Nvidia nie zasypia gruszek w popiele i także pokaże wkrótce swój własny GPU z DX11.
  8. Niewielka firma Caustic Graphics z San Francisco, ogłosiła przełom w sprzętowej akceleracji ray-tracingu. Przedsiębiorstwo zapewnia, że jej technologia już teraz jest w stanie 20-krotnie przyspieszyć związane z nim obliczenia, a na początku 2010 roku osiągnie 200-krotne przyspieszenie. Tak olbrzymi postęp możliwy jest dzięki specjalnym algorytmom, które są implementowane w układach scalonych. Opracowana przez Caustic Graphics platforma CausticRT umożliwi przyspieszenie ray-tracingu za pomocą GPU i CPU. Składa się ona z koprocesora CausticOne oraz API CausticGL bazującego na OpenGL. Dzięki nim powinny pojawić się niezwykle realistyczne efekty w grach i filmach. Jon Peddie, z firmy Jon Peddie Research mówi: Caustic Graphics dokonało przełomu dzięki niewielkiemu akceleratorowi sprzętowemu i bardzo innowacyjnemu oprogramowaniu. Caustic jest zarządzana przez osoby, które wcześniej pracowały w takich firmach jak Autodesk, Apple, ATI, Intel czy Nvidia. Szczegółową ofertę Caustic Graphics poznamy już w kwietniu.
  9. Analitycy z firmy Jon Peddie Research uważają, że do roku 2012 rynek tradycyjnych zintegrowanych rdzeni graficznych przestanie istnieć. Zostanie on zastąpiony innymi rozwiązaniami. Najpierw w latach 2010-2012 będziemy świadkami integrowania procesorów graficznych jako osobnych kości na płycie głównej. Później GPU zostaną połączone z CPU. Tym samym rdzenie graficzne w chipsecie stracą rację bytu. Już w pod koniec bieżącego roku na rynek ma trafić 32-nanometrowy procesor Intela o kodowej nazwie Arrendale. Producent zintegruje w nim CPU z GPU. W 2011 roku będzie można kupić podobny produkt AMD.
  10. Z odbywających się właśnie targów CeBIT 09 nadchodzą informacje o nowych produktach AMD, Intela i Nvidii. AMD ogłosiło powstanie pierwszych procesorów graficznych wykonanych w technologii 40 nanometrów. To układy ATI Mobility Radeon HD 4860 i 4830. Układy wyposażono w silnik 3D z desktopowego Radeona HD 4800, obsługują DirectX 10.1, panoramiczny obraz w rozdzielczości HD oraz zaawansowane technologie oszczędności energii. Układ ATI Mobility Radeon HD 4860 współpracuje z pamięciami GDDR5. Obie kości wkrótce znajdą się w notebookach Asusa. Z kolei Intel zapowiedział kilka nowych wersji procesora Atom. Układy taktowane będą zegarami od 1,1 do 1,6 GHz, mają współpracować z 400- i 533-megahercowymi magistralami systemowymi i zostaną wyposażone w 512 kilobajtów pamięci L2. Ich pobór mocy wyrażony emisją cieplną (TDP) wyniesie 2,2 wata. Część z tych procesorów, zdolnych do pracy w temperaturach od 0 do +70 stopni Celsjusza trafi na rynek konsumencki, a dwa modele są przeznaczone do zastosowań przemysłowych. Zakres ich pracy wynosi od -40 do +85 stopni Celsjusza. Natomiast w ofercie Nvidii znajdziemy bardzo wydajne procesory graficzne dla komputerów przenośnych. Jest wśród nich najszybsze urządzenie tego typu, GPU GeForce GTX 280M. Układ ten został wyposażony w 128 jednostek cieniujących, jego wydajność to 562 gigaflopsy, a zegar procesora pracuje z częstotliwością 1463 MHz. Pamięć taktowana jest zegarem do 950 MHz. Współczynnik texture fill rate wynosi 38 gigatekseli na sekundę. Kość współpracuje z gigabajtem 256-bitowej pamięci GDDR3. Inne zaprezentowane przez Nvidię kości to GeForce GTX 260M (112 jednostek cieniujących, wydajność 462 gigaflopsy, zegar procesora 1375 MHz, fillrate 31 gigatekseli), GeForce GTS 160M i GTS 150M.
  11. Intel zdradził szczegóły na temat kości Larrabee, która ma konkurować z procesorami graficznymi ATI i Nvidii. Przede wszystkim trzeba podkreślić, że Larrabee będzie samodzielnym układem scalonym opartym na architekturze Pentium. Nie jest to więc rdzeń graficzny wbudowany w chipset. Intel produkował już niegdyś samodzielne układy graficzne, jednak wycofał się z tego rynku. Koncern jest natomiast największym producentem wbudowanych rdzeni graficznych. Larrabee nie będzie jednak typowym GPU. Ma być to coś pośredniego pomiędzy procesorem (CPU) a procesorem graficznym (GPU). Intelowi chodzi o wyprodukowanie łatwo programowalnego układu o dużej wydajności. Kość będzie korzystała z rdzeni x86, których liczba, w zależności od segmentu rynku, na jaki będzie skierowana, ma się wahać od 8 do 48. Wspomagane będą one przez jednostkę przetwarzania wektorowego. Każdy z rdzeni zostanie wyposażony w 256 kilobajtów pamięci podręcznej drugiego poziomu. Larrabee ma obsługiwać zarówno DirectX, jak i apple'owskie Open CL. Kość będzie radziła sobie z różnymi typami obliczeń równoległych, a jej system kolejkowania zadań będzie zależał od oprogramowania, a nie od wbudowanych obwodów logicznych. To da programistom większą swobodę pracy, gdyż będą mogli oni dostosować zasoby sprzętowe do wymagań każdej aplikacji. Każdy z rdzeni Larrabee będzie w stanie wykonać cztery wątki, z osobnym rejestrem dla każdego z nich. Kość wykorzystuje też 1024-bitową, dwukierunkową sieć pierścieniową. Analitycy z Jon Peddie Research uważają, że rynek nie będzie robił różnicy pomiędzy Larrabee i tradycyjnym GPU, więc kość będzie rozprowadzana jako GPU. Trudno jednak ocenić szanse Intel na sukces. Z jednej strony aż 98% rynku procesorów graficznych należy do ATI i Nvidii. Należy jednak pamiętać, że Intel jest potężną firmą, z olbrzymim zapleczem technicznym i marketingowym, może więc stać się poważnym graczem.
  12. Podczas targów CeBIT 2008 pokazano prototypowe karty graficzne z procesorami GeForce 9800 X2 Nvidii. Sam układ jeszcze oficjalnie nie zadebiutował, więc nie należy się spodziewać, że lada chwila wspomniane karty znajdą się na sklepowych półkach. Specyfikacja układów GeForce 9800, które mają zastąpić serię 8800, wygląda imponująco. Kości wykonano w technologii 65 nanometrów. Są one taktowane 600-megahercowym zegarem, a zegar jednostek cieniowania pracuje z częstotliwością 1625 MHz. Współpracują z 2-gigahercowymi układami GDDR3. Na każdej z kart zainstalowano 1 gigabajt 256-bitowych układów pamięci. Oba GPU używają 256 jednostek przetwarzania (po 128 na procesor). Nowe karty korzystają z technologii PureVideo HD, PCI Express 2.0, DirectX10. Zostały też wyposażone w wyjścia HDMI oraz DVI. Oficjalny debiut GeForce 9800 GX2 ma nastąpić jeszcze w bieżącym miesiącu. Procesor będzie konkurował z układem HD 3870 HD produkcji AMD.
  13. Nvidia twierdzi, że za cztery lata aż trzy z pięciu najpotężniejszych na świecie komputerów będzie korzystało z procesorów graficznych, a nie z CPU. Obaj główni producenci GPU – ATI i Nvidia – już od pewnego czasu mówią o wykorzystaniu ich produktów do obliczeń niezwiązanych z przetwarzaniem grafiki. Takie rozwiązanie może być bardzo korzystne dla właścicieli superkomputerów. Obecnie maszyny te korzystają nawet z dziesiątków czy setek tysięcy procesorów. Współczesne GPU charakteryzują się większą mocą obliczeniową niż CPU, tak więc komputer o tej samej mocy wymagałby zastosowania mniejszej liczby kości. To oznacza, że zarówno jego zbudowanie jak i utrzymanie (tutaj mowa jest przede wszystkim o kosztach energii elektrycznej) byłoby tańsze. Jako przykład niech posłuży superkomputer BlueGene/L. Obecnie jego maksymalna wydajność wynosi 596 teraflopsów. Maszyna korzysta z 213 000 procesorów PowerPC 440. Maksymalna wydajność najnowszych GPU to około 0,5 Tflops. Oznacza to, że BlueGene/L mógłby wykorzystywać mniej więcej 1200 procesorów graficznych w miejsce 213 000 CPU. Do wykorzystania GPU w superkomputerach droga jednak daleka. Należy nie tylko przekonać producentów tych maszyn, by zechcieli używać chipów graficznych, ale również odpowiednio przygotować architekturę i oprogramowanie najpotężniejszych maszyn na świecie.
  14. Przejęcie ATI przez AMD nie pomogło tej pierwszej firmie w odzyskaniu dawnej pozycji na rynku układów graficznych. Największym producentem tego typu kości wciąż pozostaje Intel, jednak najbardziej zauważalnym zjawiskiem jest szybki wzrost udziałów Nvidii. Trzeci kwartał 2007 roku to drugi kwartał z kolei, który nas zaskoczył. W drugim kwartale nastąpił spory wzrost popytu na układy graficzne. A zwykle jest to bardzo spokojny okres. Z kolei trzeci kwartał, w którym zwykle widzimy duże wzrosty, był tym razem rekordowy. Uważamy, że zjawiska te są związane z dużym popytem na systemy multimedialne i, do pewnego stopnia, z popytem na Windows Vistę – mówi Jon Peddle, dyrektor firmy analitycznej Peddle Research. W trzecim kwartale bieżącego roku producenci dostarczyli na rynek 97,85 miliona procesorów graficznych. To o 20% więcej, niż kwartał wcześniej i o 18,2% więcej niż w trzecim kwartale roku ubiegłego. W ostatnim kwartale Nvidia zwiększyła swoje dostawy o 25,1%, Intel o 21,6%, a AMD jedynie o 17,8% w porównaniu z kwartałem ubiegłym. Obecnie do Intela należy 38% rynku, udziały Nvidii wynoszą 33,9% (to najlepszy od wielu lat wynik tej firmy). Tymczasem udziały AMD spadły o 0,4% i wynoszą obecnie 19,1%.
  15. Technologia CrossFire, która umożliwia łączenia kart graficznych firmy ATI i wykorzystywanie mocy dwóch GPU jednocześnie, zadebiutowała w połowie 2005 roku. Dotychczas jednak nie zdobyła zbytniej popularności. Znacznie lepiej radzi sobie Nvidia ze swoją SLI. AMD, obecny właściciel ATI, nie zamierza jednak z niej rezygnować. Dziennikarze X-bit laboratories dowiedzieli się, że jeszcze w bieżącym roku ma zadebiutować CrossFireX, która nie tylko pozwoli na połączenie kilku procesorów graficznych, ale również będzie korzystała z technologii CrossFire Overdrive czy Hybrid CrossFire. Pierwsza z nich dynamicznie dostosowuje zegar GPU do wykonywanych zadań, a druga umożliwia łączenie mocy GPU i rdzenia graficznego znajdującego się w chipsecie na płycie głównej oraz potrafi wyłączyć GPU w sytuacji, gdy jego moc nie jest potrzebna. Nowa technologia będzie obsługiwana przez przyszłe chipsety AMD, w tym przez AMD 790X i 790FX. Zostanie ona zastosowana w całej serii kart graficznych: Radeon HD 26xx, Radeon HD 2900 XT/Pro/GT. CrossFireX ma być częścią platformy Spider, w skład której wejdą również trzy- i czterordzeniowe procesory Phenom.
  16. Media coraz częściej informują o planowanej ponoć przez Nvidię premierze nowego procesora graficznego o nazwie kodowej G92. Kość, która ma zadebiutować 12 października, nie zastąpi jednak układu G80 (GeForce 8800), który jest flagowym produktem Nvidii. Ponoć G92 ma być przeznaczony dla przeciętnego użytkownika wymagającego wydajnego układu. Nie będzie pozycjonowany na rynek najbardziej wydajnych domowych GPU. W nowej kości znajdzie się ulepszona tachnologia PureVideo HD, kość będzie współpracowała z szyną PCI Express 2.0 oraz z DVI, DisplayPort i HDMI. Jeszcze nie wiadomo, czy będzie wykorzystywała biblioteki DirecX 10.1. Ma być podobno wykonana w technologii 65 nanometrów, a jej produkcją zajmie się TSMC. Jeśli doniesienia mediów o pozycjonowaniu G92 na mainstreamowy rynek są prawdziwe, może to oznaczać, że albo Nvidia zmieniła taktykę, albo też wkrótce zaprezentuje wysokowydajny GPU, który może nosić nazwę kodową G90. Przed kilkoma miesiącami Michael Hara, wiceprezes Nvidii ds. relacji z inwestorami, zapowiedział, że przyszły okręt flagowy jego firmy, który zastąpi procesory G80 sprzedawane jako GeForce 8800 GTS, GTX i Ultra, będzie charakteryzował się wydajnością rzędu 1 teraflopsa. To dwukrotnie więcej, niż G80. Jednocześnie należy pamiętać, że Nvidia dotychczas najpierw pokazywała bardziej wydajne i droższe układy, a kilka miesięcy później wypuszczała na rynek tańsze i mniej wydajne wersje tych samych kości. Sama Nvidia nie komentuje powyższych doniesień, nadal więc są one jedynie spekulacjami.
  17. Korzystanie z wysoko wydajnych procesorów graficznych niesie za sobą zwiększenie poboru energii przez komputer. Jest to szczególnie widoczne gdy używamy więcej niż jednego GPU. Jednak nie zawsze potrzebujemy tak dużych mocy obliczeniowych dla grafiki. Nvidia pracuje właśnie nad technologią Hybrid SLI, która ma zapewnić dużą moc przy jednoczesnym niskim poborze energii. Hybrid SLI ma zadbać o przełączanie pomiędzy rdzeniem graficznym wbudowanym w chipset a procesorami zamontowanymi na kartach graficznych. Gdy użytkownik korzysta np. z edytora tekstu czy przegląda Internet, nie potrzebuje dużych mocy i z powodzeniem może wyświetlać obraz za pomocą rdzenia w chipsecie. Kiedy chce zagrać w najnowszą grę lub zająć się projektowaniem trójwymiarowym – wówczas konieczne stanie się wykorzystanie mocny akceleratorów. Ponadto wbudowany rdzeń graficzny (IGP) może wspomóc procesor graficzny (GPU) w obliczeniach. Tutaj właśnie ma do spełnienia swoją rolę Hybrid SLI. W zależności od tego, co będzie robił użytkownik, zapewni mu ona wystarczające zasoby sprzętowe. Nowa technologia może sprawdzić się szczególnie w notebookach. Dla ich właścicieli czas pracy na bateriach jest jednym z najbardziej istotnych czynników, a mocna karta graficzna potrafi ten czas poważnie ograniczyć.
  18. Nvidia, znany producent procesorów graficznych z serii GeForce, postanowiła zmienić obecnie wykorzystywane stacje robocze w urządzenia, które nazwała superkomputerami osobistymi. Firma zaoferowała procesory Tesla, oparte na GPU układy, które charakteryzuje wyjątkowo duża wydajność. Dzięki temu naukowcy czy inżynierowie potrzebujących potężnych mocy obliczeniowych nie muszą już starać się o dostęp do superkomputerów. Wiele zadań będą mogli wykonać dzięki Tesli zainstalowanej w swoich stacjach roboczych. W ramach rodziny Testla Nvidia proponuje:procesor GPU Nvidia Tesla zamontowany na dedykowanej karcie rozszerzeń. GPU Tesla składa się ze 128 procesorów równoległych a jego moc obliczeniowa dochodzi do 518 gigaflopsów (518 miliardów operacji zmiennoprzecinkowych na sekundę);superkomputer desksite Nvidia Tesla, czyli rozszerzalny system obliczeniowy zawierający dwa procesory Tesla, który można podłączyć do peceta lub stacji roboczej za pomocą adaptera PCI Express. Nvidia zapewnia, że takie rozwiązanie będzie charakteryzowało się mocą obliczeniową rzędu 8 teraflopsów (8 bilonów operacji zmiennoprzecinkowych na sekundę). Wynik jest o tyle szokujący, że 8-teraflopsowy system uplasowałby się na 84. miejscu listy 500 najpotężniejszych superkomputerów na świecie;serwer obliczeń GPU Nvidia Tesla, który zawiera do ośmiu procesorów Tesla i oferuje teraflopy mocy obliczeniowej.Nvidia zapewnia, że Tesla, dostarczona już firmom i ośrodkom naukowym zapewniła wzrost wydajności systemów komputerowych od 45 do 415 razy. Tesla uzyskała takie wyniki podczas pracy z bazą danych sejsmicznych, symulowania neuronów, chmur czy w czasie przetwarzania obrazów rezonansu magnetycznego.
  19. Dzisiaj Nvidia oficjalnie ogłosiła rozpoczęcie sprzedaży mobilnych układów graficznych kompatybilnych z bibliotekami DirectX 10. Kości z serii GeForce 8M pozwolą więc na pełne wykorzystanie możliwości Windows Visty oraz najnowszych powstających dopiero gier. Te pierwsze układy dla notebooków dające użytkownikowi do dyspozycji funkcje DX10 obsługują też standard H.264 wykorzystywany w kodowaniu filmów wysokiej rozdzielczości. Już w tej chwili można je znaleźć w notebookach takich producentów jak Fujitsu-Siemens, Medion, Packard Bell czy NEC Computers SAS. W ramach GeForce 8M już są dostępne, bądź w najbliższym czasie znajdą się na rynku, następujące układy: 8400M G 8400M GS 8400M GT 8600M GS 8600M GT liczba potoków 8 16 16 16 32 częstotliwość taktowania GPU 400 MHz 400 MHz 450 MHz 600 MHz 475 MHz zegar jednostek odpowiedzialnych za cieniowanie 800 MHz 800 MHz 900 MHz 1200 MHz 950 MHz częstotliwość taktowania pamięci 600 MHz 600 MHz 600 MHz 700 MHz 700 MHz maksymalna pojemność pamięci 256 MB 256 MB 256 MB 512 MB 512 MB szerokość interfejsu pamięci 64 bity 64 bity 128 bitów 128 bitów 128 bitów przepustowość pamięci 9,6 GB/s 9,6 GB/s 19,2 GB/s 22,4 GB/s 22,4 GB/s
  20. Intel i Nvidia planują rozszerzyć współpracę. Zacieśnianie kooperacji pomiędzy największym producentem procesorów x86 a największym producentem procesorów graficznych to zła wiadomość dla AMD. Z nieoficjalnych doniesień wynika, że Intel zyska dostęp do niektórych technologii Nvidii. Obie firmy pierwszą umowę o współpracy zawarły pod koniec 2004 roku. Na jej podstawie Nvidia otrzymała zgodę i wszelkie informacje potrzebne do produkcji chipsetów współpracujących z procesorami Intela. Dzięki temu powstała seria nForce 4 Intel Edition. Wciąż nie wiadomo, co w zamian otrzymał Intel. Od pewnego czasu mówi się, że Intel ma zamiar w 2009 lub 2010 zaprezentować swój własny procesor graficzny. Ponadto w CPU Nehalem ma znaleźć się wbudowany rdzeń graficzny. Intel jest największym producentem układów graficznych wbudowanych w chipsecie. Oferta taka kierowana jest jednak na rynek najtańszych systemów komputerowych, a Intel chciałby zwiększyć swój margines zysku z produkcji układów zarządzających wyświetlaniem grafiki. Ponadto zintegrowanie rdzeni z CPU pozwoli Intelowi na poszerzenie swoich udziałów w rynku wbudowanych rozwiązań graficznych, bez konieczności zwiększania produkcji samych układów.
  21. Intel wciąż oficjalnie nie potwierdza, ale kolejne napływające informacje pozwalają z niemal 100-procentową pewnością stwierdzić, że w ciągu dwóch lat na rynek trafi samodzielny procesor graficzny tej firmy. Półprzewodnikowy gigant będzie chciał więc zaistnieć na rynku zdominowanym przez ATI i Nvidię. Przed kilkoma miesiącami pojawiła się pogłoska, że Intel chciałby wrócić na rynek, na którym już kiedyś próbował swoich sił. Następnie na stronach firmy można było przeczytać, że poszukuje ona inżynierów specjalizujących się w projektowaniu samodzielnych układów graficznych. Nie mogło być mowy o pomyłce, gdyż na tej samej stronie szukano też pracowników do działu tworzących rdzenie graficzne dla chipsetów. Obecnie media donoszą o kolejnych ruchach Intela, które świadczą o coraz bardziej zaawansowanych pracach. Serwis The Inquirer informuje, że Intel prowadzi rozmowy z niemieckim Infineonem na temat dostaw układów GDDR5 o pojemności 512 MB i 1 GB. Niewykluczone, że podobne negocjacje prowadzone są z innymi firmami produkującymi kości pamięci. W odwodzie pozostają przecież jeszcze Samsung, Micron czy Qimonda. Z nieoficjalnych informacji wynika, że próbki GPU partnerzy Intela mogą otrzymać w drugiej połowie przyszłego roku, a do sklepów trafią one nie później niż w I kwartale 2009. Wówczas przekonamy się, jaki wpływ na rynek układów graficznych będzie miało pojawianie się na nim takiego giganta.
  22. TSMC (Taiwan Semiconductor Manufacturing Company) i Nvidia ogłosiły, że powstały już pierwsze w pełni działające próbki procesora graficznego z wbudowaną pamięcią DRAM. Szczegółów GPU nie ujawniono, jednak sam fakt jego wyprodukowania wskazuje na rosnące zainteresowanie technologią eDRAM. Z oświadczenia obu firm wiadomo jedynie, że pamięć została wykonana w technologii 65 nanometrów. Technologia eDRAM pozwala na upakowanie w kości większej ilości pamięci, niż stosowana powszechnie SRAM. Idzie za tym możliwość wykonania większej liczby operacji w tym samym czasie czy dodanie do kości dodatkowych funkcji. Pojedyncza komórka pamięci eDRAM produkowana przez TSMC jest czterokrotnie mniejsza niż komórka SRAM. Nvidia od stycznia szuka specjalistów, którzy potrafią zaprojektować pamięci eDRAM dla procesorów graficznych. Obecnie nie wiadomo, kiedy GPU z tego typu pamięcią trafią na rynek.
  23. O planach Intela, który zamierza wejść na rynek procesorów graficznych, słychać od kilku tygodni. Obecnie koncern produkuje rdzenie graficzne zintegrowane z chipsetem, a rynek GPU jest niemal całkowicie zdominowany przez AMD/ATI i Nvidię. Pierwsze GPU Intela zadebiutują, jak donosi VR-zone, w 2009 roku. Serwis przynosi też kilka interesujących szczegółów dotyczących tych kości. Zastrzega jednak, że jego informacje nie pochodzą od Intela, a część z nich to tylko domysły. Bardzo prawdopodobne jest, że układy zostaną wykonane w technologii 32 nanometrów. Przypuszczenie takie jest o tyle uprawnione, że w ciągu dwóch lat taki proces produkcyjny powinien być już wdrożony. Najciekawsza jednak informacja brzmi: GPU Intela ma składać się z 16 rdzeni. Nie wiadomo, na ile wydajny byłby taki układ, ale jeśli miałby moc obliczeniową kilkunastokrotnie większą od najbardziej obecnie wydajnych układów z rodziny G80 z pewnością zainteresowałby niejednego gracza. Zresztą właśnie do graczy i osób potrzebujących wysoko wydajnych układów przetwarzających grafikę miałby najpierw trafić GPU Intela. Jeśli doniesienia VR-zone się sprawdzą, będziemy świadkami wielkich zmian na rynku układów graficznych.
  24. Przeciwko Nvidii, największemu na świecie producentowi procesorów graficznych, wystosowano pozew zbiorowy. Pozywającymi są konsumenci, a przedmiotem sporu – sterowniki Nvidii. Firma rozprowadza je jako "Vista Ready”, co miało oznaczać, że układy Nvidii będą bez problemu współpracowały z systemem Windows Vista. Tymczasem użytkownicy skarżą się na niestabilną pracę, błędy w samych sterownikach oraz wywołane nimi błędy w obsłudze oprogramowania. Jeden z klientów poskarżył się firmie, a gdy nie otrzymał ani wyjaśnień, ani przeprosin, założył stronę NvidiaClassAction.org. Stała się ona platformą kontaktową dla osób, które doświadczyły podobnych problemów. W końcu osoby te zdecydowały, że wniosą pozew zbiorowy przeciwko firmie. Pozywający domagają się publicznych przeprosin, chcą by Nvidia oficjalnie oświadczyła, kiedy wypuści sterowniki w pełni kompatybilne z Vistą. Ich zdaniem użytkownicy, którzy doświadczyli problemów powinni otrzymać niewielkie bonusy (np. koszulki lub gry), a Nvidia powinna usunąć logo „Vista Ready” z obecnie sprzedawanych produktów. Żądania te wydają się drobne, jednak ich spełnienie może kosztować Nvidię dziesiątki milionów dolarów, nic więc dziwnego, że firma czeka na orzeczenie sądu. Przedstawiciele Nvidii oświadczyli, że wiedzą o problemach i nad nimi pracują. Ostatnie kilkanaście miesięcy są dla tej firmy wyjątkowo pechowe. W maju 2006 roku była ona zmuszona wycofać z rynku część wadliwie działających kart z układami GeForce 79xx, a w listopadzie wycofano jeszcze nie sprzedaną serię kart GeForce 8800 GTX, w których wykryto błędy produkcyjne. Mimo to część z wadliwych urządzeń trafiła jednak do użytkowników. Jakby tego było mało w grudniu okazało się, ze chipsety nForce 680i mogą zniszczyć dane na dysku twardym, powodują niestabilną pracę komputera, a w niektórych przypadkach w ogóle uniemożliwiają zainstalowanie systemu Windows.
  25. Sapphire Technologies, główny partner ATI, pokazał na targach CES pierwszą kartę graficzną korzystającą z dwóch procesorów Radeon X1950 Pro. Mimo spodziewanej sporej wydajności urządzenia, specjaliści zwracają uwagę na fakt, iż układy Radeon X1950 Pro nie obsługują bibliotek DirectX, dlatego też sukces nowego produktu Sapphire’a nie jest pewny. Producent wyposażył kartę w 1 gigabajt pamięci GDDR3. Urządzenie skierowane jest do graczy komputerowych tym bardziej, że ze względu na swoje rozmiary nie będzie prawdopodobnie pasowało do standardowych obudów komputerów. Sapphire poinformował, że w przyszłości możliwe będzie jednoczesne wykorzystanie dwóch dwuprocesorowych kart z Radeonami X1950 Pro. Układ ATI Radeon X1950 Pro korzysta z 36 potoków pikseli, 8 potoków wielokątów, 12 jednostek teksturowania (TMU) i 256-bitowego interfejsu pamięci. Kość taktowana jest standardowo 575-megahercowym zegarem, a współpracujące z nią układy pamięci zegarem o częstotliwości 1,38 GHz. Dwuprocesorowa karta Sapphire’a została nieco podkręcona. GPU są taktowane z częstotliwością 580 MHz, a pamięć – 1,4 GHz. Cena urządzenia nie została ujawniona.
×
×
  • Dodaj nową pozycję...