Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'procesor graficzny' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 23 wyników

  1. W drugim kwartale bieżącego roku AMD dostarczyło na rynek więcej procesorów graficznych niż Nvidia. Pomiędzy kwietniem a czerwcem do AMD należało 51% rynku GPU, do Nvidii - 49%. Jeszcze rok wcześniej AMD mogło pochwalić się jedynie 41-procentowym udziałem. Do tak znacznego wzrostu niewątpliwie przyczynił się fakt, że AMD jako pierwsze rozpoczęło sprzedaż kart obsługujących technologię DirectX 11, rozpowszechnianą wraz z systemem Windows 7. Z kolei Nvidia nie była w stanie dostarczyć odpowiedniej liczby kart GTX 470 i GTX 480, a ostatnia przegrana przed sądem z firmą Rambus spowodowała, że Apple nie wykorzystuje GPU Nvidii w swoich najnowszych komputerach. Z danych Mercury Research wynika też, że największym graczem na rynku układów graficznych pozostaje Intel, który może pochwalić się udziałami rzędu 54,3%. AMD ma 24,5% rynku, a Nvidia - 19,8%.
  2. Jak donosi serwis Daily Tech, Intel zrezygnował z układu Larrabee, o którego prezentacji niedawno informowaliśmy. Powodem podjęcia takiej decyzji była zbyt mała wydajność układu. Procesor miał zadebiutować w przyszłym roku, a jego wydajność miała sięgać 2 teraflopsów. Okazało się jednak, że konkurencja zaskoczyła Intela. ATI najpierw pokazało procesor Radeon HD 5870 o wydajności 2,72 TFlops, a niedawno na rynku zadebiutował koleny GPU tej firmy - Radeon HD 5970, którego wydajność przekracza 5 teraflopsów. To był ostatni gwóźdź do trumny intelowskiego GPGPU. Koncern poinformował, że Larrabee nie spełnił jego oczekiwań. W związku z tym układ na pewno nie trafi na rynek. Będzie rozwijany jako platforma testowa, która ma w przyszłości umożliwić Intelowi wkroczenie na rynek samodzielnych układów graficznych. Przedstawiciele Intela zapowiedzieli, że w przyszłym roku przedstawią nowe plany rozwoju firmowych GPU. Przypomnijmy, że to już kolejna podjęta przez tę firmę próba zaistnienia na rynku GPU. W 1998 roku Intel rozpoczął sprzedaż układów i740, które miały spopularyzować szynę AGP. Szyna się przyjęła, jednak układy nie spełniły oczekiwań klientów i szybko zniknęły z rynku. Intel pozostaje zatem największym na świecie producentem wbudowanych rdzeni graficznych, jednak wciąż nie jest w stanie zaistnieć na rynku samodzielnych GPU.
  3. Niedawno Microsoft zapowiedział, że Internet Explorer 9 będzie korzystał z Direct2D, co pozwoli na użycie procesorów graficznych do renderowania zawartości witryn WWW. Ma to umożliwić stworzenie przeglądarki, która będzie co najmniej tak szybka, jak produkty konkurencji. Wygląda na to, że na podobny pomysł wpadli przedstawiciele Mozilli i Firefox może być pierwszą przeglądarką wykorzystującą GPU. Bas Schouten, jeden z developerów Firefoksa, oświadczył na swoim blogu, że właśnie zakończono prace nad wersją alfa Firefoksa korzystającego z Direct2D. Jak informuje Schouten, wstępne testy pokazują, że różnica pomiędzy renderowaniem witryny przez GPU i CPU jest niewielka. Jednak, jego zdaniem, z czasem będzie się to zmieniało. W miarę jak strony będą wykorzystywały coraz więcej grafiki i zawartości dynamicznej, będziemy widzieli coraz większą przewagę przeglądarek korzystających z Direct2D. Wszystko wskazuje na to, że Mozilla wyprzedzi Microsoft w wykorzystywaniu GPU. Firefox 3.7 ma zadebiutować w pierwszej połowie przyszłego roku i to prawdopodobnie on będzie pierwszą przeglądarką korzystającą z procesora graficznego. Microsoft dopiero rozpoczął prace nad Internet Explorerem 9 i nie wiadomo, na kiedy planowana jest premiera tego programu.
  4. Nvidia zaprezentowała nową architekturę procesorów graficznych. Fermi ma być nie tylko następcą obecnie wykorzystywanej architektury G80. To także pierwszy procesor graficzny ogólnego przeznaczenia. Jen-Hsun Huang podczas wstępnej prezentacji nowej architektury przedstawił ją jako architekturę GPU, jednak Fermi to coś więcej niż procesor graficzny. Dlatego też Nvidia pozycjonuje go bardzo ostrożnie, wskazując na jego przydatność we współpracy z CUDA. Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy tranzystorów. Firma zapewnia, że udało się jej ośmiokrotnie zwiększyć szybkość wykonywania operacji zmiennoprzecinkowych podwójnej precyzji. Kość składa się z 16 multiprocesorów strumieniowych (SM), na które przypadają po 32 rdzenie. Każdy z nich ma do dyspozycji 64 kilobajty przestrzeni pamięci L1, którą można skonfigurować albo jako 48 kB pamięci współdzielonej + 16 kB cache L1 lub też 16 kB współdzielone + 48 kB L1. Na każdy SM przypada również 768 kilobajtów współdzielonej pamięci L2. Nvidia zastosowała też zunifikowaną przestrzeń adresową, dzięki czemu Fermi w pełni wspiera oprogramowanie napisane nie tylko w C, ale również w C++. Usprawnieniu operacji i lepszemu wykorzystaniu C i C++ służy też zaimplementowanie technologii Nvidia Parallel DataCache, dzięki której oba rodzaje pamięci cache obsługują wszystkie przeprowadzane operacje, które są dokonywane w ściśle określonym porządku. Dzięki wykorzystaniu pamięci L1 do przechowywania danych rejestru (wcześniej były one przechowywane bezpośrednio w pamięci RAM) uzyskano znaczne skrócenie czasu dostępu do danych. Natomiast współdzielona pamięć L2 umożliwia błyskawiczną wymianę danych pomiędzy poszczególnymi SM. Fermi to pierwszy układ graficzny, w którym zaimplementowano obsługę ECC (Error Correcting Code), chroniącą dane przed błędami powodowanymi przez wpływ promieniowania kosmicznego. Jedną z ważnych technologii wykorzystanych w Fermim jest Nvidia GigaThread Engine. Pozwala on na jednoczesne wykonywanie różnych obliczeń w kontekście tej samej aplikacji. Dzięki temu programy wykorzystujące liczne mikrojądra mają do dyspozycji całą dostępną moc obliczeniową. W przypadku tradycyjnego, sekwencyjnego przetwarzania mikrojąder, wykorzystuje się tylko część dostępnej mocy. Fermi współpracuje z 384-bitowymi kośćmi GDDR5 i jest w stanie obsłużyć do terabajta pamięci. Obsługuje technologie DirectX 11, OpenGL 3.2 oraz OpenCL. Przy okazji prezentacji architektury Fermi poinformowano, że Nvidia i Microsoft stworzyły środowisko programistyczne Nexus. Zostało ono opracowane na potrzeby masowych obliczeń równoległych i jest zintegrowane z Microsoft Visual Studio. Nexus będzie, oczywiście, korzystał z możliwości Fermiego. Producent Fermiego podkreśla jego przydatność w obliczeniach naukowych i związek z CUDA, jednak z drugiej strony porównuje go do G80. Fermi może więc być układem wykorzystywanym zarówno superkomputerach jak i pecetach miłośników gier komputerowych.
  5. Podczas konferencji prasowej w Tajpei AMD pokazało pierwszy procesor graficzny obsługujący DirectX 11. Urządzenie ma zadebiutować już pod koniec bieżącego roku. DirectX 11, a więc i obsługujące tę technologię CPU, wprowadzają do świata grafiki komputerowej trzy bardzo ważne elementy. Pierwszy z nich to teselator, moduł odpowiedzialny za teselację, czyli zamianę brył w sieć składającą się z olbrzymiej liczby trójkątów. Im jest ich więcej, tym lepiej odwzorowany jest obiekt. Sprzętowo realizowana teselacja pozwala na osiągnięcie znacznie lepszej wydajności niż dotychczas i daje twórcy grafiki więcej swobody - nie musi on już poświęcać jakości grafiki na rzecz wydajności. Sprzętowa teselacja nie jest zupełną nowością. Zastosowano ją w układzie graficznym dla Xboksa 360 oraz w kartach graficznych od ATI Radeon HD 2000 po ATI Radeon HD 4000. Kolejną nowością w DX11 jest shader powłoki (hull shader), odpowiedzialny za traktowanie danych wejściowych jako siatki powiązanych ze sobą danych o różnych częstotliwościach, co pozwala łatwo zmieniać jedną reprezentację powierzchni w inną. Dotychczas dokonywało tego specjalne oprogramowanie. Teraz zajmie się tym procesor graficzny, dzięki czemu uzyskamy znacznie bardziej realistyczne bryły o gładkich powierzchniach. Inny ważny element to shader dziedziny (domain shader), który umożliwia jednorazowe generowanie przedmiotu i "pracę" z nim. Oznacza to, że karta graficzna wygeneruje np. budynek, a gdy nasz bohater ostrzela go i częściowo zniszczy, to GPU nie będzie musiał generować obrazu zniszczonego budynku, a jedynie zajmie się tymi fragmentami, które w czasie ostrzału uległy zmianie. Wraz z DirectX 11 zadebiutuje też Shader Model 5.0, zwiększający dokładność renderingu. Całość umożliwia szybsze, łatwiejsze i tańsze tworzenie gier komputerowych. Biblioteki DX11 pojawią się wraz z Windows 7. Mniej więcej w tym samym czasie na rynek trafi nowy procesor graficzny AMD. Można się spodziewać, że i Nvidia nie zasypia gruszek w popiele i także pokaże wkrótce swój własny GPU z DX11.
  6. Analitycy z firmy Jon Peddie Research uważają, że do roku 2012 rynek tradycyjnych zintegrowanych rdzeni graficznych przestanie istnieć. Zostanie on zastąpiony innymi rozwiązaniami. Najpierw w latach 2010-2012 będziemy świadkami integrowania procesorów graficznych jako osobnych kości na płycie głównej. Później GPU zostaną połączone z CPU. Tym samym rdzenie graficzne w chipsecie stracą rację bytu. Już w pod koniec bieżącego roku na rynek ma trafić 32-nanometrowy procesor Intela o kodowej nazwie Arrendale. Producent zintegruje w nim CPU z GPU. W 2011 roku będzie można kupić podobny produkt AMD.
  7. Nvidia, wraz ze swoimi partnerami, wśród których znaleźli się m.in. Dell i Lenovo, zapowiedziała dzisiaj początek superkomputerowej rewolucji. Ma być ona możliwa dzięki maszynie Tesla Personal Supercomputer, która wykorzystuje GPGPU (General Purpose Graphic Processing Unit - procesor graficzny ogólnego przeznaczenia) Tesla oraz architekturę CUDA. Tesla Personal Supercomputer to nic innego jak superkomputer w obudowie zwykłego peceta. Po raz pierwszy CUDA i układ Tesla zostały zaprezentowane w ubiegłym roku. Przypomnijmy, że pomysł Nvidii polega na wykorzystaniu procesora graficznego do równoległego przetwarzania innych danych niż informacje dotyczące wyświetlania grafiki. Dzięki temu, że nowoczesne graficzne są zwykle bardziej wydajne niż CPU, możemy uzyskać dodatkowy przyrost mocy. Z kolei CUDA (Compute Unified Device Architecture) to zestaw narzędzi, który umożliwia developerom tworzenie w języku C aplikacji dla Tesli i nie tylko dla niej, gdyż w niezbędne komponenty CUDA zostały wyposażone także sterowniki dla nowych procesorów z serii GeForce oraz Quadro. Technologią CUDA zainteresował się przede wszystkim świat naukowy. Nic dziwnego, gdyż to właśnie na uniwersytetach i w instytucjach badawczych najbardziej przydaje się wysoko wydajne przetwarzanie wielowątkowe. Już teraz wiadomo, że w porównaniu z komputerem wyposażonym tylko w procesor x86 maszyna dodatkowo wykorzystująca technologię CUDA charakteryzuje się od 18- (kodowanie wideo) do nawet 149-krotnie (symulacje finansowe) zwiększoną wydajnością. Na University of Utah komputer z CUDA zapewnia 146-krotnie szybszą pracę przy obrazuwaniu medycznym, a uczeni z University of Maryland 30-krotnie szybciej dokonują sekwencjonowania genomu. O zainteresowaniu technologią Nvidii świadczy też fakt, iż kursy programowania dla CUDA są prowadzone na ponad 50 uczelniach wyższych, a na całym świecie już 25 000 programistów pracuje z tą technologią. Wraz z wydajnością idzie oszczędność energii. Serwer Tesla S1070, z którego korzystają m.in. firmy Chevron, Petrobras, Motorola czy Kodak i takie uczelnie jak uniwersytet w Heidelbergu, University of Maryland, Rice University czy Chińska Akademia Nauk, zapewnia 18-krotnie większą wydajność na wat niż serwer z procesorami x86. Nvidia wraz z partnerami postanowili jednak pójść dalej. Ogłosili powstanie gotowego biurkowego superkomputera Tesla Personal Supercomputer. Jego maksymalna wydajność może wynieść do 4 teraflopsów, zapewnianych dzięki 960 rdzeniom i 4 procesorom (prawdopodobnie Tesla C1060). Komputer pracuje ze standardowymi edycjami Windows i Linux (w przyszłości także Mac OS X), a jego cena wyniesie mniej niż 10 000 dolarów. Innymi słowy, jak zapewnia Nvidia, każdy z zainteresowanych naukowców może nabyć maszynę o 250 razy bardziej wydajną niż pecet i 100 razy tańszą niż wysoko wydajny klaster. Za stosunkowo niewielką cenę zyska peceta o wydajności superkomputera. Z przeprowadzonych przez Nvidię testów wynika, że Tesla Personal Supercomputer znacząco przyspiesza wykonywanie zadań typowych dla przemysłu i nauki. I tak na przykład czas wykonania przeciętnego zadania z zakresu chemii skraca się z 4,6 dnia do 27 minut, modelowanie w neurologii trwa nie 2,7 doby, a pół godziny. Z kolei trójwymiarowa ultradźwiękowa tomografia komputerowa zajmie 16 minut zamiast dotychczasowych 3 godzin. Jak już wspomniano, Nvidia i partnerzy kierują swoją ofertę do naukowców i inżynierów, których liczbę oceniają na 15 milionów na całym świecie. Oczywiście pojawienie się Tesla Personal Supercomputer nie oznacza, że na tym kończą się możliwości architektury CUDA. Można ją dalej skalować tworząc standardowy klaster obliczeniowy, który będzie 5000 razy bardziej wydajny od zwykłego peceta, a jego cena zamknie się w granicach od 100 000 do miliona dolarów. Niewykluczone zatem, że już wkrótce na listę 500 najpotężniejszych superkomputerów na świecie trafią pierwsze maszyny z architekturą CUDA.
  8. Intel zdradził szczegóły na temat kości Larrabee, która ma konkurować z procesorami graficznymi ATI i Nvidii. Przede wszystkim trzeba podkreślić, że Larrabee będzie samodzielnym układem scalonym opartym na architekturze Pentium. Nie jest to więc rdzeń graficzny wbudowany w chipset. Intel produkował już niegdyś samodzielne układy graficzne, jednak wycofał się z tego rynku. Koncern jest natomiast największym producentem wbudowanych rdzeni graficznych. Larrabee nie będzie jednak typowym GPU. Ma być to coś pośredniego pomiędzy procesorem (CPU) a procesorem graficznym (GPU). Intelowi chodzi o wyprodukowanie łatwo programowalnego układu o dużej wydajności. Kość będzie korzystała z rdzeni x86, których liczba, w zależności od segmentu rynku, na jaki będzie skierowana, ma się wahać od 8 do 48. Wspomagane będą one przez jednostkę przetwarzania wektorowego. Każdy z rdzeni zostanie wyposażony w 256 kilobajtów pamięci podręcznej drugiego poziomu. Larrabee ma obsługiwać zarówno DirectX, jak i apple'owskie Open CL. Kość będzie radziła sobie z różnymi typami obliczeń równoległych, a jej system kolejkowania zadań będzie zależał od oprogramowania, a nie od wbudowanych obwodów logicznych. To da programistom większą swobodę pracy, gdyż będą mogli oni dostosować zasoby sprzętowe do wymagań każdej aplikacji. Każdy z rdzeni Larrabee będzie w stanie wykonać cztery wątki, z osobnym rejestrem dla każdego z nich. Kość wykorzystuje też 1024-bitową, dwukierunkową sieć pierścieniową. Analitycy z Jon Peddie Research uważają, że rynek nie będzie robił różnicy pomiędzy Larrabee i tradycyjnym GPU, więc kość będzie rozprowadzana jako GPU. Trudno jednak ocenić szanse Intel na sukces. Z jednej strony aż 98% rynku procesorów graficznych należy do ATI i Nvidii. Należy jednak pamiętać, że Intel jest potężną firmą, z olbrzymim zapleczem technicznym i marketingowym, może więc stać się poważnym graczem.
  9. Nvidia odchodzi od dotychczasowego schematu nadawania nazw swoim układom graficznym. Firma rezygnuje więc z nazewnictwa typu Gx, czyli GT, GS czy GTX. Zamiast tego będziemy mieli do czynienia z następującymi oznaczniami:D8M: układ 8. generacji, przeznaczony dla przeciętnego użytkownika (mainstream), to obecna kość G98D8P: układ 8. generacji, dla bardziej wymagających użytkowników (performance), obecnie G92D9M: układ 9. generacji, dla przeciętnego użytkownikaD9P: układ 9. generacji, dla bardziej wymagającego użytkownikaD9E: układ 9. generacji dla najbardziej wymagających użytkowników (enthusiast). Ostatnio sporo mówiło się o układzie GeForce 8800 GT (G92), zwanej obecnie D8P. Korzysta ona ze 112 procesorów strumieniowych i jest pierwszą kością Nvidii wyprodukowaną w technologii 65 nanometrów. Prawdziwym czarnym koniem rynku może jednak okazać się GeForce 8800 GTS SSC. Kość identyczna z 90-nanometrowym G80. Jednak o ile G80 korzysta z 96 ze 128 procesorów strumieniowych, to w 8800 GTS SSC udostępniono 112 procesorów. Ponadto w grudniu doczekamy się kolejnej wersji 8800 GTS. Układ ten nie będzie już 90-nanometrową kością oznaczoną jako G80, ale stanie się 65-nanometrową D8P ze 128 procesorami strumieniowymi. Nvidia szykuje również procesory kolejnej generacji. Początkowo mają one zastąpić serię GeForce 8500. Układy D9M będą współpracowały z PCI Express 2.0, obsłużą DirectX 10.1, szersze interfejsy pamięci (128-bitowe) i zostaną wykonane w technologii 65 nanometrów. Z kolei D9P, które zastąpią układy z serii GeForce 8600, będą różniły się przede wszystkim szerszym, bo 256-bitowym, interfejsem pamięci. Następcami procesorów GeForce 8800 staną się układy D9E z 512-bitowym interfejsem pamięci.
  10. Media coraz częściej informują o planowanej ponoć przez Nvidię premierze nowego procesora graficznego o nazwie kodowej G92. Kość, która ma zadebiutować 12 października, nie zastąpi jednak układu G80 (GeForce 8800), który jest flagowym produktem Nvidii. Ponoć G92 ma być przeznaczony dla przeciętnego użytkownika wymagającego wydajnego układu. Nie będzie pozycjonowany na rynek najbardziej wydajnych domowych GPU. W nowej kości znajdzie się ulepszona tachnologia PureVideo HD, kość będzie współpracowała z szyną PCI Express 2.0 oraz z DVI, DisplayPort i HDMI. Jeszcze nie wiadomo, czy będzie wykorzystywała biblioteki DirecX 10.1. Ma być podobno wykonana w technologii 65 nanometrów, a jej produkcją zajmie się TSMC. Jeśli doniesienia mediów o pozycjonowaniu G92 na mainstreamowy rynek są prawdziwe, może to oznaczać, że albo Nvidia zmieniła taktykę, albo też wkrótce zaprezentuje wysokowydajny GPU, który może nosić nazwę kodową G90. Przed kilkoma miesiącami Michael Hara, wiceprezes Nvidii ds. relacji z inwestorami, zapowiedział, że przyszły okręt flagowy jego firmy, który zastąpi procesory G80 sprzedawane jako GeForce 8800 GTS, GTX i Ultra, będzie charakteryzował się wydajnością rzędu 1 teraflopsa. To dwukrotnie więcej, niż G80. Jednocześnie należy pamiętać, że Nvidia dotychczas najpierw pokazywała bardziej wydajne i droższe układy, a kilka miesięcy później wypuszczała na rynek tańsze i mniej wydajne wersje tych samych kości. Sama Nvidia nie komentuje powyższych doniesień, nadal więc są one jedynie spekulacjami.
  11. Korzystanie z wysoko wydajnych procesorów graficznych niesie za sobą zwiększenie poboru energii przez komputer. Jest to szczególnie widoczne gdy używamy więcej niż jednego GPU. Jednak nie zawsze potrzebujemy tak dużych mocy obliczeniowych dla grafiki. Nvidia pracuje właśnie nad technologią Hybrid SLI, która ma zapewnić dużą moc przy jednoczesnym niskim poborze energii. Hybrid SLI ma zadbać o przełączanie pomiędzy rdzeniem graficznym wbudowanym w chipset a procesorami zamontowanymi na kartach graficznych. Gdy użytkownik korzysta np. z edytora tekstu czy przegląda Internet, nie potrzebuje dużych mocy i z powodzeniem może wyświetlać obraz za pomocą rdzenia w chipsecie. Kiedy chce zagrać w najnowszą grę lub zająć się projektowaniem trójwymiarowym – wówczas konieczne stanie się wykorzystanie mocny akceleratorów. Ponadto wbudowany rdzeń graficzny (IGP) może wspomóc procesor graficzny (GPU) w obliczeniach. Tutaj właśnie ma do spełnienia swoją rolę Hybrid SLI. W zależności od tego, co będzie robił użytkownik, zapewni mu ona wystarczające zasoby sprzętowe. Nowa technologia może sprawdzić się szczególnie w notebookach. Dla ich właścicieli czas pracy na bateriach jest jednym z najbardziej istotnych czynników, a mocna karta graficzna potrafi ten czas poważnie ograniczyć.
  12. Nvidia, znany producent procesorów graficznych z serii GeForce, postanowiła zmienić obecnie wykorzystywane stacje robocze w urządzenia, które nazwała superkomputerami osobistymi. Firma zaoferowała procesory Tesla, oparte na GPU układy, które charakteryzuje wyjątkowo duża wydajność. Dzięki temu naukowcy czy inżynierowie potrzebujących potężnych mocy obliczeniowych nie muszą już starać się o dostęp do superkomputerów. Wiele zadań będą mogli wykonać dzięki Tesli zainstalowanej w swoich stacjach roboczych. W ramach rodziny Testla Nvidia proponuje:procesor GPU Nvidia Tesla zamontowany na dedykowanej karcie rozszerzeń. GPU Tesla składa się ze 128 procesorów równoległych a jego moc obliczeniowa dochodzi do 518 gigaflopsów (518 miliardów operacji zmiennoprzecinkowych na sekundę);superkomputer desksite Nvidia Tesla, czyli rozszerzalny system obliczeniowy zawierający dwa procesory Tesla, który można podłączyć do peceta lub stacji roboczej za pomocą adaptera PCI Express. Nvidia zapewnia, że takie rozwiązanie będzie charakteryzowało się mocą obliczeniową rzędu 8 teraflopsów (8 bilonów operacji zmiennoprzecinkowych na sekundę). Wynik jest o tyle szokujący, że 8-teraflopsowy system uplasowałby się na 84. miejscu listy 500 najpotężniejszych superkomputerów na świecie;serwer obliczeń GPU Nvidia Tesla, który zawiera do ośmiu procesorów Tesla i oferuje teraflopy mocy obliczeniowej.Nvidia zapewnia, że Tesla, dostarczona już firmom i ośrodkom naukowym zapewniła wzrost wydajności systemów komputerowych od 45 do 415 razy. Tesla uzyskała takie wyniki podczas pracy z bazą danych sejsmicznych, symulowania neuronów, chmur czy w czasie przetwarzania obrazów rezonansu magnetycznego.
  13. Michael Hara, wiceprezes ds. relacji z inwestorami firmy Nvidia, powiedział, że przygotowywany przez jego firmę procesor graficzny G92 będzie charakteryzował się mocą obliczeniową rzędu jednego teraflopsa (bilion operacji zmiennoprzecinkowych na sekundę). Z nieoficjalnych pogłosek wynika, że G92 ma trafić na rynek w czwartym kwartale bieżącego roku. Pogłoski te są o tyle uzasadnione, że jak dotąd Nvidia pokazywała swoje najnowsze i najmocniejsze procesory właśnie pod koniec roku, a wiosną na rynek trafiały ich mniej wydajne i tańsze wersje. Najnowsza kość Nvidii będzie konkurowała na rynku nie tylko z układami R6xx ATI, ale również z przyszłymi R7xx.
  14. Dzisiaj Nvidia oficjalnie ogłosiła rozpoczęcie sprzedaży mobilnych układów graficznych kompatybilnych z bibliotekami DirectX 10. Kości z serii GeForce 8M pozwolą więc na pełne wykorzystanie możliwości Windows Visty oraz najnowszych powstających dopiero gier. Te pierwsze układy dla notebooków dające użytkownikowi do dyspozycji funkcje DX10 obsługują też standard H.264 wykorzystywany w kodowaniu filmów wysokiej rozdzielczości. Już w tej chwili można je znaleźć w notebookach takich producentów jak Fujitsu-Siemens, Medion, Packard Bell czy NEC Computers SAS. W ramach GeForce 8M już są dostępne, bądź w najbliższym czasie znajdą się na rynku, następujące układy: 8400M G 8400M GS 8400M GT 8600M GS 8600M GT liczba potoków 8 16 16 16 32 częstotliwość taktowania GPU 400 MHz 400 MHz 450 MHz 600 MHz 475 MHz zegar jednostek odpowiedzialnych za cieniowanie 800 MHz 800 MHz 900 MHz 1200 MHz 950 MHz częstotliwość taktowania pamięci 600 MHz 600 MHz 600 MHz 700 MHz 700 MHz maksymalna pojemność pamięci 256 MB 256 MB 256 MB 512 MB 512 MB szerokość interfejsu pamięci 64 bity 64 bity 128 bitów 128 bitów 128 bitów przepustowość pamięci 9,6 GB/s 9,6 GB/s 19,2 GB/s 22,4 GB/s 22,4 GB/s
  15. Intel wciąż oficjalnie nie potwierdza, ale kolejne napływające informacje pozwalają z niemal 100-procentową pewnością stwierdzić, że w ciągu dwóch lat na rynek trafi samodzielny procesor graficzny tej firmy. Półprzewodnikowy gigant będzie chciał więc zaistnieć na rynku zdominowanym przez ATI i Nvidię. Przed kilkoma miesiącami pojawiła się pogłoska, że Intel chciałby wrócić na rynek, na którym już kiedyś próbował swoich sił. Następnie na stronach firmy można było przeczytać, że poszukuje ona inżynierów specjalizujących się w projektowaniu samodzielnych układów graficznych. Nie mogło być mowy o pomyłce, gdyż na tej samej stronie szukano też pracowników do działu tworzących rdzenie graficzne dla chipsetów. Obecnie media donoszą o kolejnych ruchach Intela, które świadczą o coraz bardziej zaawansowanych pracach. Serwis The Inquirer informuje, że Intel prowadzi rozmowy z niemieckim Infineonem na temat dostaw układów GDDR5 o pojemności 512 MB i 1 GB. Niewykluczone, że podobne negocjacje prowadzone są z innymi firmami produkującymi kości pamięci. W odwodzie pozostają przecież jeszcze Samsung, Micron czy Qimonda. Z nieoficjalnych informacji wynika, że próbki GPU partnerzy Intela mogą otrzymać w drugiej połowie przyszłego roku, a do sklepów trafią one nie później niż w I kwartale 2009. Wówczas przekonamy się, jaki wpływ na rynek układów graficznych będzie miało pojawianie się na nim takiego giganta.
  16. TSMC (Taiwan Semiconductor Manufacturing Company) i Nvidia ogłosiły, że powstały już pierwsze w pełni działające próbki procesora graficznego z wbudowaną pamięcią DRAM. Szczegółów GPU nie ujawniono, jednak sam fakt jego wyprodukowania wskazuje na rosnące zainteresowanie technologią eDRAM. Z oświadczenia obu firm wiadomo jedynie, że pamięć została wykonana w technologii 65 nanometrów. Technologia eDRAM pozwala na upakowanie w kości większej ilości pamięci, niż stosowana powszechnie SRAM. Idzie za tym możliwość wykonania większej liczby operacji w tym samym czasie czy dodanie do kości dodatkowych funkcji. Pojedyncza komórka pamięci eDRAM produkowana przez TSMC jest czterokrotnie mniejsza niż komórka SRAM. Nvidia od stycznia szuka specjalistów, którzy potrafią zaprojektować pamięci eDRAM dla procesorów graficznych. Obecnie nie wiadomo, kiedy GPU z tego typu pamięcią trafią na rynek.
  17. O planach Intela, który zamierza wejść na rynek procesorów graficznych, słychać od kilku tygodni. Obecnie koncern produkuje rdzenie graficzne zintegrowane z chipsetem, a rynek GPU jest niemal całkowicie zdominowany przez AMD/ATI i Nvidię. Pierwsze GPU Intela zadebiutują, jak donosi VR-zone, w 2009 roku. Serwis przynosi też kilka interesujących szczegółów dotyczących tych kości. Zastrzega jednak, że jego informacje nie pochodzą od Intela, a część z nich to tylko domysły. Bardzo prawdopodobne jest, że układy zostaną wykonane w technologii 32 nanometrów. Przypuszczenie takie jest o tyle uprawnione, że w ciągu dwóch lat taki proces produkcyjny powinien być już wdrożony. Najciekawsza jednak informacja brzmi: GPU Intela ma składać się z 16 rdzeni. Nie wiadomo, na ile wydajny byłby taki układ, ale jeśli miałby moc obliczeniową kilkunastokrotnie większą od najbardziej obecnie wydajnych układów z rodziny G80 z pewnością zainteresowałby niejednego gracza. Zresztą właśnie do graczy i osób potrzebujących wysoko wydajnych układów przetwarzających grafikę miałby najpierw trafić GPU Intela. Jeśli doniesienia VR-zone się sprawdzą, będziemy świadkami wielkich zmian na rynku układów graficznych.
  18. Firma Lucid Information Technology zdobyła dofinansowanie w wysokości 12 milionów dolarów. Pieniądze przekazały Intel, Giza Venture Capital i Genesis Partners. Lucid powstała w 2003 roku i już wtedy została dofinansowana kwotą 500 000 USD. Dwa lata później otrzymała kolejne 4,5 miliona dolarów. Celem izraelskiej firmy, która zatrudnia obecnie 27 osób, jest stworzenie układu scalonego, który będzie zarządzał i przyspieszał wymianę danych pomiędzy procesorami graficznymi. Kość ma być w stanie współpracować jednocześnie z czterema GPU. Lucid obiecuje, że pierwsze gotowe do produkcji próbki nowego układu ukażą się jeszcze przed końcem bieżącego roku. Firma ma nadzieję, że jej klientami będą tacy producenci jak Asustek, Leadtek i Gigabyte oraz HP, Dell czy Alienware. Układ Lucida ma przede wszystkim zainteresować graczy. Kość będzie rodzajem huba sterującego ruchem i łączącego układy graficzne z procesorem.
  19. Amerykański Departament Sprawiedliwości (DoJ) wezwał przedstawicieli AMD i Nvidii przed sąd. Będą oni świadkami w toczącym się śledztwie dotyczącym możliwych naruszeń prawa antymonopolowego na rynku kart i procesorów graficznych. Obie firmy podkreślają, że nie są o nic oskarżone i wyrażają chęć współpracy z wymiarem sprawiedliwości. Departament nie ujawnia, czego dotyczy śledztwo, ale jeden z analityków przypuszcza, że może chodzić o nielegalne ustalanie cen produktów. W ciągu ostatnich kilkunastu miesięcy DoJ ukarał wysokimi grzywnami kilka czołowych firm (Samsunga, Hyniksa, Infineona i Elpidę), które ustalały ceny pamięci DRAM, a obecnie prowadzi podobne śledztwo przeciwko producentom układów SRAM.
  20. Nvidia, producent procesorów graficznych i chipsetów, poinformowała o stworzeniu układu GeForce Go 7700, który powstał z wykorzystaniem 80-nanometrowego procesu produkcyjnego. To pierwszy procesor graficzny wykonany w tej technologii. GeForce Go 7700 korzysta z 12 potoków pikseli, 128-bitowego kontrolera pamięci i taktowany jest zegarem o częstotliwości 450 MHz. Może współpracować z 512 megabajtami pamięci o częstotliwości taktowania 1000 MHz. Nvidia zapewnia, że nowszy układ jest bardziej wydajny od Go 7600. Producent nie podał współczynnika TDP (thermal design power - pobór energii wyrażony emisją cieplną) dla nowego procesora, jednak można przypuszczać, że jest on mniejszy niż w przypadku Go 7600. O zamiarze wykorzystania nowego GPU w swoich produktach poinformował już Asustek. GeForce Go 7700 trafi m.in. do notebooka A8Js wyposażonego w procesory z serii Core 2 Duo.
  21. Przedstawiciele Nvidii, jednego z największych producentów układów graficznych powiedzieli, że firma wyobraża sobie układ, który byłby połączeniem procesora (CPU) z procesorem graficznym (GPU). Nad taką kością będą być może pracowały połączone już firmy AMD i ATI. Nvidia uważa jednak, że w tej chwili takie rozwiązanie nie ma sensu. Możemy sobie wyobrazić występowanie na niektórych segmentach rynku GPU zintegrowanego z CPU lub CPU zintegrowanego z GPU. Zastanowimy się nad takim rozwiązaniem gdy będzie miało to sens. To nie musi być procesor oparty na jednej architekturze. Może to być x86. Może być ASIC lub PowerPC. Może być Cell, ARM lub jeszcze coś innego – powiedział prezes Nvidii Jen-Hsun Huang. Huang odpowiadał na pytania dziennikarzy dotyczące strategii jego firmy po połączeniu się ATI i AMD oraz pogłosek że oba te przedsiębiorstwa planują hybrydowy procesor, który spełniałby funkcję CPU i GPU. Podobne plany ma ponoć również Intel. Szef Nvidii zauważył jednak, że głównym celem jego firmy jest dostarczenie użytkownikom wartościowego procesora graficzne. Przyczyną dla której GPU i CPU są oddzielnymi kośćmi jest fakt, że obie pracują w różny sposób. Są ponadto kierowane na różne segmenty rynku, technologie ich produkcji rozwijają się w różnym tempie i tak dalej. Na tych segmentach rynku, na których jesteśmy obecni, GPU będzie osobnym układem. Naszym zadaniem nie jest zastanawianie się którą kość integrować w której. Naszym zadaniem jest produkowanie dobrych procesorów graficznych – stwierdził Huang.
  22. ATI pokazało kartę graficzną z procesorem R580+, czyli Radeon X1950XTX. Urządzenie wyposażone jest w 16 potoków pikseli, 48 jednostek cieniowania pikseli i 8 cieniowania wielokątów. Układ współpracuje z 512 megabajtami 2-gigahercowej pamięci DDR, która korzysta z kości GDDR4. Karta Radeon X1950XTX ma bezpośrednio konkurować z układem GeForce 7900GTX 512 MB. Osobno ATI przygotowało wersję obsługującą tryb CrossFire. Oba rodzaje kart mają znaleźć się w sprzedaży w drugiej połowie sierpnia. Ich cena wyniesie od 399 do 499 USD.
  23. Osoby, które brały udział w przygotowywaniu transakcji, poinformowały prasę, że ostatniej nocy AMD zgodziło się kupić ATI za 5,4 miliarda dolarów. Oficjalny komunikat w tej sprawie jest spodziewany dzisiaj. Producent procesorów zapłaci za firmę wytwarzającą układy graficzne 4,2 miliarda dolarów w gotówce oraz 1,2 miliarda w akcjach. Dzięki tej transakcji portfolio produktów AMD zostanie poszerzone o procesory graficzne i chipsety. Umowa wyrówna szanse AMD w konkurencji z Intelem – mówi Samir Bhavnani, dyrektor firmy analitycznej Current Analysis. Dodatkową korzyścią, jaką odniesie główny konkurent Intela jest fakt, że zaistnieje on dzięki temu na nowych rynkach: telefonów komórkowych i urządzeń mobilnych. Nie oznacza to jednak, że przed oboma połączonymi firmami rysuje się świetlana przyszłość. Obie notują co prawda dobre wyniki finansowe, jednak sprzedaż komputerów osobistych spada, a jest to widoczne szczególnie w segmencie maszyn najbardziej wydajnych, czyli tam, gdzie istotną rolę odgrywają nowoczesne procesory graficzne. Mimo możliwych trudności, umowa AMD z ATI będzie miała olbrzymi wpływ na rynek zarówno CPU, jak i GPU.
×
×
  • Dodaj nową pozycję...