Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'Nvidia' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 73 wyników

  1. Intel zdradził szczegóły na temat kości Larrabee, która ma konkurować z procesorami graficznymi ATI i Nvidii. Przede wszystkim trzeba podkreślić, że Larrabee będzie samodzielnym układem scalonym opartym na architekturze Pentium. Nie jest to więc rdzeń graficzny wbudowany w chipset. Intel produkował już niegdyś samodzielne układy graficzne, jednak wycofał się z tego rynku. Koncern jest natomiast największym producentem wbudowanych rdzeni graficznych. Larrabee nie będzie jednak typowym GPU. Ma być to coś pośredniego pomiędzy procesorem (CPU) a procesorem graficznym (GPU). Intelowi chodzi o wyprodukowanie łatwo programowalnego układu o dużej wydajności. Kość będzie korzystała z rdzeni x86, których liczba, w zależności od segmentu rynku, na jaki będzie skierowana, ma się wahać od 8 do 48. Wspomagane będą one przez jednostkę przetwarzania wektorowego. Każdy z rdzeni zostanie wyposażony w 256 kilobajtów pamięci podręcznej drugiego poziomu. Larrabee ma obsługiwać zarówno DirectX, jak i apple'owskie Open CL. Kość będzie radziła sobie z różnymi typami obliczeń równoległych, a jej system kolejkowania zadań będzie zależał od oprogramowania, a nie od wbudowanych obwodów logicznych. To da programistom większą swobodę pracy, gdyż będą mogli oni dostosować zasoby sprzętowe do wymagań każdej aplikacji. Każdy z rdzeni Larrabee będzie w stanie wykonać cztery wątki, z osobnym rejestrem dla każdego z nich. Kość wykorzystuje też 1024-bitową, dwukierunkową sieć pierścieniową. Analitycy z Jon Peddie Research uważają, że rynek nie będzie robił różnicy pomiędzy Larrabee i tradycyjnym GPU, więc kość będzie rozprowadzana jako GPU. Trudno jednak ocenić szanse Intel na sukces. Z jednej strony aż 98% rynku procesorów graficznych należy do ATI i Nvidii. Należy jednak pamiętać, że Intel jest potężną firmą, z olbrzymim zapleczem technicznym i marketingowym, może więc stać się poważnym graczem.
  2. Podczas targów CeBIT 2008 pokazano prototypowe karty graficzne z procesorami GeForce 9800 X2 Nvidii. Sam układ jeszcze oficjalnie nie zadebiutował, więc nie należy się spodziewać, że lada chwila wspomniane karty znajdą się na sklepowych półkach. Specyfikacja układów GeForce 9800, które mają zastąpić serię 8800, wygląda imponująco. Kości wykonano w technologii 65 nanometrów. Są one taktowane 600-megahercowym zegarem, a zegar jednostek cieniowania pracuje z częstotliwością 1625 MHz. Współpracują z 2-gigahercowymi układami GDDR3. Na każdej z kart zainstalowano 1 gigabajt 256-bitowych układów pamięci. Oba GPU używają 256 jednostek przetwarzania (po 128 na procesor). Nowe karty korzystają z technologii PureVideo HD, PCI Express 2.0, DirectX10. Zostały też wyposażone w wyjścia HDMI oraz DVI. Oficjalny debiut GeForce 9800 GX2 ma nastąpić jeszcze w bieżącym miesiącu. Procesor będzie konkurował z układem HD 3870 HD produkcji AMD.
  3. Nvidia twierdzi, że za cztery lata aż trzy z pięciu najpotężniejszych na świecie komputerów będzie korzystało z procesorów graficznych, a nie z CPU. Obaj główni producenci GPU – ATI i Nvidia – już od pewnego czasu mówią o wykorzystaniu ich produktów do obliczeń niezwiązanych z przetwarzaniem grafiki. Takie rozwiązanie może być bardzo korzystne dla właścicieli superkomputerów. Obecnie maszyny te korzystają nawet z dziesiątków czy setek tysięcy procesorów. Współczesne GPU charakteryzują się większą mocą obliczeniową niż CPU, tak więc komputer o tej samej mocy wymagałby zastosowania mniejszej liczby kości. To oznacza, że zarówno jego zbudowanie jak i utrzymanie (tutaj mowa jest przede wszystkim o kosztach energii elektrycznej) byłoby tańsze. Jako przykład niech posłuży superkomputer BlueGene/L. Obecnie jego maksymalna wydajność wynosi 596 teraflopsów. Maszyna korzysta z 213 000 procesorów PowerPC 440. Maksymalna wydajność najnowszych GPU to około 0,5 Tflops. Oznacza to, że BlueGene/L mógłby wykorzystywać mniej więcej 1200 procesorów graficznych w miejsce 213 000 CPU. Do wykorzystania GPU w superkomputerach droga jednak daleka. Należy nie tylko przekonać producentów tych maszyn, by zechcieli używać chipów graficznych, ale również odpowiednio przygotować architekturę i oprogramowanie najpotężniejszych maszyn na świecie.
  4. Doug Friedman, analityk z firmy American Technology Research, uważa, że Nvidia może próbować kupić firmę AMD. Jego zdaniem byłoby to o tyle sensowne posunięcie, że to, co robią AMD i Intel zagraża Nvidii. Kupując AMD firma pozbyłaby się jednego z dużych konkurentów. Jedn z problemów jest taki, że w przypadku zakupu AMD, czy też Nvidia/AMD, nie będzie mogła produkować procesorów. AMD korzysta bowiem z kupionej od Intela licencji na architekturę x86. Zawarta pomiędzy obiema firmami umowa przewiduje, że praw licencyjnych nie można przenosić. Jeśli więc Nvidia rzeczywiście przejęłaby AMD i chciała produkować CPU, musiałaby prowadzić negocjacje z Intelem. Doug Friedman uważa, że zarząd AMD jest poddany mocnej presji ze strony akcjonariuszy, którzy nie są zadowoleni z ostatnich wyników firmy. Niewykluczone, że chcieliby oni doprowadzić do wymiany zarządu. Mimo trudności, jakie przeżywa firma, jej działania godzą w Nvidię. AMD chce zintegrować rdzeń graficzny w procesorze. Jeśli się to uda wielu użytkowników, chociażby ze względu na koszty, zrezygnuje z kupowania osobnych GPU. Musimy tutaj przypomnieć, że Nvidia jest potęgą na rynku samodzielnych kości graficznych. Zintegrowanie w procesorze wydajnych rdzeni produkowanych przez ATI (które jest obecnie własnością AMD), spowoduje, że cena takiej kości (CPU i GPU w jednym) będzie niższa od ceny dwóch układów (CPU i GPU osobno). Ponadto producenci płyt głównych będą mogli uprościć ich konstrukcję, co przyczyni się do zmniejszenia ceny. Podobne plany ma Intel, który już jest potęgą na rynku rdzeni graficznych wbudowanych w chipset. Plany obu firm mogą spowodować, że w najbliższym czasie Nvidia zanotuje poważny spadek sprzedaży swoich procesorów graficznych. Dlatego też dla firmy tej rozsądne byłoby wyeliminowanie z rynku jednego z konkurentów. O ile jednak pomysł Friedmana byłby godnym rozważenia z punktu widzenia Nvidii, to dość wątpliwe, czy dojdzie do skutku. Jest niemal niemożliwe, by urzędy antymonopolowe zgodziły się na połączenie obu dominujących producentów GPU. Rynkowa kapitalizacja AMD wynosi obecnie mniej niż 4 miliardy dolarów. Nvidia jest warta ponad 13 miliardów USD.
  5. Nvidia ogłosiła powstanie pierwszego własnego układu typu SoC (system-on-chip) dla wysoko wydajnych urządzeń przenośnych. Kość APX 2500 składa się z procesora ARM 11, energooszczędnego kontrolera pamięci DDR wspierającego również obsługę kości flash (NAND i NOR). W układ wbudowano też rdzeń graficzny obsługujący OpenGL ES 2.0, Direct3D Mobile, MPEG 4, H.264 oraz VC-1 i WMV9. Ponadto APX 2500 jest w stanie obsłużyć wyświetlacze o dwóch rozdzielczościach – 1280x1024 i 1280x720 – różne interfejsy I/O oraz 12-megapikselowy aparat. Nvidia informuje, że jej kość jest też wyjątkowo energooszczędna. Dzięki niej można przez 10 godzin bez konieczności ładowania baterii oglądać film w rozdzielczości 720p. Niestety przedsiębiorstwo nie dodało, baterię o jakiej pojemności ma na myśli. Próbki APX 2500 trafiają właśnie do kluczowych klientów Nvidii.
  6. Nvidia oficjalnie ogłosiła debiut technologii Hybrid SLI. Firma po raz pierwszy poinformowała o niej przed 6 miesiącami. Wciąż jednak nie wiadomo, kiedy będzie ona dostępna. Hybrid SLI pozwala odpowiednio dobrać moc podsystemu graficznego i zużycie energii do wykorzystywanych aplikacji. Pozwala ona wykorzystywać jednocześnie procesor graficzny (GPU) oraz wbudowany w chipset rdzeń graficzny (IGP). Hybrid SLI używa dwóch trybów. Pierwszy z nich, HybridPower, wyłącza GPU, a komputer korzysta tylko w IGP. Taka sytuacja ma miejsce wówczas, gdy nie jest potrzebna duża moc obliczeniowa podsystemu graficznego. Ma to na przykład miejsce wówczas, gdy korzystamy z Internetu czy pakietu biurowego. Drugi tryb, GeForce Boost, włącza się przy bardziej wymagających zadaniach (np. przy grach). Wtedy korzystamy jednocześnie z mocy GPU i IGP. Tak to wygląda w teorii. Na razie jednak nie skorzystamy z Hybrid SLI, gdyż nie istnieją sterowniki, które mogłyby automatycznie przełączać oba tryby. Z doniesień prasowych wynika, że obecnie przełączanie pomiędzy HybridPower a GeForce Boost wymaga restartu komputera. Nvidia obiecuje, że w przyszłości stworzy odpowiednie sterowniki pozwalające na automatyczne niezauważalne przełączanie trybów pracy. Firma nie zdradza jednak, kiedy to nastąpi. Z HybridPower będą korzystały płyty główne wyposażone w chipsety nForce 780a SLI, nForce 750a SLI oraz nForce 730a. Tego typu urządzenia trafią na rynek w przyszłym miesiącu. Współpracują one z procesorami AMD. Kości dla procesorów Intela ukażą się w przyszłym kwartale.
  7. Nvidia prawdopodobnie pracuje nad nową linią kart graficznych, które mają trafić na rynek jeszcze w bieżącym kwartale. Wśród nowych urządzeń znajdziemy zarówno takie wyposażone w jedną jak i dwie kości graficzne. Najbardziej wydajna karta, GeForce 9800 GX2, używa dwóch GPU, o których wiadomo na razie tylko tyle, że będą wykonane w technologii 65 nanometrów i korzystają ze 128 zunifikowanych jednostek cieniowania.. Nowa karta ma być o 30% bardziej wydajna od karty z układem GeForce 8800 Ultra i umożliwi korzystanie z 4 GPU jednocześnie. Z kolei najmniej wydajna z kart, GeForce 9800 GTX zastąpi układ GeForce 8800 GTX i będzie urządzeniem jednoprocesorowym. Na rynek ma trafić w lutym lub marcu.
  8. Nvidia oficjalnie pokazała technologię, która pozwala na połączenie 3 kart graficznych w trybie SLI. Firma wciąż więc próbuje zaoferować klientom coś więcej niż tradycyjne SLI. Propozycja Quad SLI (łączenie czterech kart graficznych) nie spotkała się ze zbyt wielkim zainteresowaniem, gdyż nie oferowała zbyt wiele w porównaniu z SLI. Teraz firma przekonuje do potrójnego SLI. Technologia umożliwia łączenie trzech kart z procesorem GeForce 8800 Ultra lub GeForce 8800 GTX. Jest to możliwe tylko na komputerach korzystających z chipsetu nForce 680i. Ujesh Desai z Nvidii mówi, że potrójne SLI daje 2,8-krotnie większą moc obliczeniową niż system z jedną kartą graficzną. Przy rozdzielczości 2560x1600 i 8-krotnym antyaliasingu możliwe jest ponoć wyświetlenie 60 klatek na sekundę. Potrójne SLI trafi w ręce najbardziej zagorzałych graczy. Karty graficzne z procesorem GeForce 8800 GTX kosztują 550-600 dolarów, GeForce 8800 Ultra – 850 dolarów, a płyty główne z nForce 680i – około 200 dolarów.
  9. NVIDIA GeForce 8800 GT trafił już na półki sklepowe. Zaprojektowany został tak, aby spełnić żądania najbardziej wymagających graczy, którzy czekali na bardzo wydajną kartę w cenie około 229 euro. GeForce 8800 GT zapewnia niesamowite doznania w grach nowej generacji zgodnych ze standardem DirectX 10 takich jak Crysis, Hellgate: London czy Gears of War, jak również pełną obsługę gier w standardzie DirectX9. Kiedy wprowadzaliśmy na rynek serię GeForce 8, najbardziej wymagający klienci i prasa domagali się produktu z 64 procesorami strumieniowymi i 256-bitowym interfejsem pamięci. W dniu dzisiejszym zdecydowaliśmy się podnieść poprzeczkę i zaoferować kartę GeForce 8800 GT. 112 procesorów strumieniowych, szybki, 256 bitowy interfejs pamięci oraz obsługa technologii PureVideo HD drugiej generacji – to wszystko, w niesamowicie atrakcyjnej cenie, oferuje GeForce 8800 GT - powiedział Ujesh Desai dyrektor generalny działu procesorów graficznych dla komputerów typu desktop firmy NVIDIA. W tym przedziale cenowym gracze otrzymują lepszą wydajność i więcej funkcji niż kiedykolwiek wcześniej. Oprócz 112 procesorów strumieniowych, pracujących z częstotliwością 1,5 GHz oraz 256-bitowej magistrali dla pamięci, taktowanej zegarem 900 MHz, GeForce 8800 GT obsługuje także nową szynę PCI Express 2.0, która jest w pełni zgodna z dotychczas wykorzystywanym standardem PCI Express. GeForce 8800 GT sprawdza się nie tylko w grach, ale oferuje również najwyższy poziom rozrywki dzięki pełnemu wsparciu dla technologii HD. Do przetwarzania wideo wykorzystuje rewolucyjny procesor wideo drugiej generacji, który umożliwia odtwarzanie filmów HD DVD czy Blu-ray na zwykłym komputerze PC. Nowy programowalny silnik przejmuje wszystkie zadania związanie z dekodowaniem formatu H.264. Dzięki temu procesor komputera może skupić się na obliczeniach niezwiązanych z grafiką.
  10. Nvidia odchodzi od dotychczasowego schematu nadawania nazw swoim układom graficznym. Firma rezygnuje więc z nazewnictwa typu Gx, czyli GT, GS czy GTX. Zamiast tego będziemy mieli do czynienia z następującymi oznaczniami:D8M: układ 8. generacji, przeznaczony dla przeciętnego użytkownika (mainstream), to obecna kość G98D8P: układ 8. generacji, dla bardziej wymagających użytkowników (performance), obecnie G92D9M: układ 9. generacji, dla przeciętnego użytkownikaD9P: układ 9. generacji, dla bardziej wymagającego użytkownikaD9E: układ 9. generacji dla najbardziej wymagających użytkowników (enthusiast). Ostatnio sporo mówiło się o układzie GeForce 8800 GT (G92), zwanej obecnie D8P. Korzysta ona ze 112 procesorów strumieniowych i jest pierwszą kością Nvidii wyprodukowaną w technologii 65 nanometrów. Prawdziwym czarnym koniem rynku może jednak okazać się GeForce 8800 GTS SSC. Kość identyczna z 90-nanometrowym G80. Jednak o ile G80 korzysta z 96 ze 128 procesorów strumieniowych, to w 8800 GTS SSC udostępniono 112 procesorów. Ponadto w grudniu doczekamy się kolejnej wersji 8800 GTS. Układ ten nie będzie już 90-nanometrową kością oznaczoną jako G80, ale stanie się 65-nanometrową D8P ze 128 procesorami strumieniowymi. Nvidia szykuje również procesory kolejnej generacji. Początkowo mają one zastąpić serię GeForce 8500. Układy D9M będą współpracowały z PCI Express 2.0, obsłużą DirectX 10.1, szersze interfejsy pamięci (128-bitowe) i zostaną wykonane w technologii 65 nanometrów. Z kolei D9P, które zastąpią układy z serii GeForce 8600, będą różniły się przede wszystkim szerszym, bo 256-bitowym, interfejsem pamięci. Następcami procesorów GeForce 8800 staną się układy D9E z 512-bitowym interfejsem pamięci.
  11. W ofercie Nvidii znalazła się rodzina chipsetów ze zintegrowanym układem graficznym. Kości GeForce 7150 są przeznaczone dla płyt głównych z podstawką LGA775. Zastosowano w nich układy graficzne z serii GeForce 7. Dzięki obecności wydajnego procesora graficznego na płycie głównej, możliwe będzie obniżenie ceny całego zestawu komputerowego. Wszystkie z oferowanych chipsetów współpracują z procesorami Core 2, Pentium D, Pentium 4 oraz Celeron D. Obsługują DirectX 9 oraz Shader Model 3.0. Chipsety pozwalają na zastosowanie na płycie głównej 1 złącza PCI Express x16 oraz dwóch PCI Express x1. Ponadto użytkownik będzie mógł skorzystać z 4 gniazd SATA II i dwóch PATA i technologii Nvidia MediaShield. W najnowszej ofercie Nvidii znalazły się: Nvidia GeForce 7150 i nForce 630i, GeForce 7100 i nForce 630i oraz GeForce 7050 z nForce 630i, a także GeForce 7050 z nForce 610i. Trzy pierwsze zestawy współpracują z 1333-megahercową magistralą systemową i pozwalają na skorzystanie z 10 gniazd USB. Ostatni (GeForce 7050, nForce 610i) oferuje obsługę 1066-megahercowej FSB i 8 gniazd USB. Chipsety obsługują 800- (zestaw z GeForce 7150 i z 7100) lub 600-megahercowe pamięci DDR2 (pozostałe dwa zestawy). Układy graficzne GeForce 7150 i 7100 są taktowane zegarem o częstotliwości 600 MHz, a GeForce 7050 – 500 MHz.
  12. Przejęcie ATI przez AMD nie pomogło tej pierwszej firmie w odzyskaniu dawnej pozycji na rynku układów graficznych. Największym producentem tego typu kości wciąż pozostaje Intel, jednak najbardziej zauważalnym zjawiskiem jest szybki wzrost udziałów Nvidii. Trzeci kwartał 2007 roku to drugi kwartał z kolei, który nas zaskoczył. W drugim kwartale nastąpił spory wzrost popytu na układy graficzne. A zwykle jest to bardzo spokojny okres. Z kolei trzeci kwartał, w którym zwykle widzimy duże wzrosty, był tym razem rekordowy. Uważamy, że zjawiska te są związane z dużym popytem na systemy multimedialne i, do pewnego stopnia, z popytem na Windows Vistę – mówi Jon Peddle, dyrektor firmy analitycznej Peddle Research. W trzecim kwartale bieżącego roku producenci dostarczyli na rynek 97,85 miliona procesorów graficznych. To o 20% więcej, niż kwartał wcześniej i o 18,2% więcej niż w trzecim kwartale roku ubiegłego. W ostatnim kwartale Nvidia zwiększyła swoje dostawy o 25,1%, Intel o 21,6%, a AMD jedynie o 17,8% w porównaniu z kwartałem ubiegłym. Obecnie do Intela należy 38% rynku, udziały Nvidii wynoszą 33,9% (to najlepszy od wielu lat wynik tej firmy). Tymczasem udziały AMD spadły o 0,4% i wynoszą obecnie 19,1%.
  13. Media coraz częściej informują o planowanej ponoć przez Nvidię premierze nowego procesora graficznego o nazwie kodowej G92. Kość, która ma zadebiutować 12 października, nie zastąpi jednak układu G80 (GeForce 8800), który jest flagowym produktem Nvidii. Ponoć G92 ma być przeznaczony dla przeciętnego użytkownika wymagającego wydajnego układu. Nie będzie pozycjonowany na rynek najbardziej wydajnych domowych GPU. W nowej kości znajdzie się ulepszona tachnologia PureVideo HD, kość będzie współpracowała z szyną PCI Express 2.0 oraz z DVI, DisplayPort i HDMI. Jeszcze nie wiadomo, czy będzie wykorzystywała biblioteki DirecX 10.1. Ma być podobno wykonana w technologii 65 nanometrów, a jej produkcją zajmie się TSMC. Jeśli doniesienia mediów o pozycjonowaniu G92 na mainstreamowy rynek są prawdziwe, może to oznaczać, że albo Nvidia zmieniła taktykę, albo też wkrótce zaprezentuje wysokowydajny GPU, który może nosić nazwę kodową G90. Przed kilkoma miesiącami Michael Hara, wiceprezes Nvidii ds. relacji z inwestorami, zapowiedział, że przyszły okręt flagowy jego firmy, który zastąpi procesory G80 sprzedawane jako GeForce 8800 GTS, GTX i Ultra, będzie charakteryzował się wydajnością rzędu 1 teraflopsa. To dwukrotnie więcej, niż G80. Jednocześnie należy pamiętać, że Nvidia dotychczas najpierw pokazywała bardziej wydajne i droższe układy, a kilka miesięcy później wypuszczała na rynek tańsze i mniej wydajne wersje tych samych kości. Sama Nvidia nie komentuje powyższych doniesień, nadal więc są one jedynie spekulacjami.
  14. Korzystanie z wysoko wydajnych procesorów graficznych niesie za sobą zwiększenie poboru energii przez komputer. Jest to szczególnie widoczne gdy używamy więcej niż jednego GPU. Jednak nie zawsze potrzebujemy tak dużych mocy obliczeniowych dla grafiki. Nvidia pracuje właśnie nad technologią Hybrid SLI, która ma zapewnić dużą moc przy jednoczesnym niskim poborze energii. Hybrid SLI ma zadbać o przełączanie pomiędzy rdzeniem graficznym wbudowanym w chipset a procesorami zamontowanymi na kartach graficznych. Gdy użytkownik korzysta np. z edytora tekstu czy przegląda Internet, nie potrzebuje dużych mocy i z powodzeniem może wyświetlać obraz za pomocą rdzenia w chipsecie. Kiedy chce zagrać w najnowszą grę lub zająć się projektowaniem trójwymiarowym – wówczas konieczne stanie się wykorzystanie mocny akceleratorów. Ponadto wbudowany rdzeń graficzny (IGP) może wspomóc procesor graficzny (GPU) w obliczeniach. Tutaj właśnie ma do spełnienia swoją rolę Hybrid SLI. W zależności od tego, co będzie robił użytkownik, zapewni mu ona wystarczające zasoby sprzętowe. Nowa technologia może sprawdzić się szczególnie w notebookach. Dla ich właścicieli czas pracy na bateriach jest jednym z najbardziej istotnych czynników, a mocna karta graficzna potrafi ten czas poważnie ograniczyć.
  15. Nvidia, znany producent procesorów graficznych z serii GeForce, postanowiła zmienić obecnie wykorzystywane stacje robocze w urządzenia, które nazwała superkomputerami osobistymi. Firma zaoferowała procesory Tesla, oparte na GPU układy, które charakteryzuje wyjątkowo duża wydajność. Dzięki temu naukowcy czy inżynierowie potrzebujących potężnych mocy obliczeniowych nie muszą już starać się o dostęp do superkomputerów. Wiele zadań będą mogli wykonać dzięki Tesli zainstalowanej w swoich stacjach roboczych. W ramach rodziny Testla Nvidia proponuje:procesor GPU Nvidia Tesla zamontowany na dedykowanej karcie rozszerzeń. GPU Tesla składa się ze 128 procesorów równoległych a jego moc obliczeniowa dochodzi do 518 gigaflopsów (518 miliardów operacji zmiennoprzecinkowych na sekundę);superkomputer desksite Nvidia Tesla, czyli rozszerzalny system obliczeniowy zawierający dwa procesory Tesla, który można podłączyć do peceta lub stacji roboczej za pomocą adaptera PCI Express. Nvidia zapewnia, że takie rozwiązanie będzie charakteryzowało się mocą obliczeniową rzędu 8 teraflopsów (8 bilonów operacji zmiennoprzecinkowych na sekundę). Wynik jest o tyle szokujący, że 8-teraflopsowy system uplasowałby się na 84. miejscu listy 500 najpotężniejszych superkomputerów na świecie;serwer obliczeń GPU Nvidia Tesla, który zawiera do ośmiu procesorów Tesla i oferuje teraflopy mocy obliczeniowej.Nvidia zapewnia, że Tesla, dostarczona już firmom i ośrodkom naukowym zapewniła wzrost wydajności systemów komputerowych od 45 do 415 razy. Tesla uzyskała takie wyniki podczas pracy z bazą danych sejsmicznych, symulowania neuronów, chmur czy w czasie przetwarzania obrazów rezonansu magnetycznego.
  16. ATI i Nvidia przygotowywują tanie karty obsługujące biblioteki DirectX 10. Urządzenia miałyby być sprzedawane w cenie 99 dolarów lub niższej. Już 19 czerwca zadebiutuje GeForce 8400 GS Nviidii wyposażona w 128 lub 256 megabajtów pamięci. Kartę z 256 megabajtami wyceniono na 89 dolarów, a urządzenie wyposażone w 128 MB ma być znacząco tańsze. Natomiast 28 czerwca w ofercie ATI mają pojawić się karty Radeon HD 2400 Pro oraz Radeon HD 2400 XT wyposażone w 256 megabajtów pamięci. Ich cena wyniesie, odpowiednio, 69 i 89 dolarów. Na rynek trafią też Radeony HD 2400 ze 128 megabajtami pamięci. Kości ATI Radeon HD 2400 są w pełni kompatybilne z DirectX 10 i wykorzystują engine Avivo HD. Zarówno układ Pro jak i XT posługują się 40 układami stream processor, 4 jednostek teksturujących i 4 renderujących. Różnica pomiędzy nimi wynika z częstotliwości pracy zegara. Układ XT jest taktowany 700-megahercowym zegarem, a współpracujące z nim pamięci zegarem o częstotliwości 1400 MHz, podczas gdy kość Pro pracuje przy częstotliwości 525 MHz, a jego układy pamięci – 800 MHz. Oba procesory wykonane są w technologii 65 nanometrów i korzystają z 64-bitowego kontrolera pamici. O układzie GeForce 8400 GS wiadomo jedynie tyle, że korzysta z 16 jednostek cieniowania, 64-bitowego kontrolera pamięci i jest taktowana zegarem o częstotliwości 450 MHz oraz współpracuje z 800-megahercowymi układami pamięci. Kość wykonano w technologii 80 nanometrów.
  17. Rozpoczynające się wkrótce lato będzie dla Nvidii wyjątkowo gorącym okresem. Na rozpatrzenie w sądach czeka bowiem 51 cywilnych pozwów przeciwko tej firmie. Jest ona oskarżana o stosowanie nieuczciwych praktyk i ustalanie cen. Część ze skarżących uważa, że w sprawie cen przedsiębiorstwo doszło do porozumienia ze swoim głównym rywalem – AMD. Przypomnijmy, że ten producent procesorów kupił w ubiegłym roku firmę ATI, tworzącą procesory graficzne. Najwięcej, bo aż 42 pozwy, złożono w marcu. W 14 z nich stwierdzono, że Nvidia i AMD ustaliły minimalną cenę na karty graficzne, co spowodowało, że najbardziej wydajne urządzenia tego typu są sprzedawane zbyt drogo. To kolejne już, od czasu przejęcia ATI przez AMD, oskarżenia wysuwane pod adresem Nvidii i AMD.
  18. Nvidia potwierdziła, że przygotowuje chipset z wbudowanym rdzeniem graficznym obsługującym biblioteki DirectX 10. Układ będzie przystosowany do współpracy z procesorami AMD i, obok rdzenia graficznego, ma wykorzystywać kilka nowych technologii. Decyzja Nvidii jasno wskazuje na to, że nie sprawdziły się przewidywania wielu rynkowych specjalistów dotyczących strategii tej firmy. Po przejęciu ATI przez AMD sądzono, że Nvidia silniej zwiąże się z Intelem i będzie produkowała mniej układów dla platformy AMD. Nvidia najwyraźniej jednak uważa, że jest w stanie konkurować z ATI na rynku platform dla procesorów AMD. Nowy chipset – MCP78 – będzie obsługiwał szynę Hyper-Transport 3.0 i jedno gniazdo PCI Express 2.0 x16. Rdzeń graficzny zostanie wyposażony w silnik PureVideo HD, który korzysta z H.264 i VC-1 oraz obsłuży wyjścia D-Sub, DVI, DisplayPort, HDMI oraz wyjście telewizyjne. Kość pozwoli też na skorzystanie z sześciu kontrolerów SATA II i technologii RAID, dwóch PATA, Gigabit Ethernetu i 12 portów USB 2.0. Masowa produkcja nowej kości rozpocznie się w październiku, a układy zostaną wykonane w technologii 65 i 55 nanometrów.
  19. Michael Hara, wiceprezes ds. relacji z inwestorami firmy Nvidia, powiedział, że przygotowywany przez jego firmę procesor graficzny G92 będzie charakteryzował się mocą obliczeniową rzędu jednego teraflopsa (bilion operacji zmiennoprzecinkowych na sekundę). Z nieoficjalnych pogłosek wynika, że G92 ma trafić na rynek w czwartym kwartale bieżącego roku. Pogłoski te są o tyle uzasadnione, że jak dotąd Nvidia pokazywała swoje najnowsze i najmocniejsze procesory właśnie pod koniec roku, a wiosną na rynek trafiały ich mniej wydajne i tańsze wersje. Najnowsza kość Nvidii będzie konkurowała na rynku nie tylko z układami R6xx ATI, ale również z przyszłymi R7xx.
  20. Intel i Nvidia planują rozszerzyć współpracę. Zacieśnianie kooperacji pomiędzy największym producentem procesorów x86 a największym producentem procesorów graficznych to zła wiadomość dla AMD. Z nieoficjalnych doniesień wynika, że Intel zyska dostęp do niektórych technologii Nvidii. Obie firmy pierwszą umowę o współpracy zawarły pod koniec 2004 roku. Na jej podstawie Nvidia otrzymała zgodę i wszelkie informacje potrzebne do produkcji chipsetów współpracujących z procesorami Intela. Dzięki temu powstała seria nForce 4 Intel Edition. Wciąż nie wiadomo, co w zamian otrzymał Intel. Od pewnego czasu mówi się, że Intel ma zamiar w 2009 lub 2010 zaprezentować swój własny procesor graficzny. Ponadto w CPU Nehalem ma znaleźć się wbudowany rdzeń graficzny. Intel jest największym producentem układów graficznych wbudowanych w chipsecie. Oferta taka kierowana jest jednak na rynek najtańszych systemów komputerowych, a Intel chciałby zwiększyć swój margines zysku z produkcji układów zarządzających wyświetlaniem grafiki. Ponadto zintegrowanie rdzeni z CPU pozwoli Intelowi na poszerzenie swoich udziałów w rynku wbudowanych rozwiązań graficznych, bez konieczności zwiększania produkcji samych układów.
  21. Firma analityczna DRAMeXchange, specjalizująca się w badaniu rynku pamięci, opublikowała swój raport dotyczący rozwoju układów GDDR. Zauważono w nim, że pojawienie się na rynku Xboxa 360 oraz premiera PlayStation 3, która ma wkrótce nastąpić, przyczyniły się do rozwoju rynku układów pamięci graficznych. Zwiększone zainteresowanie tego typu kośćmi będzie miało miejsce również w 2007 roku w związku z premierą systemu Windows Vista. Ponadto na rynek trafia coraz więcej bardzo wydajnych notebooków, które tworzone są z myślą o graczach, a to z kolei również przyczynia się do rozwoju pamięci GDDR. Już w tej chwili Samsung i Hynix przygotowały układy GDDR4 na potrzeby ATI i Nvidii. Pierwsza karta graficzna wykorzystująca tego typu kości to model z GPU ATI Radeon X1950XTX ze 1100-megahercowymi pamięciami Samsunga. Jej rynkowa premiera wyznacza jednocześnie początek rynkowej obecności układów GDDR4. Natomiast już w przyszłym roku będziemy świadkami debiutu układów GDDR5. Obecnie są one w fazie projektowej, a ich pierwsze próbki zostaną dostarczone wytwórcom kości graficznych w połowie przyszłego roku. DRAMeXchange zauważa, że pomimo dużego popytu na układy GDDR pewnym zagrożeniem dla nich są zintegrowane rdzenie graficzne (IGP). Stają się one coraz bardziej popularne na rynku najtańszych komputerów, tym bardziej, że charakteryzują się coraz lepszą wydajnością, dorównując tanim kartom graficznym. Zintegrowane rdzenie nie wykorzystują osobnej pamięci, dlatego, zdaniem DRAMeXchange, przetrwanie GDDR na rynku tanich komputerów stoi pod znakiem zapytania. Co prawda ATI ma w swojej ofercie IGP korzystający z osobnych kości pamięci, jednak kierowany jest on na nieliczne rynki i nie zmienia ogólnej sytuacji. GDDR GDDR2 GDDR3 GDDR4 Nvidia ATI maksymalna częstotliwość taktowania 200 MHz 500 MHz 900 MHz 1,2 GHz 1,4 GHz konfiguracja 4M x 32 4M x 32 8M x 32 8M x 32 16M x 32 odczyt wyprzedzający (prefetch) 2n 4n 4n 4n 8n interfejs SSTL-2 SSTL-18 POD-18 POD-15 POD-15 liczba slotów 4 4 4 8 8 napięcie 2,5 2,5 1,8 1,8 1,8 adresowanie pojedyncze pojedyncze pojedyncze pojedyncze podwójne podwójne
  22. Z informacji zdobytych od partnerów Nvidii wynika, że procesor graficzny GeForce 8800 Ultra zadebiutuje razem z innymi procesorami z rodziny GeForce 8xxx. Plany powstania układu Ultra zostały ujawnione przed kilkoma dniami przed uważnych obserwatorów polityki Nvidii, którzy odkryli, że firma przygotowuje zestaw sterowników ForceWare dla kości oznaczonej jako Ultra. Tak więc 17 kwietnia, w odpowiedzi na debiut procesora ATI R600 zadebiutuje nowy członek rodziny GeForce 8800. Prawdopodobnie będzie to podkręcona wersja 8800 GTX. W tym samym dniu Nvidia pokaże układy GeForce 8300 GS, 8400 GS, 8500 GT, 8600 GT i 8600 GTS. Producent nie ujawnia specyfikacji swoich produktów.
  23. TSMC (Taiwan Semiconductor Manufacturing Company) i Nvidia ogłosiły, że powstały już pierwsze w pełni działające próbki procesora graficznego z wbudowaną pamięcią DRAM. Szczegółów GPU nie ujawniono, jednak sam fakt jego wyprodukowania wskazuje na rosnące zainteresowanie technologią eDRAM. Z oświadczenia obu firm wiadomo jedynie, że pamięć została wykonana w technologii 65 nanometrów. Technologia eDRAM pozwala na upakowanie w kości większej ilości pamięci, niż stosowana powszechnie SRAM. Idzie za tym możliwość wykonania większej liczby operacji w tym samym czasie czy dodanie do kości dodatkowych funkcji. Pojedyncza komórka pamięci eDRAM produkowana przez TSMC jest czterokrotnie mniejsza niż komórka SRAM. Nvidia od stycznia szuka specjalistów, którzy potrafią zaprojektować pamięci eDRAM dla procesorów graficznych. Obecnie nie wiadomo, kiedy GPU z tego typu pamięcią trafią na rynek.
  24. Fatal1ty Professional FP-IN9 SLI to najnowsza płyta firmy Abit ze sławnej przeznaczonej dla graczy serii Fatal1ty. Urządzenie może współpracować z dwu- i czterordzeniowymi układami Intela, korzysta z chipsetu nForce 650i SLI Nvidii oraz pozwala na zastosowanie dwóch kart graficznych połączonych w trybie SLI. Szyna systemowa płyty taktowana jest zegarem o częstotliwości 1066 MHz. Użytkownik może zainstalować do 32 gigabajtów pamięci operacyjnej w kościach DDR2-800/667/533. Na płycie zastosowano 4 porty SATA II, a podłączone dyski twarde można połączyć w macierze RAID 0, 1, 0+1, 5 i JBOD. Właściciel Fatal1ty FP-IN9 SLI skorzysta też z ośmiokanałowego dźwięku, 8 portów USB 2.0 oraz gigabitowego Ethernetu.
  25. O planach Intela, który zamierza wejść na rynek procesorów graficznych, słychać od kilku tygodni. Obecnie koncern produkuje rdzenie graficzne zintegrowane z chipsetem, a rynek GPU jest niemal całkowicie zdominowany przez AMD/ATI i Nvidię. Pierwsze GPU Intela zadebiutują, jak donosi VR-zone, w 2009 roku. Serwis przynosi też kilka interesujących szczegółów dotyczących tych kości. Zastrzega jednak, że jego informacje nie pochodzą od Intela, a część z nich to tylko domysły. Bardzo prawdopodobne jest, że układy zostaną wykonane w technologii 32 nanometrów. Przypuszczenie takie jest o tyle uprawnione, że w ciągu dwóch lat taki proces produkcyjny powinien być już wdrożony. Najciekawsza jednak informacja brzmi: GPU Intela ma składać się z 16 rdzeni. Nie wiadomo, na ile wydajny byłby taki układ, ale jeśli miałby moc obliczeniową kilkunastokrotnie większą od najbardziej obecnie wydajnych układów z rodziny G80 z pewnością zainteresowałby niejednego gracza. Zresztą właśnie do graczy i osób potrzebujących wysoko wydajnych układów przetwarzających grafikę miałby najpierw trafić GPU Intela. Jeśli doniesienia VR-zone się sprawdzą, będziemy świadkami wielkich zmian na rynku układów graficznych.
×
×
  • Dodaj nową pozycję...