Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Pierwsze karty z GeForce 8800

Rekomendowane odpowiedzi

Gainward, znany producent kart graficznych, ogłosił, że już dzisiaj jest gotowy dostarczyć do sklepów swoje produkty wyposażone w najnowszy procesor Nvidii – GeForce 8800GTX. Właśnie dzisiaj będzie miała miejsce oficjalna premiera tego GPU.

Gainward z dumą pragnie powiadomić, iż dzięki bliskiej współpracy z Nvidią, inżynierowie naszej firmy byli w stanie poprawić błędy występujące na pierwszych kartach, co oznacza, że rozpoczniemy dostawę urządzeń Bliss 8800GTX do naszych partnerów handlowych jeszcze przed oficjalną premierą – czytamy w oświadczeniu firmy.

Przed dwoma dniami Nvidia poinformowała, że na części z pierwszych kart GeForce 8800GTX zastosowano wadliwe części. Podkreślono, że problem dotyczył tylko kart z układem GTX i nie wystąpił w tych, na których zastosowano słabszą wersję procesora – GeForce 8800GTS.

Z doniesień prasowych wynika, że najnowsze urządzenia z GPU Nvidii przygotowały też firmy Asustek i XFX.

Szczegółowe informacje na temat układów GeForce 8800GTX i GeForce 8800GTS opublikowaliśmy przed miesiącem.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W sterownikach graficznych Nvidii znaleziono liczne dziury, które umożliwiają przeprowadzenie DoS (denial of service), wykonanie złośliwego kodu oraz inne rodzaje ataków. Nvidia wydala już odpowiednie poprawki, które należy jak najszybciej zainstalować.
      Dziury występują przede wszystkim w sterownikach do procesorów GeForce, Quadro i Tesla dla systemu Windows.
      Najpoważniejsza dziura znajduje się w panelu sterowania grafiki, elemencie umożliwiającym użytkownikowi zmianę ustawień GPU. Nvidia informuje, że napastnik z lokalnym dostępem może doprowadzić do awarii systemu plików panelu sterowania, co pozwala mu albo na przeprowadzenie ataku DoS, albo na zwiększenie uprawnień. Lukę tę (CVE-2020-5957) oceniono na 8,4 w 10-stopniowej skali zagrożeń CVSS.
      Kolejna dziura (CVE-2020-5958), uznana za średnio poważną, również występuje w panelu kontrolnym. Użytkownik z dostępem lokalnym może dzięki niej zainstalować zmanipulowany plik DLL, dzięki czemu może przeprowadzić atak DOS, zyskać uprawnienia do wykonywania kodu, odczytania zastrzeżonych informacji.
      Obie dziury zostały załatane. Na poprawki czeka jeszcze wersja R440 dla procesora Tesla. Zostaną one udostępnione w przyszłym tygodniu.
      Liczne dziury znaleziono też w Virtual GPU Manager. To oprogramowanie pozwalające wielu wirtualnym maszynom na jednoczesny dostęp do tego samego procesora graficznego. Tutaj najpoważniejsza dziura (CVE-2020-5959) spowodowana jest nieprawidłową weryfikacją danych wejściowych, co pozwala na przeprowadzenie ataku DoS. Lukę tę oceniono na 7,8 w skali CVSS. Druga z luk występująca w tym oprogramowaniu, CVE-2020-5960, została oceniona jako średnio poważna. Również ona umożliwia DoS.
      Poprawione wersje sterowników można pobrać na stronie Nvidii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom.
      Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości.
      Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.
    • przez KopalniaWiedzy.pl
      AMD zaprezentowała dzisiaj kartę graficzną Radeon HD 7970. Firma twierdzi, że to najbardziej wydajna jednoprocesorowa karta na świecie, która korzysta z jedynego GPU wykonanego w technologii 28 nanometrów. Procesor wykorzystuje nową mikroarchitekturę Graphics Core Next. W porównaniu z poprzednią generacją architektura ta jest o 150% bardziej wydajna na każdy milimetr kwadratowy powierzchni.
      Bazujący na Tahiti GPU kość Radeon HT 7970 korzysta z 2048 procesorów strumieniowych, 384-bitowej szyny pamięci GDDR5 i 4,31 miliarda tranzystorów. Powierzchnia procesora wynosi zaledwie 365 milimetrów kwadratowych.
      Układ Radeon 7970 taktowany jest zegarem o częstotliwości 925 megaherców, a jego teoretyczna szczytowa wydajność wynosi 3,79 teraflopsa. To nieco ponad teraflops więcej niż wydajność karty Radeon 6970. Szyna pamięci nowej karty taktowana jest 1,375-gigahercowym zegarem, co pozwala jej na przesłanie 264 gigabajtów danych w ciągu sekundy. Przepustowość szyny 6970 wynosi 176 GB/s.
    • przez KopalniaWiedzy.pl
      Firma NVIDIA zaprezentowała wczoraj procesor NVIDIA Tegra 3, rozpoczynając erę czterordzeniowych urządzeń przenośnych o wydajności porównywalnej z komputerami PC, cechujących się dłuższym czasem pracy na baterii i większą wygodą użytkowania. Pierwszym tabletem na świecie z czterordzeniowym procesorem Tegra 3 jest Eee Pad Transformer Prime firmy ASUS.
      Procesor Tegra 3, znany wcześniej pod nazwą kodową „Projekt Kal-El," osiąga trzykrotnie wyższą wydajność od procesora Tegra 2, a także cechuje się mniejszym nawet o 61 procent poborem energii. Dzięki temu urządzenia oparte na tym procesorze są w stanie odtwarzać materiały wideo w wysokiej rozdzielczości (HD) przez 12 godzin na jednym ładowaniu akumulatora.
      W procesorze Tegra 3 zaimplementowano nową, opatentowaną technologię zmiennego, symetrycznego przetwarzania wielowątkowego (ang. vSMP - Variable Symmetric Multiprocessing). vSMP zakłada wykorzystanie piątego „towarzyszącego" procesora, który został zaprojektowany do zadań niewymagających znacznej mocy obliczeniowej i cechuje się niewielkim poborem energii. Cztery główne rdzenie zostały specjalnie zaprojektowane do pracy z zadaniami wymagającymi wysokiej wydajności i na ogół pobierają mniej energii od procesorów dwurdzeniowych.
      Podczas wykonywania zadań wymagających mniejszego zużycia energii, takich jak słuchanie muzyki, odtwarzanie filmów lub aktualizowanie danych w tle, procesor Tegra 3 wyłącza cztery wysokowydajne rdzenie i pracuje wyłącznie na rdzeniu towarzyszącym. I odwrotnie - podczas realizacji zadań wymagających wysokiej wydajności, takich jak przeglądanie stron internetowych, pracy wielozadaniowej i gier, procesor Tegra 3 wyłącza rdzeń towarzyszący.
    • przez KopalniaWiedzy.pl
      Nvidia prawdopodobnie o rok opóźni premierę układów wykonanych w technologii 28 oraz 22/20 nanometrów. Dwudziestoośmionanometrowy Kepler miał zadebiutować w bieżącym roku, a układ Maxwell wykonany w technologii 22 lub 20 nanometrów miał pojawić się w roku 2013. Z nieoficjalnych informacji wynika, że układy zadebiutują w roku 2012 i 2014.
      Przyczyną opóźnienia są problemy, jakie ma TSMC - zleceniobiorca Nvidii - z wdrażaniem kolejnych kroków technologicznych.
      To nie pierwsze problemy TSMC. Producent w 2009 roku miał trudności z wdrażaniem technologii 40 nanometrów, przez co opóźniły się premiery układu Ferii Nvidii oraz 40-nanometrowych procesorów AMD.
      Początkowo firma TSMC przewidywała, że w roku 2011 wdroży w jednej ze swoich fabryk technologię 28 nanometrów, a w roku 2012 rozpocznie pilotażową komercyjną produkcję układów 20-nanometrowych.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...