Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Nvidia: Sapphire to pomyłka

Rekomendowane odpowiedzi

Nvidia oświadczyła, że znany producent kart graficznych Sapphire Technology, najważniejszy partner ATI, nie będzie dostarczał kart z układami GeForce. Wcześniej omyłkowo sama Nvidia umieściła Sapphire'a na liście swoich partnerów. Firma tłumaczy, iż miała być tam wpisana nowa firma o nazwie Zogis Electronics.

W naszym oświadczeniu znalazł się błąd. Zamiast Sapphire'a miał być tam Power Color/Zogis. Power Color/Zogis to nowa marka wykorzystująca układy Nvidii - powiedział Luciano Alibrandi, rzecznik prasowy producenta GeForce'ów. Dodał przy tym, że Power Color/Zogis nie ma nic wspólnego z firmą Tul, właścicielem znanej marki Power Color, która produkuje karty graficzne z procesorami ATI. Co ciekawe, z nieznanych przyczyn nie tylko Nvidia na oznaczenie firmy Zogis używa nazwy Power Color/Zogis.

Do całej sytuacji odniósł się również szef Sapphire'a K.D. Au. Sapphire został błędnie umieszczony w tym oświadczeniu [chodzi o wcześniejsze oświadczenie Nvidii - red.] i informacja ta nie była autoryzowana przez Sapphire'a. Nie zmieniliśmy zdania i obecnie nie mamy żadnych planów dotyczących współpracy z Nvidią. Jesteśmy bardzo zadowoleni ze współpracy z ATI i chcemy dalej utrzymywać z tą firmą bliskie kontakty - powiedział Au.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Kiedy przyglądamy się na ekranach komputerów spektakularnym efektom wizualnym w najnowszych grach czy filmach, rzadko analizujemy to, w jaki sposób możemy w ogóle je zobaczyć. Tymczasem karty graficzne, bo to właśnie ich zasługa, to jedne z najbardziej złożonych urządzeń w świecie technologii. Te małe i niepozorne urządzenia potrafią w ułamkach sekund wykonywać obliczenia, które jeszcze kilkadziesiąt lat temu zajęłyby superkomputerom kilka dni. Co warto wiedzieć o współczesnych kartach graficznych?


      Wielkość ze skromnych początków, czyli historia i ewolucja kart graficznych Hasło znane z herbu brytyjskiego odkrywcy Francisa Drake’a, który jako jeden z pierwszych zdołał opłynąć świat, doskonale oddaje historię i rozwój kart graficznych. W latach 70. i 80. XX wieku pierwsze układy graficzne obsługiwały jedynie proste grafiki 2D, często oferując zaledwie kilka kolorów.
      Przełom nastąpił w 1996 roku, gdy firma 3dfx wypuściła Voodoo Graphics – pierwszą masowo produkowaną kartę dedykowaną akceleracji 3D. Kolejne lata to rywalizacja gigantów: NVIDIA (z przełomowym GeForce 256, pierwszym oficjalnie nazwanym GPU) oraz ATI (później przejęte przez AMD).
      Z każdą generacją wydajność rosła wręcz wykładniczo. Dzisiejsze karty mają więcej mocy obliczeniowej niż najbardziej zaawansowane superkomputery z początku wieku.
       
      Architektura i działanie GPU CPU i GPU to typy procesorów używane w komputerach, ale mają różne funkcje. CPU (Central Processing Unit) jest głównym procesorem, który wykonuje większość obliczeń i zarządza całym komputerem. GPU (Graphics Processing Unit) to natomiast bardziej specjalistyczny procesor, który przyśpiesza operacje związane z grafiką, np. w grach lub programach do obróbki grafiki.
      Jednostka CPU składa się z kilku rdzeni zoptymalizowanych pod kątem sekwencyjnego przetwarzania szeregowego, natomiast jednostki GPU zbudowane są z tysięcy mniejszych, wydajnych rdzeni zaprojektowanych z myślą o przetwarzaniu wielu zadań jednocześnie. Jest on przeznaczony do renderowania obrazów, filmów i animacji i sprawdza się podczas wydajnej obsługi danych wizualnych. NVIDIA nazywa je rdzeniami CUDA, AMD – Stream Processors, a Intel – Execution Units.
       
      Zastosowania wykraczające poza gry Choć karty graficzne kojarzymy głównie z grami, ich prawdziwa siła tkwi we wszechstronności. Dzięki masowej równoległości obliczeń GPU zrewolucjonizowały wiele dziedzin. W medycynie przyspieszają analizę obrazów diagnostycznych i symulacje molekularne przy projektowaniu leków. Naukowcy używają ich do modelowania klimatu i symulacji astrofizycznych. Inżynierowie projektują na nich złożone struktury i przeprowadzają symulacje.
      Szczególnie spektakularna jest ich rola w sztucznej inteligencji – trenowanie modeli deep learning przyspieszyło dzięki nim kilkaset razy. To właśnie karty graficzne napędzają boom AI, jaki obserwujemy w ostatnich latach.
       
      Ciekawostki technologiczne i rekordy Świat kart graficznych pełen jest rekordów. Uznawana przez wielu za najmocniejszą konsumencką kartę graficzną na rynku – NVIDIA GeForce RTX 4090 – osiąga wydajność ponad 80 teraflopsów w obliczeniach FP32. To moc obliczeniowa porównywalna z superkomputerami sprzed zaledwie dekady! Dobre karty graficzne znajdziesz między innymi tutaj: https://www.morele.net/kategoria/karty-graficzne-12/,,,,,,,,0,,,,8143O2252854/1/
      Miłośnicy ekstremalnego podkręcania używają ciekłego azotu, aby schłodzić karty do temperatur poniżej -150°C i wycisnąć z nich jeszcze więcej mocy. Rekordy taktowania przekraczają 3 GHz, podczas gdy standardowe zegary wynoszą około 2,2 GHz. Warto też wspomnieć o tym, że topowe modele potrafią pobierać ponad 450W mocy. To więcej niż pralka w trybie ekologicznym. Niektóre z nich wymagają nawet trzech złączy zasilania 8-pin, a producenci zalecają zasilacze o mocy 1000W lub więcej.
       
      Przyszłość technologii GPU Przyszłość kart graficznych rysuje się w jeszcze jaśniejszych barwach. Ray tracing – technologia symulująca rzeczywiste zachowanie światła – staje się standardem, oferując fotorealistyczne odbicia, cienie i oświetlenie. Algorytmy oparte na AI, jak NVIDIA DLSS czy AMD FSR, pozwalają generować obrazy w wyższych rozdzielczościach przy mniejszym obciążeniu sprzętu. Producenci pracują nad kartami, które zaoferują większą moc przy niższym zużyciu energii. Jednocześnie rozwija się technologia chipletów, gdzie GPU składa się z wielu mniejszych układów zamiast jednego monolitu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na rynku zadebiutowała nowa rodzina kart graficznych AMD z serii Radeon HD 68xx. Ich wydajność jest podobna do wydajności popularnych HD 5850, a cena rozpoczyna się od 239 dolarów.
      Obecnie w skład rodziny wchodzą karty Radeon HD 6870 i Radeon HD 6850. Korzystają one z procesora Barts ze znacznie udoskonalonym modułem teselacji, ulepszonymi jednostkami filtrowania tekstur i bardziej zaawansowanym uniwersalnym dekoderem wideo (UVD 3.0).
      Jednak w porównaniu z układem Cypress (HD 5850) usunięto obsługę obliczeń z podwójną precyzją i zwiększono napięcie z którym pracuje nowa kość, dzięki czemu możliwe było zwiększenie taktowania GPU i osiągnięcie podobnej wydajności pomimo mniejszej liczby jednostek obliczeniowych.
      Barts wykonany został - podobnie jak Cypress - w technologii 40 nanometrów. Nowy układ jest jednak znacznie mniejszy, gdyż jego powierzchnia wynosi 255 mm2 (Cypress - 334 mm2). Mniejsza powierzchnia to jednocześnie mniej tranzystorów. Jest ich 1,7 miliarda, wobec 2,15 miliarda w Cypress.
      Nowy układ charakteryzuje też mniejsza przepustowość szyny pamięci (134,4 Gb/s wobec 153,6 Gb/s). Jest on za to w stanie przetworzyć aż 900 milionów polygonów, podczas gdy Cypress obsługiwał ich 725 milionów. Barts korzysta z 14 jednostek SIMD (Cypress ma ich 18), 1120 jednostek cieniujących (Cypress - 1440) i 56 jednostek teksturowania, czyli o 16 mniej niż ma ich Cypress.
      Maksymalny pobór mocy jest taki sam, jak u poprzednika, a więc 151 watów, jednak w stanie bezczynności Barts zużywa tylko 19 watów.
      Zastanawiając się nad kupnem którejś z obecnie dostępnych kart z rodziny HD 68xx, powinniśmy znać główne różnice pomiędzy nimi. Układ HD 6870 taktowany jest zegarem o częstotliwości 900 MHz, podczas gdy HD 6850 - 770 MHz. Użytkownik tego pierwszego skorzysta z 1120 jednostek cieniujących, drugiego zaś z 960. Wydajność obliczeniowa HD 6870 wynosi 2 teraflopsy, a HD 6850 - 1,5 teraflopsa. Współczynnik fillrate dla wyżej numerowanego układu to 50,4 gigateksele na sekundę, a jego słabszy brat może pochwalić się 37,2 gigatekselami na sekundę. Pixell fillrate to, odpowiednio, 28,8 oraz 24,8 GPixel/s.
      Obie kości różnią się też nieco przepustowością pamięci (134,4 Gb/s i 128 Gb/s).
      Wraz z nową rodziną kart marka ATI przechodzi do historii. Od teraz karty graficzne będą znane jako AMD Radeon.
      Jeszcze przed końcem bieżącego roku do sklepów trafią karty AMD Radeon HD 6990, HD 6970, HD 6950.
    • przez KopalniaWiedzy.pl
      Cztery lata po przejęciu producenta kart graficznych, firmy ATI, AMD oświadczyło, że rezygnuje z logo i marki ATI. Przyszłe karty Radeon i FirePro będą sprzedawane pod marką AMD.
      Przedstawiciele AMD oświadczyli, że ich marka jest silniejsza od ATI i nadszedł dobry moment, by zrezygnować z logo ATI. Ma to służyć konsolidacji marki AMD.
      Okres przejściowy potrwa do końca bieżącego roku. Od roku 2011 AMD będzie sprzedawało pod własną marką procesory serwerowe Opteron, układy Vision (hybrydy GPU i CPU oraz chipsety) dla rynku konsumenckiego a także karty Radeon i FirePro.
    • przez KopalniaWiedzy.pl
      Intel obiecuje, że już wkrótce firmowe rdzenie graficzne pozwolą na skorzystanie z większości gier. Intel HD Graphics, czyli rdzenie, które pojawią się wraz z procesorami z rodziny Westmere, mają być na tyle wydajne, że większość graczy nie będzie potrzebowała osobnych procesorów graficznych.
      Intel przedstawił zainteresowanie grami w formie piramidy. U jej podstawy znalazły się takie tytuły jak Club Penguin, Tiger Woods Online czy Farmville. To najszybciej rosnący segment gier, skierowanych do osób, które oddają się elektronicznej rozrywce od przypadku do przypadku. W środkowej części piramidy znalazły się tytuły mainstreamowe, takie jak FIFA 2010, World of Warcraft, The Sims 3 czy Battlefield Heroes. Rdzenie z rodziny Intel HD Graphic mają obsłużyć obie kategorie gier.
      Poza ich zasięgiem znajdą się najbardziej zaawansowane tytuły, takie jak Resident Evil.
      Intel jest największym na świecie producentem rdzeni graficznych. Jeśli spełni swe obietnice i HD Graphics okażą się wystarczającą propozycją dla większości graczy, ATI i Nvidia będą miały trudny orzech do zgryzienia. Obu firmom może pozostać najwęższy i najbardziej wymagający segment rynku, o który już teraz toczą ostrą walkę.
    • przez KopalniaWiedzy.pl
      Jak donosi serwis Daily Tech, Intel zrezygnował z układu Larrabee, o którego prezentacji niedawno informowaliśmy. Powodem podjęcia takiej decyzji była zbyt mała wydajność układu.
      Procesor miał zadebiutować w przyszłym roku, a jego wydajność miała sięgać 2 teraflopsów. Okazało się jednak, że konkurencja zaskoczyła Intela. ATI najpierw pokazało procesor Radeon HD 5870 o wydajności 2,72 TFlops, a niedawno na rynku zadebiutował koleny GPU tej firmy - Radeon HD 5970, którego wydajność przekracza 5 teraflopsów. To był ostatni gwóźdź do trumny intelowskiego GPGPU.
      Koncern poinformował, że Larrabee nie spełnił jego oczekiwań. W związku z tym układ na pewno nie trafi na rynek. Będzie rozwijany jako platforma testowa, która ma w przyszłości umożliwić Intelowi wkroczenie na rynek samodzielnych układów graficznych.
      Przedstawiciele Intela zapowiedzieli, że w przyszłym roku przedstawią nowe plany rozwoju firmowych GPU.
      Przypomnijmy, że to już kolejna podjęta przez tę firmę próba zaistnienia na rynku GPU. W 1998 roku Intel rozpoczął sprzedaż układów i740, które miały spopularyzować szynę AGP. Szyna się przyjęła, jednak układy nie spełniły oczekiwań klientów i szybko zniknęły z rynku.
      Intel pozostaje zatem największym na świecie producentem wbudowanych rdzeni graficznych, jednak wciąż nie jest w stanie zaistnieć na rynku samodzielnych GPU.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...