Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'Nvidia' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 73 wyników

  1. W sterownikach graficznych Nvidii znaleziono liczne dziury, które umożliwiają przeprowadzenie DoS (denial of service), wykonanie złośliwego kodu oraz inne rodzaje ataków. Nvidia wydala już odpowiednie poprawki, które należy jak najszybciej zainstalować. Dziury występują przede wszystkim w sterownikach do procesorów GeForce, Quadro i Tesla dla systemu Windows. Najpoważniejsza dziura znajduje się w panelu sterowania grafiki, elemencie umożliwiającym użytkownikowi zmianę ustawień GPU. Nvidia informuje, że napastnik z lokalnym dostępem może doprowadzić do awarii systemu plików panelu sterowania, co pozwala mu albo na przeprowadzenie ataku DoS, albo na zwiększenie uprawnień. Lukę tę (CVE-2020-5957) oceniono na 8,4 w 10-stopniowej skali zagrożeń CVSS. Kolejna dziura (CVE-2020-5958), uznana za średnio poważną, również występuje w panelu kontrolnym. Użytkownik z dostępem lokalnym może dzięki niej zainstalować zmanipulowany plik DLL, dzięki czemu może przeprowadzić atak DOS, zyskać uprawnienia do wykonywania kodu, odczytania zastrzeżonych informacji. Obie dziury zostały załatane. Na poprawki czeka jeszcze wersja R440 dla procesora Tesla. Zostaną one udostępnione w przyszłym tygodniu. Liczne dziury znaleziono też w Virtual GPU Manager. To oprogramowanie pozwalające wielu wirtualnym maszynom na jednoczesny dostęp do tego samego procesora graficznego. Tutaj najpoważniejsza dziura (CVE-2020-5959) spowodowana jest nieprawidłową weryfikacją danych wejściowych, co pozwala na przeprowadzenie ataku DoS. Lukę tę oceniono na 7,8 w skali CVSS. Druga z luk występująca w tym oprogramowaniu, CVE-2020-5960, została oceniona jako średnio poważna. Również ona umożliwia DoS. Poprawione wersje sterowników można pobrać na stronie Nvidii. « powrót do artykułu
  2. Firma NVIDIA zaprezentowała wczoraj procesor NVIDIA Tegra 3, rozpoczynając erę czterordzeniowych urządzeń przenośnych o wydajności porównywalnej z komputerami PC, cechujących się dłuższym czasem pracy na baterii i większą wygodą użytkowania. Pierwszym tabletem na świecie z czterordzeniowym procesorem Tegra 3 jest Eee Pad Transformer Prime firmy ASUS. Procesor Tegra 3, znany wcześniej pod nazwą kodową „Projekt Kal-El," osiąga trzykrotnie wyższą wydajność od procesora Tegra 2, a także cechuje się mniejszym nawet o 61 procent poborem energii. Dzięki temu urządzenia oparte na tym procesorze są w stanie odtwarzać materiały wideo w wysokiej rozdzielczości (HD) przez 12 godzin na jednym ładowaniu akumulatora. W procesorze Tegra 3 zaimplementowano nową, opatentowaną technologię zmiennego, symetrycznego przetwarzania wielowątkowego (ang. vSMP - Variable Symmetric Multiprocessing). vSMP zakłada wykorzystanie piątego „towarzyszącego" procesora, który został zaprojektowany do zadań niewymagających znacznej mocy obliczeniowej i cechuje się niewielkim poborem energii. Cztery główne rdzenie zostały specjalnie zaprojektowane do pracy z zadaniami wymagającymi wysokiej wydajności i na ogół pobierają mniej energii od procesorów dwurdzeniowych. Podczas wykonywania zadań wymagających mniejszego zużycia energii, takich jak słuchanie muzyki, odtwarzanie filmów lub aktualizowanie danych w tle, procesor Tegra 3 wyłącza cztery wysokowydajne rdzenie i pracuje wyłącznie na rdzeniu towarzyszącym. I odwrotnie - podczas realizacji zadań wymagających wysokiej wydajności, takich jak przeglądanie stron internetowych, pracy wielozadaniowej i gier, procesor Tegra 3 wyłącza rdzeń towarzyszący.
  3. Nvidia prawdopodobnie o rok opóźni premierę układów wykonanych w technologii 28 oraz 22/20 nanometrów. Dwudziestoośmionanometrowy Kepler miał zadebiutować w bieżącym roku, a układ Maxwell wykonany w technologii 22 lub 20 nanometrów miał pojawić się w roku 2013. Z nieoficjalnych informacji wynika, że układy zadebiutują w roku 2012 i 2014. Przyczyną opóźnienia są problemy, jakie ma TSMC - zleceniobiorca Nvidii - z wdrażaniem kolejnych kroków technologicznych. To nie pierwsze problemy TSMC. Producent w 2009 roku miał trudności z wdrażaniem technologii 40 nanometrów, przez co opóźniły się premiery układu Ferii Nvidii oraz 40-nanometrowych procesorów AMD. Początkowo firma TSMC przewidywała, że w roku 2011 wdroży w jednej ze swoich fabryk technologię 28 nanometrów, a w roku 2012 rozpocznie pilotażową komercyjną produkcję układów 20-nanometrowych.
  4. NVIDIA informuje, że Moskiewski Uniwersytet Państwowy rozbuduje swój superkomputer Łomonosow o 1554 układy GPU Tesla X2070. Dzięki temu maksymalna wydajność Łomonosowa ma osiągnąć 1,3 petaflopsa. Tym samym rosyjski superkomputer mógłby trafić do pierwszej dziesiątki najpotężniejszych maszyn na świecie. „Rozbudowany system łączy w sobie 1554 układy NVIDIA Tesla X2070 z identyczną liczbą czterordzeniowych CPU, dzięki czemu jego maksymalna moc obliczeniowawyniesie 1,3 petaflopsa, co uczyni go numerem 1 w Rosji i jednym z najszybszych systemów na świecie. System używany jest do badań wymagających intensywnych obliczeń, takich jak zmiany klimatyczne, modelowanie oceanów, formowanie się galaktyk" - czytamy w oświadczeniu NVIDII.
  5. Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo. Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli. Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać. Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie. Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach. Kal-El ma pojawić się na rynku jeszcze w bieżącym roku. http://www.youtube.com/watch?v=eBvaDtshLY8
  6. Nvidia zaprezentowała swój pierwszy GPU z rodziny GeForce 500M przeznaczony dla graczy korzystających z notebooków. Procesor GeForce GTX 560M zapewnia rozdzielczość 1080p i jest kompatybilny z bibliotekami DirectX11 oraz korzysta z technologii Optimus. Technologia ta przedłuża czas pracy na bateriach, wyłączając i włączając w razie potrzeby procesor graficzny. Układ 560M korzysta z tej samej platformy co desktopowy GeForce GTS TXS 550 Ti. Procesor wyposażono w 192 rdzenie CUDA, pracuje z szyną pamięci do 192 bitów. Rdzenie taktowane są zegarem o częstotliwości 775 MHz, a shadery - 1550 MHz. Układ współpracuje z kośćmi pamiędi GDDR5 taktowanymi 2,5-gigahercowym zegarem. Całość jest o okoł0o 15% bardziej wydajna niż układ GTX 460M. Zaprezentowano też układ GeForce GT 520MX, który powstał z myślą o lżejszych, mniej wydajnych maszynach. Kość ta współpracuje z 64-bitową szyną pamięci, wyposażona jest w 48 rdzeni CUDA. Wykorzystuje ona pamięci DDR3 i jest taktowana 900-megahercowym zegarem. Układ GeForce GTX 560M znajdziemy w notebookach Toshiby, Alienware'a, ASUSA i MSI.
  7. Najnowsze dane firmy Jon Peddle Research pokazują, że Nvidia szybko traci rynek układów graficznych. Zyskują za to AMD i Intel. JPR liczy łącznie rynek samodzielnych GPU i wbudowanych rdzeni graficznych. Z danych firmy dowiadujemy się, że w pierwszym kwartale 2011 roku do Intela należało 54,4% rynku, AMD było w posiadaniu 24,8%, a udziały Nvidii spadły do 20%. Jeszcze rok wcześniej Nvidia dostarczała na rynek 28,0% układów graficznych, Intel zapewniał 49,6%, a AMD - 21,5%. Jon Peddle Research informuje, że w pierwszym kwartale bieżącego rynek układów zwiększył się o 10,3% w porównaniu z ostatnim kwartałem 2010. Co prawda Intel zanotował największy wzrost udziałów w punktach procentowych, jednak największe sukcesy od stycznia do marca święciło AMD. W porównaniu z sytuacją sprzed roku firma zwiększyła swoje udziały aż o 15,4%. W tym czasie Intel zanotował 9,7-procentowy wzrost udziałów, a Nvidia doświadczyła spadku aż o 28,4%.
  8. Ledwie Qulacomm zapowiedział czterordzeniowe układy Snapdragon, a już doczekał się konkretnej odpowiedzi ze strony konkurencji. Nvidia pokazała układ Tegra 3, czyli czterordzeniowy system-on-chip, który wkrótce ma trafić do urządzeń mobilnych. Kość o nazwie kodowej Kal-El trafi na rynek szybciej niż zapowiadany Snapdragon. Podczas zorganizowanego na World Mobile Congress pokazu mogliśmy się przekonać, że w teście Coremark 1.0 Tegra 3 osiąga dwukrotnie więcej punktów niż dwurdzeniowa Tegra 2. Co ciekawe, układ jest nawet bardziej wydajny od procesora Core 2 Duo T7200. Oczywiście to dość stary CPU, jednak osiągnięcia Tegry zadziwiają. Dzięki tak mocnemu układowi za parę miesięcy do rąk użytkowników trafią tablety czy smartfony o mocy dorównującej laptopom sprzed kilku lat. Tegra 3 radzi sobie z jednoczesną obsługą streamingu obrazu o rozdzielczości 2560x1440 na tablet i na 30-calowy monitor. Pokazano też, że umożliwia rozgrywkę w Great Battles Medieval w rozdzielczości 720p. Jest to możliwe dzięki zastosowaniu w układzie 12-rdzeniowego procesora graficznego. Nvidia zapewnia, że Tegra 3 jest bardzo energooszczędna. Ma pozwolić na 12-godzinne oglądanie wideo w rozdzielczości HD bez konieczności doładowywania baterii.
  9. Intel w ciągu najbliższych pięciu lat zapłaci Nvidii 1,5 miliarda dolarów w ramach umowy o wymianie licencji na patenty. Ugoda kończy kilkunastomiesięczny spór pomiędzy firmami. Przewiduje ona, że w zamian Intel ma prawo do korzystania z patentów należących do Nvidii, a Nvidia otrzyma licencję na niektóre patenty Intela. Umowa nie obejmuje licencji na procesory x86, pamięci flash i niektóre chipsety Intela. Przedstawiciele obu firm wyrazili opinię, że umowa pozwala im swobodnie się rozwijać i skupić na najważniejszych dla nich produktach. Podobnego zdania jest analityk Paul McWilliams, który uważa, że porozumienie jest korzystne dla obu stron. W 2009 roku doszło do sporu sądowego pomiędzy Intelem i Nvidią. Obie firmy nie mogły uzgodnić, czy istniejące wówczas umowy Intela i Nvidii pozwalają tej drugiej firmie na produkcję chipsetów dla intelowskiej architektury Nehalem. Dotychczas współpracujące przedsiębiorstwa są coraz częściej postrzegani jako konkurenci. Wraz z ewolucją CPU w kierunku układów ze zintegrowanym rdzeniem graficznym rynek rdzeni graficznych wbudowywanych w chipset zaczyna zanikać. W związku z tym Nvidia zdecydowała, że nie będzie więcej produkowała rdzeni dla architektury x86. Jednocześnie firma coraz śmielej wchodzi na rynek procesorów. Najpierw zaprezentowała układ typu SoC (system-on-chip) Tegra, a obecnie otwarcie mówi o chęci produkowania wysoko wydajnych procesorów ARM dla pecetów i serwerów. Intel pozostaje zaś największym na świecie producentem wbudowanych rdzeni graficznych i można przypuszczać, że jego udziały na tym rynku będą rosły. Intel i Nvidia coraz wyraźniej stają się więc rywalami, a rynek przechodzi poważne zmiany, o czym świadczy też prezentacja Windows na platformę ARM. Warto przypomnieć, że jednym z procesorów, wykorzystanych podczas prezentacji, był właśnie układ Nvidii. Wspomniana na początku umowa pomiędzy Intelem i Nvidią pozwoli zatem uniknąć w przyszłości wielu sporów sądowych o ewentualne naruszenie własności intelektualnej.
  10. Nvidia kupi licencję na architekturę ARM i wykorzysta ją do budowy nowego układu o nazwie kodowej Project Denver. Kość ma trafić na rynki HPC (high-performance computing), serwerów i desktopów. Denver będzie połączeniem ARM i GPU Nvidii. Jak twierdzi główny naukowiec firmy, Bill Dally, nowy układ znacząco zwiększy pole zastosowań dla architektury ARM, gdyż umożliwi jej wykonywanie większej liczby instrukcji. Denver powinien być również, właśnie dzięki szerszemu zestawowi instrukcji, bardziej energooszczędny niż x86. To jednak nie koniec planów Nvidii. Koncern chce też zakupić licencję na architekturę procesora Cortex-A15 i wykorzystają ją do budowy przyszłej generacji układów Tegra. Ich obecna edycja - Tegra 2 - korzysta z architektury Cortex-A9. Nvidia podejmie zatem kolejną próbę wykorzystania ARM w serwerach. W listopadzie firma Marvell ogłosiła powstanie czterordzeniowego procesora Armada XP przeznaczonego właśnie dla serwerów. Przedstawiciele ARM-a wyrazili zadowolenie z decyzji Nvidii. Zauważyli jednak, że wyprodukowanie układu serwerowego nie jest prostą sprawą. Jeśli pomyślicie o wszystkich istniejących architekturach serwerowych, jeśli pomyślicie o złożoności serwerów, ich oprogramowania i sprzętu, to uświadomicie sobie, że nie wystarczy po prostu wyjąć układ z telefonu komórkowego i wsadzić go w serwer - to znacznie bardziej skomplikowane - powiedział Ian Drew, prezes ARM-a ds. marketingu.
  11. Podczas konferencji Supercomputing 2010 główny inżynier Nvidii, Bill Dally, zaprezentował projekt układu graficznego, który będzie napędzał eksaflopsowe komputery. System Echelon, który na razie istnieje tylko na papierze, będzie charakteryzował się wydajnością rzędu 10 teraflopsów. Wykona on pojedynczą operację zmiennoprzecinkową zużywając do tego celu zaledwie 10 pikodżuli, czyli 20-krotnie mniej niż obecne układy Fermi. Echelon składa się ze 128 procesorów strumieniowych, z których każdy zbudowany jest z 8 rdzeni. W efekcie otrzymamy 1024-rdzeniowy procesor, którego każdy rdzeń jest w stanie wykonać w jednym takcie zegara cztery operacje zmiennoprzecinkowe o podwójnej precyzji. Odpowiada to wydajności 10 teraflopsów. Echelon będzie zatem korzystał z dwukrotnie większej liczby rdzeni niż obecne najbardziej wydajne GPU Nvidii, z których każdy wykona czterokrotnie więcej operacji w takcie zegara. Poważne zmiany zajdą też w podsystemie pamięci. Echelon będzie miał do dyspozycji 256 megabajtów dynamicznie konfigurowalnej SRAM. Pamięć będzie można podzielić aż na sześć różnych poziomów, przydzielając każdemu z rdzeni własną przestrzeń. Dzięki takiej konfiguracji dane będą znajdowały się możliwe blisko miejsca przetwarzania, co pozwoli zaoszczędzić olbrzymią ilość energii zużywanej obecnie na ich przesyłanie. Ponadto chip zostanie wyposażony w mechanizm rozgłaszania, dzięki któremu wyniki poszczególnych działań będą mogły zostać udostępnione dowolnemu węzłowi, który będzie ich potrzebował. Struktura pamięci podręcznej układu będzie spójna pod względem logicznym ze strukturą CPU, co ułatwi tworzenie oprogramowania dla Echelona. Nvidia pracuje nad Echelonem w ramach finansowanego przez DARPA projektu Ubiquitous High Performance Computing. Firma rywalizuje tutaj z Intelem, MIT-em i Sandia National Laboratory. DARPA postawiła przed uczestnikami programu zadanie zbudowania do 2014 roku prototypowego petaflopsowego systemu, który ma zużywać nie więcej niż 57 kilowatów mocy. Taki system ma stać się podstawą do zbudowania do 2018 roku eksaflopsowego superkomputera.
  12. W drugim kwartale bieżącego roku AMD dostarczyło na rynek więcej procesorów graficznych niż Nvidia. Pomiędzy kwietniem a czerwcem do AMD należało 51% rynku GPU, do Nvidii - 49%. Jeszcze rok wcześniej AMD mogło pochwalić się jedynie 41-procentowym udziałem. Do tak znacznego wzrostu niewątpliwie przyczynił się fakt, że AMD jako pierwsze rozpoczęło sprzedaż kart obsługujących technologię DirectX 11, rozpowszechnianą wraz z systemem Windows 7. Z kolei Nvidia nie była w stanie dostarczyć odpowiedniej liczby kart GTX 470 i GTX 480, a ostatnia przegrana przed sądem z firmą Rambus spowodowała, że Apple nie wykorzystuje GPU Nvidii w swoich najnowszych komputerach. Z danych Mercury Research wynika też, że największym graczem na rynku układów graficznych pozostaje Intel, który może pochwalić się udziałami rzędu 54,3%. AMD ma 24,5% rynku, a Nvidia - 19,8%.
  13. Uczeni z Uniwersytetu Kalifornijskiego w San Diego (UCSD) pokazali, w jaki sposób można co najmniej 10-krotnie zmniejszyć dawkę promieniowania, na które wystawieni są pacjenci przechodzący terapię IGRT (image-guided radiation therapy). Zasadniczym elementem decydującym o powodzeniu terapii są wielokrotnie powtarzane skany za pomocą spiralnej tomografii komputerowej. Ich liczba orazdawka otrzymywanego promieniowania mogą budzić obawy o zdrowie pacjentów. Oczywiście możliwe jest zmniejszenie intensywności promieniowania czy czasu ekspozycji,jednak wówczas otrzymuje się tak niedoskonały obraz, że jego przetwarzanie do użytecznej postaci trwa całe godziny. To z kolei jest nie do przyjęcia, gdyż pacjent musiałby niezwykle długo leżeć w tomografie. Xun Jia i jego zespół z UCSD opracowali nowy algorytm dla procesorów graficznych (GPU), dzięki któremu pełny skan można wykonać w ciągu około dwóch minut. Dzięki ich pracy już od 20 do 40 naświetleń o intensywności 0,1 mAs każde zapewnia obraz nadający się w IGRT. Dzięki użyciu karty Nvidia Tesla C1060 czas potrzebny na przetworzenie obrazu wyniósł, w zależności od liczby naświetleń, od 77 do 130 sekund. To około 100-krotnie szybciej niż w wypadku innych podobnych technik. Co więcej, dawka promieniowania przyjęta przez pacjenta zmniejszyła się od 36 do 72 razy. Obecnie bowiem wykonuje się około 360 naświetleń, a każde z nich oznacza dawkę 0,4 mAs.
  14. Przyzwyczailiśmy się już do tego, że ogólnopolska Noc Naukowców odbywa się jesienią. Tymczasem mieszkańcy Warszawy od lat mogą uczestniczyć także w wielkim Pikniku Naukowym. Ostatnia taka impreza miała miejsce w ubiegłą sobotę. W ponad stu namiotach różne instytucje, szkoły i ośrodki naukowe kusiły zwiedzających różnorodnymi atrakcjami, eksperymentami i pokazami. Organizatorzy, czyli Polskie Radio i Centrum Nauki Kopernik zadbali, aby nikt się nie nudził. Królowały nauki ścisłe i przyrodnicze, a naukowcy tego dnia wyszli z laboratoriów i opowiadali o swej pracy i marzeniach. Były też konkursy, stoiska z jedzeniem, gotowanie na żywo i występy zaproszonych artystów. Wśród najciekawszych wydarzeń warto odnotować pokaz firm Vobis i Nvidia, które na stoisku magazynu Focus zaprezentowały wykorzystanie najnowszych technologii 3D w rozrywce elektronicznej. Zwiedzający chętnie korzystali z udostępnionego symulatora bolidu F1 zbudowanego w oparciu o komputer Vobis 3D Vision, który pozwalał na realistyczną jazdę na trasie Need for Speed: Shift. Uczeni przybliżyli też budowę Wielkiego Zderzacza Hadronów, ekolodzy mówili, jak chronić przyrodę, a policja pokazała dzieciom najnowsze techniki kryminalistyczne. Zapraszamy do obejrzenia galerii zdjęć z Pikniku.
  15. Intel obiecuje, że już wkrótce firmowe rdzenie graficzne pozwolą na skorzystanie z większości gier. Intel HD Graphics, czyli rdzenie, które pojawią się wraz z procesorami z rodziny Westmere, mają być na tyle wydajne, że większość graczy nie będzie potrzebowała osobnych procesorów graficznych. Intel przedstawił zainteresowanie grami w formie piramidy. U jej podstawy znalazły się takie tytuły jak Club Penguin, Tiger Woods Online czy Farmville. To najszybciej rosnący segment gier, skierowanych do osób, które oddają się elektronicznej rozrywce od przypadku do przypadku. W środkowej części piramidy znalazły się tytuły mainstreamowe, takie jak FIFA 2010, World of Warcraft, The Sims 3 czy Battlefield Heroes. Rdzenie z rodziny Intel HD Graphic mają obsłużyć obie kategorie gier. Poza ich zasięgiem znajdą się najbardziej zaawansowane tytuły, takie jak Resident Evil. Intel jest największym na świecie producentem rdzeni graficznych. Jeśli spełni swe obietnice i HD Graphics okażą się wystarczającą propozycją dla większości graczy, ATI i Nvidia będą miały trudny orzech do zgryzienia. Obu firmom może pozostać najwęższy i najbardziej wymagający segment rynku, o który już teraz toczą ostrą walkę.
  16. Intelowski GPGPU (procesor graficzny ogólnego przeznaczenia) Larrabee został zaprezentowany podczas konferencji SC09. Tam zyskał uwagę, której nie udało mu się przyciągnąć wcześniej. Justin Rattner, prezes ds. technologicznych, zaprezentował testy wydajności układu. Test SGEMM został najpierw uruchomiony na połowie rdzeni procesora, który w ten sposób osiągnął wydajność 417 gigaflopsów. Po włączeniu pozostałych rdzeni wydajność wzrosła do 825 GFlops, dzięki czemu Intel udowodnił, że układ można skalować 1:1. Po tym, jak Rattner lekko podkręcił procesor, jego wydajność sięgnęła 1 teraflopsa. Dla porównania kość Core i7-975, czyli najbardziej wydajny procesor z rdzeniem Nehalem, osiąga maksymalną wydajność rzędu 55,36 GFlops. Wynik Larrabee tylko pozornie jest imponujący. Jak zauważa Jon Peddie z firmy Jon Peddie Research, na rynku jest dostępna karta graficzna ATI, której wydajność wynosi 5 TFlops. Jeśli zatem Intel chce w przyszłym roku rozpocząć sprzedaż Larrabee, to układ o wydajności 1 teraflopsa z pewnością nie zawojuje rynku wysoko wydajnych chipów. Przyznał jednocześnie, że 1 teraflops to dobry punkt wyjścia i w połączeniu z odpowiednią polityką cenową oraz dalszymi pracami nad rozwojem Larrabee Intel może odebrać nieco rynku ATI i Nvidii.
  17. Asustek zaprezentował biurkowy superkomputer ESC1000. Urządzenie powstało we współpracy z Nvidią i tajwańskim Narodowym Uniwersytetem Chiao Tung. Zostało ono stworzone z myślą o zastosowaniu przez organizacje rządowe, naukowe i badawcze. ESC1000 korzysta z procesora graficznego Tesla oraz technologii CUDA i zapewnia wydajność do 1,1 teraflopsa. To olbrzymia moc, zważywszy, że na ostatnim miejscu listy 500 najpotężniejszych superkomputerów znajduje się maszyna o wydajności 17,09 TFlops. Za ESC1000 trzeba będzie zapłacić co najmniej 14 778 dolarów. Najbardziej wydajna wersja komputera będzie kosztowała niemal 21 000 USD.
  18. Już ponad 20 000 użytkowników dołączyło do exo.repository, publicznie dostępnej bazy danych, która na bieżąco anonimowo śledzi konfigurację i wydajność podłączonych do niej komputerów i serwerów z systemami Windows. To część projektu Windows Pulse, który dzięki zestawowi specjalistycznych narzędzi daje w czasie rzeczywistym wgląd w statystyki dotyczące sposobu wykorzystywania komputerów. Windows Pulse i exo.repository są dziełem firmy Devil Mountain Software. Exo.repository to najbardziej wszechstronna na świecie baza danych, która w czasie rzeczywistym przekazuje informacje na temat systemu i aplikacji - twierdzi Randall Kennedy, szef Devil Mountain Software. Z badania ponad 20 000 dołączonych maszyn możemy dowiedzieć się na przykład, że systemy korzystające z kilku rdzeni obliczeniowych są bardziej popularne (mają ok. 50% rynku) od jednordzeniowych (ok. 40%). Pozostałe 10% rynku należy do systemów czterordzeniowych. Wśród procesorów zdecydowanie dominują produkty Intela (ok. 75%), podobnie zresztą jak na rynku kart graficznych (ok. 50%). Reszta GPU należy do ATI (ok. 28%) i Nvidii (ok. 22%). Na ponad 30% komputerów zainstalowano od 2 do 3 gigabajtów RAM. Powyżej 20% korzysta z 1-2 GB, a mniej niż 10% z ponad 4 GB. Najwięcej pamięci RAM jest zainstalowanych w komputerach z systemem Windows 7. Następna w kolejności jest Vista, a po niej Windows XP. Nie powinno to dziwić, gdyż przeważnie nowsze wersje OS-u instalowane są na nowszym, a więc lepiej wyposażonym, sprzęcie. Ciekawych informacji dostarcza badanie uruchamianego oprogramowanie. W pakiecie MS Office najczęściej używanym programem jest Word, następnie Excel i Outlook. Z kolei najpopularniejszym odtwarzaczem multimediów jest Windows Media Player. Za nim uplasowały się iTunes, VLC i Winamp. Wśród przeglądarek najpopularniejszy jest oczywiście Internet Explorer, który używany przez 80% użytkowników. Za nim, z niemal 50-procentowym udziałem uplasował się Firefox, a następnie Chrome (ok. 20%). Microsoft ma za to poważnego konkurenta na rynku komunikatorów. Na 15% systemów zainstalowano Skype'a, który lekko wyprzedził microsoftowego Messengera. Warto też rzucić okiem na rozkład popularności pakietów biurowych. Ponad 30% osób używa MS Office 2007, nieco ponad 20% korzysta z wersji MS Office 2003, a kilkanaście procent pracuje na Open Office. Wśród systemów operacyjnych najpopularniejszy jest XP (nieco ponad 60%), później Vista (ok. 30%), a na końcu, z kilkuprocentowym udziałem - Windows 7. Statystyki można śledzić na witrynie xpnet.com.
  19. Nvidia zaprezentowała nową architekturę procesorów graficznych. Fermi ma być nie tylko następcą obecnie wykorzystywanej architektury G80. To także pierwszy procesor graficzny ogólnego przeznaczenia. Jen-Hsun Huang podczas wstępnej prezentacji nowej architektury przedstawił ją jako architekturę GPU, jednak Fermi to coś więcej niż procesor graficzny. Dlatego też Nvidia pozycjonuje go bardzo ostrożnie, wskazując na jego przydatność we współpracy z CUDA. Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy tranzystorów. Firma zapewnia, że udało się jej ośmiokrotnie zwiększyć szybkość wykonywania operacji zmiennoprzecinkowych podwójnej precyzji. Kość składa się z 16 multiprocesorów strumieniowych (SM), na które przypadają po 32 rdzenie. Każdy z nich ma do dyspozycji 64 kilobajty przestrzeni pamięci L1, którą można skonfigurować albo jako 48 kB pamięci współdzielonej + 16 kB cache L1 lub też 16 kB współdzielone + 48 kB L1. Na każdy SM przypada również 768 kilobajtów współdzielonej pamięci L2. Nvidia zastosowała też zunifikowaną przestrzeń adresową, dzięki czemu Fermi w pełni wspiera oprogramowanie napisane nie tylko w C, ale również w C++. Usprawnieniu operacji i lepszemu wykorzystaniu C i C++ służy też zaimplementowanie technologii Nvidia Parallel DataCache, dzięki której oba rodzaje pamięci cache obsługują wszystkie przeprowadzane operacje, które są dokonywane w ściśle określonym porządku. Dzięki wykorzystaniu pamięci L1 do przechowywania danych rejestru (wcześniej były one przechowywane bezpośrednio w pamięci RAM) uzyskano znaczne skrócenie czasu dostępu do danych. Natomiast współdzielona pamięć L2 umożliwia błyskawiczną wymianę danych pomiędzy poszczególnymi SM. Fermi to pierwszy układ graficzny, w którym zaimplementowano obsługę ECC (Error Correcting Code), chroniącą dane przed błędami powodowanymi przez wpływ promieniowania kosmicznego. Jedną z ważnych technologii wykorzystanych w Fermim jest Nvidia GigaThread Engine. Pozwala on na jednoczesne wykonywanie różnych obliczeń w kontekście tej samej aplikacji. Dzięki temu programy wykorzystujące liczne mikrojądra mają do dyspozycji całą dostępną moc obliczeniową. W przypadku tradycyjnego, sekwencyjnego przetwarzania mikrojąder, wykorzystuje się tylko część dostępnej mocy. Fermi współpracuje z 384-bitowymi kośćmi GDDR5 i jest w stanie obsłużyć do terabajta pamięci. Obsługuje technologie DirectX 11, OpenGL 3.2 oraz OpenCL. Przy okazji prezentacji architektury Fermi poinformowano, że Nvidia i Microsoft stworzyły środowisko programistyczne Nexus. Zostało ono opracowane na potrzeby masowych obliczeń równoległych i jest zintegrowane z Microsoft Visual Studio. Nexus będzie, oczywiście, korzystał z możliwości Fermiego. Producent Fermiego podkreśla jego przydatność w obliczeniach naukowych i związek z CUDA, jednak z drugiej strony porównuje go do G80. Fermi może więc być układem wykorzystywanym zarówno superkomputerach jak i pecetach miłośników gier komputerowych.
  20. Plotki o ewentualnym zainteresowaniu Nvidii rynkiem procesorów x86 pojawiają się od pewnego czasu, ale tym razem doczekały się oficjalnego potwierdzenia. Podczas Morgan Stanley Technology Conference wiceprezes Nvidii, Michael Hara, został zapytany o to, czy jego firma ma zamiar zadebiutować na rynku CPU. Hara stwierdził: pytanie nie brzmi 'czy', ale 'kiedy'. Jednocześnie powiedział że CPU produkcji Nvidii nie byłby układem nadającym się do wszystkich zastosowań. Może to być kość przeznaczona do niewielkich platform SoC (system-on-chip). Firma chciałaby zatem mieć ofertę na rynek niewielkich przenośnych urządzeń i nie ma zamiaru rywalizować o rynek wydajnych pecetów. Wiceprezes Nvidii dodał, że firmowy procesor x86 może pojawić się w ciągu 2-3 lat. Teraz nie jest dobry moment na jego debiut, gdyż na rynku zagościł niedawno intelowski Atom i platforma Ion Nvidii. Warto wspomnieć, że Nvidia produkuje już CPU. To platforma Tegra ze zintegrowanym rdzeniem ARM. Jeśli Nvidia ma zamiar wyprodukować CPU x86 będzie musiała kupić licencję od Intela.
  21. Z odbywających się właśnie targów CeBIT 09 nadchodzą informacje o nowych produktach AMD, Intela i Nvidii. AMD ogłosiło powstanie pierwszych procesorów graficznych wykonanych w technologii 40 nanometrów. To układy ATI Mobility Radeon HD 4860 i 4830. Układy wyposażono w silnik 3D z desktopowego Radeona HD 4800, obsługują DirectX 10.1, panoramiczny obraz w rozdzielczości HD oraz zaawansowane technologie oszczędności energii. Układ ATI Mobility Radeon HD 4860 współpracuje z pamięciami GDDR5. Obie kości wkrótce znajdą się w notebookach Asusa. Z kolei Intel zapowiedział kilka nowych wersji procesora Atom. Układy taktowane będą zegarami od 1,1 do 1,6 GHz, mają współpracować z 400- i 533-megahercowymi magistralami systemowymi i zostaną wyposażone w 512 kilobajtów pamięci L2. Ich pobór mocy wyrażony emisją cieplną (TDP) wyniesie 2,2 wata. Część z tych procesorów, zdolnych do pracy w temperaturach od 0 do +70 stopni Celsjusza trafi na rynek konsumencki, a dwa modele są przeznaczone do zastosowań przemysłowych. Zakres ich pracy wynosi od -40 do +85 stopni Celsjusza. Natomiast w ofercie Nvidii znajdziemy bardzo wydajne procesory graficzne dla komputerów przenośnych. Jest wśród nich najszybsze urządzenie tego typu, GPU GeForce GTX 280M. Układ ten został wyposażony w 128 jednostek cieniujących, jego wydajność to 562 gigaflopsy, a zegar procesora pracuje z częstotliwością 1463 MHz. Pamięć taktowana jest zegarem do 950 MHz. Współczynnik texture fill rate wynosi 38 gigatekseli na sekundę. Kość współpracuje z gigabajtem 256-bitowej pamięci GDDR3. Inne zaprezentowane przez Nvidię kości to GeForce GTX 260M (112 jednostek cieniujących, wydajność 462 gigaflopsy, zegar procesora 1375 MHz, fillrate 31 gigatekseli), GeForce GTS 160M i GTS 150M.
  22. Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops. Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops. Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows. W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów). Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495. Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce. Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową. W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD. Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell. Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej. Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows. Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.
  23. Nvidia, wraz ze swoimi partnerami, wśród których znaleźli się m.in. Dell i Lenovo, zapowiedziała dzisiaj początek superkomputerowej rewolucji. Ma być ona możliwa dzięki maszynie Tesla Personal Supercomputer, która wykorzystuje GPGPU (General Purpose Graphic Processing Unit - procesor graficzny ogólnego przeznaczenia) Tesla oraz architekturę CUDA. Tesla Personal Supercomputer to nic innego jak superkomputer w obudowie zwykłego peceta. Po raz pierwszy CUDA i układ Tesla zostały zaprezentowane w ubiegłym roku. Przypomnijmy, że pomysł Nvidii polega na wykorzystaniu procesora graficznego do równoległego przetwarzania innych danych niż informacje dotyczące wyświetlania grafiki. Dzięki temu, że nowoczesne graficzne są zwykle bardziej wydajne niż CPU, możemy uzyskać dodatkowy przyrost mocy. Z kolei CUDA (Compute Unified Device Architecture) to zestaw narzędzi, który umożliwia developerom tworzenie w języku C aplikacji dla Tesli i nie tylko dla niej, gdyż w niezbędne komponenty CUDA zostały wyposażone także sterowniki dla nowych procesorów z serii GeForce oraz Quadro. Technologią CUDA zainteresował się przede wszystkim świat naukowy. Nic dziwnego, gdyż to właśnie na uniwersytetach i w instytucjach badawczych najbardziej przydaje się wysoko wydajne przetwarzanie wielowątkowe. Już teraz wiadomo, że w porównaniu z komputerem wyposażonym tylko w procesor x86 maszyna dodatkowo wykorzystująca technologię CUDA charakteryzuje się od 18- (kodowanie wideo) do nawet 149-krotnie (symulacje finansowe) zwiększoną wydajnością. Na University of Utah komputer z CUDA zapewnia 146-krotnie szybszą pracę przy obrazuwaniu medycznym, a uczeni z University of Maryland 30-krotnie szybciej dokonują sekwencjonowania genomu. O zainteresowaniu technologią Nvidii świadczy też fakt, iż kursy programowania dla CUDA są prowadzone na ponad 50 uczelniach wyższych, a na całym świecie już 25 000 programistów pracuje z tą technologią. Wraz z wydajnością idzie oszczędność energii. Serwer Tesla S1070, z którego korzystają m.in. firmy Chevron, Petrobras, Motorola czy Kodak i takie uczelnie jak uniwersytet w Heidelbergu, University of Maryland, Rice University czy Chińska Akademia Nauk, zapewnia 18-krotnie większą wydajność na wat niż serwer z procesorami x86. Nvidia wraz z partnerami postanowili jednak pójść dalej. Ogłosili powstanie gotowego biurkowego superkomputera Tesla Personal Supercomputer. Jego maksymalna wydajność może wynieść do 4 teraflopsów, zapewnianych dzięki 960 rdzeniom i 4 procesorom (prawdopodobnie Tesla C1060). Komputer pracuje ze standardowymi edycjami Windows i Linux (w przyszłości także Mac OS X), a jego cena wyniesie mniej niż 10 000 dolarów. Innymi słowy, jak zapewnia Nvidia, każdy z zainteresowanych naukowców może nabyć maszynę o 250 razy bardziej wydajną niż pecet i 100 razy tańszą niż wysoko wydajny klaster. Za stosunkowo niewielką cenę zyska peceta o wydajności superkomputera. Z przeprowadzonych przez Nvidię testów wynika, że Tesla Personal Supercomputer znacząco przyspiesza wykonywanie zadań typowych dla przemysłu i nauki. I tak na przykład czas wykonania przeciętnego zadania z zakresu chemii skraca się z 4,6 dnia do 27 minut, modelowanie w neurologii trwa nie 2,7 doby, a pół godziny. Z kolei trójwymiarowa ultradźwiękowa tomografia komputerowa zajmie 16 minut zamiast dotychczasowych 3 godzin. Jak już wspomniano, Nvidia i partnerzy kierują swoją ofertę do naukowców i inżynierów, których liczbę oceniają na 15 milionów na całym świecie. Oczywiście pojawienie się Tesla Personal Supercomputer nie oznacza, że na tym kończą się możliwości architektury CUDA. Można ją dalej skalować tworząc standardowy klaster obliczeniowy, który będzie 5000 razy bardziej wydajny od zwykłego peceta, a jego cena zamknie się w granicach od 100 000 do miliona dolarów. Niewykluczone zatem, że już wkrótce na listę 500 najpotężniejszych superkomputerów na świecie trafią pierwsze maszyny z architekturą CUDA.
  24. Kancelaria prawnicza Shalov Stone Bonner & Rocco oskarżyła Nvidię o defraudację na giełdzie papierów wartościowych i wystąpiła z pozwem zbiorowym. Producent procesorów graficznych oskarżany jest o udzielanie fałszywych informacji i ukrywanie prawdy o swoich GPU. Do pozwu mogą dołączyć wszyscy, którzy pomiędzy 8 listopada 2007 roku a 2 lipca 2008 kupili akcje Nvidii. W tym czasie, jak twierdzi Bonner & Rocco firma opublikowała całą serię informacji i oświadczeń, w których nie wspomniano o licznych błędach w firmowych GPU i chipsetach. Gdy w końcu 2 lipca bieżącego roku zdecydowano się ujawnić prawdę, cena akcji Nvidii spadła, a jej rynkowa kapitalizacja zmniejszyła się aż o 3 miliardy dolarów. Powód twierdzi, powołując się na słowa Michaela Hary, wiceprezesa ds. relacji z inwestorami Nvidii, że o problemach wiedziano już w sierpniu 2007 roku. Na początku października ubiegłego roku akcje Nvidii były warte około 37 dolarów. Obecnie można je kupić za mniej niż 11 USD.
  25. Ageia Technologies, firma, która stworzyła dedykowany procesor fizyczny (PPU), poinformowała, że została kupiona przez Nvidię, największego na świecie producenta układów graficznych. Nvidia będzie mogła wykorzystać technologię Agei w swoich GeForce’ach. Transakcja jest prawdopodobnie odpowiedzią na zakupienie przez Intela firmy Havok, która jest autorem technologii pozwalającej na przetwarzanie zjawisk fizycznych przez procesor graficzny. W efekcie tej transakcji porzucone zostały prace nad Havok FX, oprogramowaniem pośredniczącym (middleware), które pozwalałoby tradycyjnym GPU przetwarzać fizykę. Dla Intela zakup ten był dość ważny. Firma nie produkuje bowiem samodzielnych układów graficznych. Oferuje tylko rdzenie graficzne wbudowane w chipset. Zakup Havoka z jednej strony oddalił groźbę, że firma ta będzie współpracowała z Nvidią, a z drugiej, pozwoli Intelowi zaoferować rdzenie graficzne, które będą lepiej radziły sobie z grami. Po zakupieniu Agei przez Nvidię również można się spodziewać, że wstrzymaniu ulegną prace nad procesorem PhysX, które prowadziła Ageia.
×
×
  • Dodaj nową pozycję...