Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'procesor' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 143 wyników

  1. Firma Tilera poinformowała o stworzeniu nowej rodziny procesorów o nazwie TILE-Gx. W jej skład wchodzi pierwszy w historii 100-rdzeniowy CPU. Rodzina TILE-Gx składa się z układów o 16, 32, 64 i właśnie 100 rdzeniach. Wykorzystanie technologii połączeń iMesh eliminuje konieczność stosowania szyny, a mechanizm Dynamic Distributed Cache pozwala każdemu rdzeniowi na dzielnie swojej pamięci cache z wszystkimi innymi. Układy z rodziny TILE-Gx wykonane są w technologii 40 nanometrów i pracują z zegarem o częstotliwości do 1,5 GHz. Ich pobór mocy waha się od 10 do 55 watów. Procesory korzystają z rozszerzonego zestawu instrukcji SIMD i zintegrowanych kontrolerów DDR3, które mogą obsłużyć do 1 terabajta pamięci. Procesor jest w stanie kodować dane z prędkością 40 Gbps i dokonywać pełnej kompresji z szybkością 20 Gbps. Układy TILE-Gx mogą służyć jako koprocesory współpracujące z kośćmi x86 lub też jako procesory dla serwerów i urządzeń sieciowych. Jeszcze przed końcem bieżącego roku zainteresowane firmy otrzymają próbki procesorów.
  2. Ze slajdów, które niedawno wypłynęły do Sieci, dowiadujemy się, jak wyglądają plany AMD na najbliższe dwa lata. Możemy więc zobaczyć, że w drugiej połowie przyszłego roku zadebiutuje platforma Leo i jej pierwszy przedstawiciel, czyli 6-rdzeniowy procesor Thuban i chipsety z serii 800. Wśród GPU dominowała będzie linia Evergreen. Nie wiadomo, czy zajdą w niej jakieś zmiany, chociaż już jakiś czas temu pojawiły się plotki, że w 2010 roku AMD pokaże drugą generację Evergreen. Jedną z najważniejszych informacji jest pojawienie się na slajdach kolejnej rodziny procesorów graficznych. Układy o nazwie kodowej Northern Islands będą produkowane w technologii 32 nanometrów. Mają one zadebiutować w 2011 roku wraz z platformami Scorpius i Lynx. W ramach pierwszej z nich na rynek trafią ponad czterordzeniowe procesory Bulldozer wykonane w technologii 32 nm. Z kolei wraz z Lynx zadebiutuje nowa technologia Fusion. W jej ramach zobaczymy układy z 32-nanometrowymi rdzeniami Stars (obecnie używanymi w układach Phenom II X4) oraz zintegrowanym GPU. Nieoficjalnie mówi się, że procesor graficzny będzie oparty na technologii Evergreen. Zmiany zajdą też na rynku notebooków. W 2010 roku pojawi się platforma Danube z pierwszym w historii AMD czterordzeniowym CPU dla komputerów przenośnych. Dużą niespodzianką jest informacja o procesorach graficznych planowanych na 2010 rok. Notebookowe układy o nazwach kodowych Park, Madison i Broadway mają być tworzone w technologii 32 nm i, jak głosi plotka, będą unowocześnioną wersją 40-nanometrowych desktopowych kości Evergreen. W roku 2011 na notebooki trafi technologia Fusion i platformy Sabine i Brazos. W tym czasie pojawią się też 32-nanometrowe GPU z rodziny Northern Island.
  3. Przedstawiciele ARM poinformowali o przeprowadzeniu drugiego już w ostatnim czasie ataku na pozycja Intela. Tym razem "chodzi o atak z flanki", jak stwierdził Eric Schom, wiceprezes firmy ds. marketingu. We wrześniu na rynek trafił układ Cortex A9, który ma konkurować z Intelem o rynek netbooków. Tym razem ARM zapowiada sprzedaż procesora Cortex A5, przeznaczonego na rynek tanich urządzeń przenośnych, takich jak smartfony. Jak zapewnia Schom, Cortex A5 jest o rząd wielkości mniejszy od Atoma, co oznacza, że jest tańszy w produkcji i zużywa mniej energii. Przedstawiciel ARM twierdzi, że Intel musiałby produkować Atoma w procesie 15 nanometrów, by rozmiarami mógł się on równać z najnowszym Corteksem. Tym samym, zdaniem Schoma, Atom jest o "dekadę do tyłu". Cortex A5 może pracować w konfiguracjach od jedno- do czterordzeniowej. Jest w pełni kompatybilny z układem A9, co oznacza, że nie trzeba specjalnie przerabiać istniejących aplikacji na jego potrzeby. Układ wykorzystuje technologię bezpieczeństwa TrustZone oraz silnik multimedialny NEON ze 128-bitowym rozszerzeniem SIMD (Single Instruction, Multiple Data). Cortex A5 ma być gotowy jeszcze przed końcem bieżącego roku. Jednak zanim zobaczymy go w dostępnych w sklepach urządzeniach mogą minąć 2-3 lata.
  4. Podczas Intel Developer Forum poinformowano, że w zakładzie D1D w Oregonie powstają już pierwsze testowe układy Sandy Bridge. To przyszła generacja kości Intela. Półprzewodnikowy gigant stosuje strategię polegającą na tym, że najpierw zmniejsza proces produkcyjny o kolejny krok i tworzy w nim kości w dotychczasowej architekturze, a następnie zmienia architekturę. Tak więc obecnie najnowocześniejsza dostępna w handlu architektura Intela to Nehalem, która zadebiutowała wraz z 45-nanometrowymi układami Nehalem. Następnie koncern przeszedł na kolejny stopień procesu produkcyjnego i zaoferował 32-nanometrowe układy Nehalem o nazwie kodowej Westmere. Teraz rozpoczął produkcję testowych partii 32-nanometrowej architektury Sandy Bridge. Z kolei w roku 2011 na rynek mają trafić 22-nanometrowe układy architektury Sandy Brigde, których nazwa kodowa będzie brzmiała Ivy Bridge. Następcą Sandy Bridge ma być architektura Haswell. Podczas odbywającego się właśnie IDF prezes Intela, Paul Otellini, pokazał gotowy plaster krzemowy z 32-nanometrowymi Sandy Bridge.Zaprezentował również plaster z 22-nanometrowymi układami SRAM. Jeśli zaś chodzi o kości dostępne w handlu, to Intel skupia się na zwiększaniu produkcji bazujących na Westmere układów Clarkdale i Arrendale, które mają zadebiutować w czwartym kwartale bieżącego roku.
  5. Naukowcy z laboratorium HP połączyli memrystor z tradycyjnym układem scalonym. Udowodnili w ten sposób, że nowy komponent może współpracować ze współczesną technologią, a to oznacza, iż wkrótce układy z memrystorami mogą trafić na rynek. To bardzo dobra wiadomość dla producentów procesorów, którzy szukają sposobów na ciągłe zwiększanie wydajności tych układów. W ciągu najbliższych lat możemy dojść do granicy, poza którą nie będzie możliwe produkowanie coraz mniejszych podzespołów. Już wcześniej udowodniono, że dzięki memrystorom będzie można tworzyć mniejsze, energooszczędne układy, gdyż memrystor może zastępować tranzystory. Memrystor to rodzaj opornika z pamięcią. Potrafi on zmieniać oporność w zależności od wartości i kierunku przyłożonego napięcia i, co bardzo ważne, zapamiętuje oporność po odłączeniu zasilania. Każdy memrystor może zastąpić od 7 do 12 tranzystorów - mówi Stan Williams, jeden z twórców memrystora. Jako, że potrafi on zapamiętać ostatnią wartość, jest znacznie bardziej energooszczędny od tranzystorów, które muszą być bez przerwy odświeżane nowymi dawkami energii elektrycznej. Williams, który kieruje badaniami nad memrystorami, wraz z zespołem umieścili 10 000 memrystorów na standardowym układzie CMOS. Specjaliści mówią, że największym wyzwaniem było samo umieszczenie memrystorów na miejscu, gdyż powierzchnia układów CMOS nie jest równa, a odchylenia rzędu 1/10000 milimetra mogłyby okazać się zbyt duże. Zastosowana macierz memrystorów została zbudowana z 200 krzyżujących się przewodów, które utworzyły siatkę z 10 000 połączeń. W każdym punkcie, gdzie przewody się krzyżowały, umieszczono pomiędzy nimi warstwę dwutlenku tytanu. Dzięki temu punkty skrzyżowań stały się memrystorami. Macierz połączono miedzianymi kablami z leżącym poniżej układem scalonym. Memrystor mógł przejąć część zadań układu CMOS. W ten sposób zwiększono jego wydajność bez konieczności zwiększania liczby tranzystorów, co pociągnęłoby za sobą konieczność użycia mniejszych tranzystorów, by większa ich liczba zmieściła się na takiej samej powierzchni. Co więcej, jak zauważył Williams, użycie memrystora spowodowało, że kość została wzbogacona o właściwości układu FPGA, czyli takiego, który można na bieżąco konfigurować w zależności od potrzeb. Uczeni zauważają, że konieczne jest jeszcze zwiększenie wydajności hybryd memrystor-CMOS, jednak ich pojawienie się zapowiada zmiany w całym przemyśle półprzewodnikowym.
  6. Firma iSuppli informuje, że już drugi kwartał z rzędu AMD traci rynek. Uzyskiwane przez analityków wyniki różnią się, w zależności od tego, co jest brane pod uwagę. Zdaniem Mercury Research do AMD należy obecnie 18,7% rynku procesorów. W pierwszym kwartale koncern miał 20,9-procentowy udział. Mercury Research bierze pod uwagę liczbę sprzedanych procesorów. Tymczasem sytuacja AMD wygląda jeszcze gorzej, jeśli weźmie się pod uwagę wartość sprzedaży. Ją właśnie badało iSuppli i stwierdziło, że do AMD należy 11,5 procenta rynku. To o 1 punkt procentowy mniej, niż w pierwszym kwartale i 0,5 pp mniej niż przed rokiem. Tymczasem udziały Intela rosną. Biorąc pod uwagę wartość sprzedaży, półprzewodnikowy gigant jest w posiadaniu 80,6% rynku, czyli o 1,5 pp więcej niż kwartał wcześniej i o 1,4 pp więcej, niż przed rokiem. To najlepszy wynik Intela od trzeciego kwartału 2005, kiedy do firmy należało 82,4% rynku. AMD postanowiło jednak agresywnie powalczyć o rynek. Firma zaprezentowała właśnie pierwszy w historii czterordzeniowy procesor, którego cena jest niższa niż 100 dolarów. To Athlon II X4 620, który jest taktowany zegarem o częstotliwości 2,6 GHz. Układ korzysta z 2 megabajtów pamięci L2 i współpracuje z układami DDR2 oraz DDR3. Producenci komputerów będą mogli go kupić za 99 dolarów. Jak informuje AMD, procesor wraz z płytą MSI 758GTM będzie kosztował około 470 USD. Decyzja o zaoferowaniu procesora po tak atrakcyjnej cenie może oznaczać, że staniemy się świadkami kolejnej wojny cenowej pomiędzy Intelem a AMD.
  7. Na University of Michigan skonstruowano procesor, który do wykonywania obliczeń używa nie elektronów, ale... powietrza. Poszczególne wartości logiczne reprezentowane są przez zasysanie powietrza do tuby (0) i jego wypuszczanie (1). Procesor jest więc złożony z szeregu zaworów, tub i kanałów, którymi wędruje powietrze. Pneumatyczne zawory wykorzystują elastyczne membrany i umieszczone pod nimi komory. Gdy do komory trafia powietrze, membrana wypychana jest w górę, blokując przepływ powietrznego sygnału w bramce. Gdy powietrze zostaje wyssane, membrana się obniża i sygnał może przejść. Dzięki całemu zestawowi kanałów powietrznych kontrolowanych za pomocą zaworów Mark Burns i Minsoung Rhee stworzyli bramki logiczne, rejestry przesuwne i przerzutniki. Dzięki ich połączeniu powstał powietrzny 8-bitowy procesor. Wbrew pozorom wykorzystujący powietrze procesor to nie tylko ciekawostka. Układ może pomóc w udoskonaleniu systemów typu "laboratorium w układzie scalonym", które są coraz szerzej wykorzystywane w medycynie, chemii czy biologii. Systemy takie wykorzystują najczęściej przepływ cieczy i gazów w skali mikro. Nie są wyposażone w żadną elektronikę, a więc połączenie ich ze współczesnymi układami liczącymi nie jest łatwe i tanie. Tymczasem powietrzny procesor jest zbudowany podobnie, tak jak i one wykorzystuje serię zaworów, ale czyni to w celu dokonywania obliczeń. Jego połączenie z urządzeniami "laboratorium w układzie scalonym" powinno być więc stosunkowo łatwe.
  8. Podczas konferencji prasowej w Japonii przedstawiciele Intela oświadczyli, że w 2012 roku ich firma rozpocznie produkcję układów scalonych w technologii 22 nanometrów. Natomiast w przyszłym roku koncern wdroży masową produkcję układów 32-nanometrowych. Firma używa obecnie drugiej generacji technologii, w której wykorzystywana jest metalowa bramka i materiały o wysokiej stałej dielektrycznej. Korzysta też z hafnu, który ma umożliwić łatwe przejście na 22 nanometry. Na tym jednak plany koncernu się nie kończą. W roku 2014 firma rozpocznie wdrażanie procesu 16 nanometrów, a dwa lata później - 11 nanometrów.
  9. Intel ogłosił nową strategię, która będzie skupiała się na marce Core. W związku z tym na rynek, obok już obecnych Core i7, trafią procesory Core i5 oraz Core i3, a niektóre marki, jak na przykład Centrino, znikną ze sklepów. Trzeba tutaj podkreślić, że Core i5 oraz Core i3 nie są nowymi architekturami, ale odmianą rodziny Core. W przyszłości zastąpią one obecnie stosowane nazewnictwo - Core 2 Duo, Core 2 Quad itp. Na przykład przygotowywany na rynek desktopów procesor Lynnfield będzie sprzedawany pod marką Core, ale, w zależności od funkcji w jakie zostanie wyposażony będzie sprzedawany jako Core i5 lub Core i7. Z kolei Clarksfield dla komputerów przenośnych trafi do handlu jako Core i7. Kluczem do rozpoznania procesora będą zatem jego funkcje. Generalnie rzecz ujmując nazewnictwo będzie zgodne z intuicją. Core i3 będą procesorami najmniej wydajnymi, a Core i7 - najbardziej wydajnymi. Intel zachowa też markę vPro, która ma oznaczać wysoki stopień elastyczności i bezpieczeństwa. Zostanie ona skojarzona z układami i5 oraz i7. Tak więc od przyszłego roku na rynek zaczną trafiać procesory Core i5 vPro i Core i7 vPro. Nowa strategia ma służyć uproszczeniu nazewnictwa i uczynieniu go bardziej przejrzystym dla klientów. Jednak, czego Intel nie ukrywa, w przyszłym roku czeka nas spore zamieszanie, gdyż zaczną pojawiać się nowe marki, a w sprzedaży wciąż będą stare. Proces przejścia na nowe nazewnictwo potrwa zapewne kilkanaście miesięcy, podczas których klienci nie będą mieli łatwego życia.
  10. Fujitsu jest autorem najbardziej wydajnego procesora w historii. Układ o nazwie kodowej Venus (SPARC64 VIIIfx) jest w stanie wykonać 128 miliardów operacji zmiennoprzecinkowych w ciągu sekundy (128 GFlops). To 2,5-raza więcej od obecnego rekordzisty układu Nehalem EP Intela. Venus trafi na rynek w przyszłym roku. Ośmiordzeniowa kość o powierzchni 2 cm2 została wykonana w technologii 45 nanometrów. Układ korzysta z rozszerzonego zestawu instrukcji SIMD o nazwie HPC-ACE, które będą włączane podczas pracy z aplikacjami wymagającymi przetwarzania równoległego. W kość wbudowano kontroler pamięci DDR3. Rdzenie Venus współdzielą przestrzeń pamięci podręcznej drugiego poziomu, jednak cache L1 oraz pamięć podręczna instrukcji jest osobny dla każdego z nich. Fujitsu ma nadzieję, że już w przyszłym roku kości Venus trafią do superkomputerów i high-endowych serwerów. Firma chce, by dzięki jej procesorom powstawały superkomputery o wydajności większej niż 10 petaflopsów. Aby to osiągnąć Fujitsu rozpoczęło pracę nad technologią umożliwiającą połączenie ponad 100 000 węzłów bez pośrednictwa przełączników, co umożliwi osiągnięcie wydajności około 12,8 petaflopsa. Warto też zauważyć, że Venus jest niezwykle energooszczędnym układem. Z doniesień prasowych wynika, że układ ma dwukrotnie więcej tranzystorów niż Sparc64 VII, ale jednocześnie zużywa o dwie trzecie mniej mocy. Najprawdopodobniej TDP Venus wynosi około 45 watów. Już teraz wiadomo, że Venus będzie wykorzystywany w projekcie zwanym Japanese Next Generation Supercomputing, w ramach którego ma powstać hybrydowa maszyna łącząca w sobie skalarne procesory Venus z wektorowymi układami firm NEC i Hitachi. Superkomputer o wydajności 10 petaflopsów ma zostać ukończony do marca 2011 roku.
  11. John Watlington, odpowiedzialny za rozwój sprzętu w projekcie OLPC, poinformował, że kolejne wersje taniego laptopa będą wykorzystywały procesor VIA C7-M w miejsce AMD Geode LX-700. Decyzję taką podjęto po tym, jak AMD poinformowało o zakończeniu pracy nad linią Geode. Komputer XO 1.5 będzie z zewnątrz bardzo podobny do obecnej wersji. Bardzo interesujący jest jednak układ, który będzie towarzyszył procesorowi C7-M. To kość VIA VX855 Media System Processor. Obsługuje on DirectX 9.0, ośmiokanałowy dźwięk w formacie HD, pozwala na zastosowanie dwóch dwukanałowych kości DDR2, wykorzystuje nowoczesne standardy kodowania, takie jak H.264, MPEG-2, MPEG-4, DivX i WMV9. Dzięki VX855 tani laptop będzie w stanie, jak zapewnia VIA, odtwarzać obraz w rozdzielczości 1080p. Nowy XO zostanie wyposażony w 4- lub 8-gigabajtową masową pamięć flash. To znacznie więcej, niż pierwotna wersja, posiadająca zaledwie 1 gigabajt pamięci. Ilość RAM-u zostanie zwiększona z 256 magabajtów do 1 gigabajta.
  12. Kalifornijska firma CPU Tech rozpoczęła sprzedaż procesora Acalis CPU872 na rynku cywilnym. Dotychczas tego typu układy były dostępne jedynie dla wojska. Tym, co odróżnia go od innych komercyjnie dostępnych kości, jest specjalny mechanizm umożliwiający zdalne zablokowanie układu, tzw. kill switch. Tego typu mechanizmy są od pewnego czasu w użyciu. Wykorzystuje je np. armia francuska. Gdy urządzenie, wyposażone w procesor z mechanizmem kill switch wpadnie we wrogie ręce, możliwe jest wysłanie odpowiedniego kodu, który je zablokuje. Teraz, dzięki układowi Acalis CPU872, z podobnych możliwości mogą korzystać przedsiębiorstwa. W razie kradzieży komputera możliwe będzie zablokowanie maszyny, a zastosowanie tego typu kości w infrastrukturze energetycznej może np. ułatwić jej ochronę przed atakiem. Pat Hays, prezes CPU Tech. mówi, że Acalis CPU872 jest wyjątkowy nawet w swojej klasie urządzeń. Po pierwsze, nie jest zintegrowany na płycie głównej, ale z samym procesorem. Po drugie, wytwarza się go nie w tradycyjnej fabryce procesorów, ale w specjalnym zakładzie, który posiada certyfikat bezpieczeństwa Departamentu Obrony. Po trzecie w końcu, specjalny klucz bezpieczeństwa, który układ generuje i na podstawie którego daje dostęp do maszyny jedynie zaufanym źródłom, jest tworzony w sposób, który wyklucza przeprowadzenie najpopularniejszych ataków na systemy bezpieczeństwa. CPU Tech bierze udział w finansowanym przez DARPA projekcie Trust in Integrated Circuits i zdobyte w ten sposób doświadczenie firma wykorzystała do stworzenia układu, który nie jest podany na atak za pomocą inżynierii wstecznej. Wprowadzanie dodatkowych zabezpieczeń jest koniecznością. W USA i innych krajach Zachodu, granica pomiędzy sieciami cywilnymi, żywotną infrastrukturą (np. energetyczną), a sieciami wojskowymi coraz bardziej się zaciera.
  13. Marc Tremblay, który przed zaledwie tygodniem opuścił firmę Sun Microsystems, zostanie zatrudniony w Microsofcie. Zmagający się z kłopotami Sun stracił jednego ze swoich najważniejszych inżynierów, a koncern z Redmond zyska świetnego specjalistę od mikroprocesorów. Tremblay pracował w Sunie przez 18 lat. Był jednym z najważniejszych architektów procesorów SPARC i głównym technologiem wydziału odpowiedzialnego za rozwój mikroelektroniki. Wiadomo, że Tremblay dołączy do microsoftowej grupy Strategic Software/Silicon Architectures. Na razie nie wiadomo, co będzie należało do jego obowiązków. Można się jednak domyślać, że Tremblay przysłuży się zarówno rozwojowi Xboksa, gdzie będzie mógł doradzać na temat konfiguracji sprzętowej przyszłych wersji konsoli, jak i Windows. Trzeba bowiem brać pod uwagę fakt, iż już obecnie procesory dwu- i czterordzeniowe stają się standardem. Kolejne edycje microsoftowego OS-a będą musiały wykorzystywać możliwości układów składających się z jeszcze większej liczby rdzeni. Warto tutaj przypomnieć, że od pewnego czasu Microsoft stara się ściągać do siebie najlepszych specjalistów. Przed miesiącem informowaliśmy, że pracownikiem koncernu zostanie Sam Ruby, a prasa doniosła niedawno, iż podobną propozycję otrzymał profesor Uniwersytetu Harvarda Jonathan Shapiro, jeden z twórców języka BitC i mikrojądra Coyotos.
  14. Z danych iSuppli wynika, że w 2008 roku Intel w każdym kolejnym kwartale umacniał swoją rynkową pozycję. Obecnie do koncernu należy 81,8 procenta rynku mikroprocesorów. Ten sukces firma w sporej mierze zawdzięcza udanemu procesorowi Atom, który znajdziemy w większości nowych netbooków. Tymczasem w roku 2008 sprzedaż tego typu komputerów wzrosła o ponad 2000% w porównaniu z rokiem poprzednim. iSuppli przewiduje, że w roku bieżącym będziemy mieli do czynienia z kolejnym, tym razem 68,5-procentowym wzrostem. Część analityków uważa, że sukces Atoma obraca się przeciwko Intelowi. Zdecydowana większość klientów, którzy kupili netbooki, kupiłaby notebooki, gdyby nie pojawiła się nowa kategoria komputerów. Tymczasem w notebookach montowane są inne, droższe procesory, z których Intel ma większy zysk. Z tego też powodu Robert Catellano, prezes The Information Network uważa, że, gdyby nie netbooki, Intel miałby o 1,14 miliarda dolarów większe wpływy. Jego zdaniem w bieżącym roku wpływy Intela będą o 2,16 miliarda USD niższe, niż mogłyby być. Wzrost udziałów Intela odbywał się kosztem jego konkurentów. Z szacunków wynika, że, biorąc pod uwagę wpływy w dolarach, Intel zyskał w ubiegłym roku 1,6% rynku, AMD straciło 1,2%, a pozostali producenci stracili 0,5%. Matthew Wilkins, główny analityk iSuppli uważa, że pomimo straty rynku AMD znajduje się obecnie w lepszej sytuacji niż na początku ubiegłego roku. Firma dokonała znaczącej restrukturyzacji i rozpoczęła dostarczanie procesorów wykonanych w technologii 45 nanometrów, co daje jej solidniejsze podstawy działania. Największymi przegranymi są inni producenci niż Intel i AMD. Obaj giganci mają w sumie 92,5% rynku. Od roku 2006 ich udziały zwiększyły się o 1,6% i o tyle samo spadły udziały mniejszych konkurentów.
  15. Poniższa informacja to żart primaaprilisowy. Jak doniosło wczorajsze wydanie The Wall Street Journal, niewykluczone, że za kilka lat ostatecznie pożegnamy się z architekturą x86. Z nieoficjalnych doniesień wynika, że Intelowi nie opłacają się dalsze prace nad tą technologią. Obecnie Intel produkuje układy w technologii 32 nanometrów i pracuje nad 22-nanometrowymi kośćmi. Nie od dzisiaj wiadomo, że przekroczenie granicy 22 nanometrów będzie niezwykle trudne. Dziennikarze WSJ dowiedzieli się, że przedstawiciele Intela wyliczyli, iż ich firma musiałaby zainwestować około 35 miliardów dolarów w same prace badawczo-rozwojowe. Przygotowanie fabryk, koszty sprzedaży i marketingu dwukrotnie zwiększą tę kwotę. Trzeba ponadto brać pod uwagę, że przejście na proces mniejszy niż 22 nanometry wymaga wielkich inwestycji w całym przemyśle półprzewodnikowym. Analitycy mówią tutaj o kwotach rzędu 600-800 miliardów dolarów. Specjaliści są sceptyczni jeśli chodzi o opłacalność takiego przedsięwzięcia. By zwrot z inwestycji dokonał się w zwykłym dla tego przemysłu terminie, sprzedaż procesorów wykonanych w technologii mniejszej niż 22 nanometry musiała by być większa o około 70% od obecnego popytu na CPU. Wzrost ten jest niemożliwy także i z tego powodu, że takie procesory byłyby o około 15-20 procent droższe. The Wall Street Journal donosi o nieoficjalnych rozmowach toczonych pomiędzy Intelem a IBM-em. Intel chce podobno odkupić od IBM-a prawa do architektury Power. Jest ona łatwiejsza w skalowaniu, ponadto procesory Power udaje się taktować znacznie szybszym zegarem niż x86. Przedstawiciele Intela uważają, że zakup Power dałby im czas do około 2020 roku na opracowanie nowej architektury. Bardzo możliwe, że IBM sprzeda całość praw do Power. Od kilku lat firma stopniowo wycofuje się z rynku półprzewodników, komputerów oraz klienta indywidualnego i skupia się na rynku usług, oprogramowania i sprzętu dla biznesu. Sprzedaż produkcji procesorów pozwoli jej na znaczą redukcję kosztów operacyjnych oraz uwolni od konieczności finansowania prac badawczo-rozwojowych nad procesorami. Zaoszczędzone pieniądze IBM będzie mógł przeznaczyć na prace R&D na rynku superkomputerów oraz komputerów kwantowych. Nie wiadomo, co stanie się z architekturą x86. Analitycy uważają, że Intel może próbować ją sprzedać AMD. W ten sposób uwolniłby się od oskarżeń o działania monopolistyczne, a jednocześnie "zamknąłby" swojego konkurenta w niszy przestarzałej, odchodzącej do lamusa technologii.
  16. Analitycy z firmy Jon Peddie Research uważają, że do roku 2012 rynek tradycyjnych zintegrowanych rdzeni graficznych przestanie istnieć. Zostanie on zastąpiony innymi rozwiązaniami. Najpierw w latach 2010-2012 będziemy świadkami integrowania procesorów graficznych jako osobnych kości na płycie głównej. Później GPU zostaną połączone z CPU. Tym samym rdzenie graficzne w chipsecie stracą rację bytu. Już w pod koniec bieżącego roku na rynek ma trafić 32-nanometrowy procesor Intela o kodowej nazwie Arrendale. Producent zintegruje w nim CPU z GPU. W 2011 roku będzie można kupić podobny produkt AMD.
  17. Plotki o ewentualnym zainteresowaniu Nvidii rynkiem procesorów x86 pojawiają się od pewnego czasu, ale tym razem doczekały się oficjalnego potwierdzenia. Podczas Morgan Stanley Technology Conference wiceprezes Nvidii, Michael Hara, został zapytany o to, czy jego firma ma zamiar zadebiutować na rynku CPU. Hara stwierdził: pytanie nie brzmi 'czy', ale 'kiedy'. Jednocześnie powiedział że CPU produkcji Nvidii nie byłby układem nadającym się do wszystkich zastosowań. Może to być kość przeznaczona do niewielkich platform SoC (system-on-chip). Firma chciałaby zatem mieć ofertę na rynek niewielkich przenośnych urządzeń i nie ma zamiaru rywalizować o rynek wydajnych pecetów. Wiceprezes Nvidii dodał, że firmowy procesor x86 może pojawić się w ciągu 2-3 lat. Teraz nie jest dobry moment na jego debiut, gdyż na rynku zagościł niedawno intelowski Atom i platforma Ion Nvidii. Warto wspomnieć, że Nvidia produkuje już CPU. To platforma Tegra ze zintegrowanym rdzeniem ARM. Jeśli Nvidia ma zamiar wyprodukować CPU x86 będzie musiała kupić licencję od Intela.
  18. Z odbywających się właśnie targów CeBIT 09 nadchodzą informacje o nowych produktach AMD, Intela i Nvidii. AMD ogłosiło powstanie pierwszych procesorów graficznych wykonanych w technologii 40 nanometrów. To układy ATI Mobility Radeon HD 4860 i 4830. Układy wyposażono w silnik 3D z desktopowego Radeona HD 4800, obsługują DirectX 10.1, panoramiczny obraz w rozdzielczości HD oraz zaawansowane technologie oszczędności energii. Układ ATI Mobility Radeon HD 4860 współpracuje z pamięciami GDDR5. Obie kości wkrótce znajdą się w notebookach Asusa. Z kolei Intel zapowiedział kilka nowych wersji procesora Atom. Układy taktowane będą zegarami od 1,1 do 1,6 GHz, mają współpracować z 400- i 533-megahercowymi magistralami systemowymi i zostaną wyposażone w 512 kilobajtów pamięci L2. Ich pobór mocy wyrażony emisją cieplną (TDP) wyniesie 2,2 wata. Część z tych procesorów, zdolnych do pracy w temperaturach od 0 do +70 stopni Celsjusza trafi na rynek konsumencki, a dwa modele są przeznaczone do zastosowań przemysłowych. Zakres ich pracy wynosi od -40 do +85 stopni Celsjusza. Natomiast w ofercie Nvidii znajdziemy bardzo wydajne procesory graficzne dla komputerów przenośnych. Jest wśród nich najszybsze urządzenie tego typu, GPU GeForce GTX 280M. Układ ten został wyposażony w 128 jednostek cieniujących, jego wydajność to 562 gigaflopsy, a zegar procesora pracuje z częstotliwością 1463 MHz. Pamięć taktowana jest zegarem do 950 MHz. Współczynnik texture fill rate wynosi 38 gigatekseli na sekundę. Kość współpracuje z gigabajtem 256-bitowej pamięci GDDR3. Inne zaprezentowane przez Nvidię kości to GeForce GTX 260M (112 jednostek cieniujących, wydajność 462 gigaflopsy, zegar procesora 1375 MHz, fillrate 31 gigatekseli), GeForce GTS 160M i GTS 150M.
  19. Podczas International Solid State Circuits Conference (ISSCC) naukowcy z Rice University pokazali pierwszy probabilistyczny procesor (PCMOS - Probabilistic CMOS). Urządzenie działa siedmiokrotnie szybciej i zużywa 30-krotnie mniej energii niż najbardziej wydajne współczesne kości. Nowy procesor został wykonany w technologii CMOS, co oznacza, że jego wyprodukowanie nie wymaga zastosowania nowych narzędzi. Tym, co różni go od "normalnych" procesorów jest fakt, iż nie korzysta on z algebry boolowskiej, a probabilistycznej. Innymi słowy, nie podają jak najbardziej dokładnej odpowiedzi, a tylko przybliżoną. Projektanci współczesnych procesorów zmagają się z poważnym problemem. W miarę zmniejszania poszczególnych elementów, jest ich na kości coraz więcej, znajdują się coraz bliżej siebie i produkują szum, który zakłóca ich pracę. Podnosi się więc ich napięcie, by przezwyciężyć szum. Profesor Krishna Palem z Rice University postanowił wykorzystać pojawiające się błędy. Znacznie zmniejszył napięcie i zastosował zasady logiki probabilistycznej. Po zbudowaniu chipa przetestowano go wspólnie z Nanyang Technological University w Singapurze. Okazało się że wyspecjalizowany układ do szyfrowania danych spisuje się świetnie: jest bardzo wydajny i zużywa niewiele energii. Profesor Palem mówi, że PCMOS sprawdzi się właśnie w szyfrowaniu danych oraz w przetwarzaniu grafiki. Do jej obróbki, szczególnie gdy jest ona wyświetlana na niewielkim ekranie, nie jest potrzebna olbrzymia precyzja. Wystarczą mniej dokładne obliczenia, by osiągnąć dobre rezultaty. Kluczem jest rozpoznanie wartości, jaką przetworzona informacja ma dla użytkownika - mówi Palem. Innymi słowy, tam, gdzie potrzebna jest duża precyzja obliczeń zastosujemy tradycyjne procesory, w innych przypadkach dobrze sprawdzą się bardzo wydajne i energooszczędne PCMOS. Zdaniem Palema pierwsze układy nowego typu mogą trafić na rynek w ciągu 4 najbliższych lat. Zagoszczą przede wszystkim w urządzeniach przenośnych.
  20. ARM, znany producent układów scalonych dla urządzeń przenośnych, przygotował procesor Cortex-A9 wykonany w technologii 32 nanometrów. Dzięki niemu użytkownicy elektronicznych gadżetów będą mogli obejrzeć na ich ekranie filmy w rozdzielczości HD (1080p). Jednocześnie nie będą musieli martwić się o zużycie energii. Nowy Cortex pobiera bowiem jej mniej niż układy wykonane w innych procesach technologicznych. Na początku przyszłego roku ARM zacznie produkcję nowych procesorów, a pod koniec 2010 roku w ręce konsumentów powinny trafić pierwsze urządzenia z nową kością. Przedstawiciele ARM zapowiadają, że w highendowych smartphoneach korzystających z nowego układu czas pracy na bateriach zwiększy się o 10-20 procent. Jednocześnie będzie można korzystać z wbudowanego w procesor systemu kodowania i dekodowania obrazu 1080p oraz obsługi szybkiej łączności bezprzewodowej. Pierwszym układem ARM-a wykonanym w procesie 32 nanometrów będzie czterordzeniowy Cortex-A9, który trafi zarówno do smartfonów jak i netbooków. Obecnie firma produkuje swoje procesory w technologii 65 nanometrów, a jeszcze w bieżącym roku rozpocznie produkcję 45-nanometrowych kości. Wśród głównych konkurentów ARM znajdują się m.in. Intel i Texas Instruments.
  21. Intel pokazał pierwsze gotowe próbki 32-nanometrowych procesorów Clarkdale i Arrendale. Seryjna produkcja układów rozpocznie się w czwartym kwartale bieżącego roku. Dwurdzeniowe kości wyposażono w 4-megabajtowy cache, przetwarzanie wielowątkowe oraz dwukanałowy kontroler DDR3. Układy Clarkdale trafią na rynek pecetów, a Arrendale - notebooków. W kościach ma zostać zintegrowany 45-nanometrowy rdzeń graficzny. Rdzenie graficzne produkcji Intela są wykonywane w technologii o jedną generację wcześniejszej niż procesory. Pomimo tych różnic nowe procesory będą pasowały do obecnie stosowanych gniazd i mają współpracować z tymi samymi chipsetami z serii Intel 5. W 2010 roku rozpocznie się produkcja sześciordzeniowych układów Gulftown dla high-endowych pecetów oraz kości Westmere. Te ostatnie prawdopodobnie również wyposażone w sześć rdzeni i mają trafić do dwuprocesorowych serwerów. Z dostępnych informacji wynika, że Intel na razie nie wyprodukuje czterordzeniowych układów w technologii 32 nanometrów. Firma przygotuje czterordzeniowce Lynnfield dla pecetów oraz Clarksfield dla komputerów przenośnych, jednak zostaną one wykonane w 45-nanometrowym procesie. W porównaniu z innymi układami z rodziny Nehalem, procesory zostaną wyposażone w mniej pamięci cache i dwukanałowe kontrolery pamięci. Gwoli wyjaśnienia należy wspomnieć o strategii, którą Intel stosuje w rozwoju procesorów. Najpierw pojawia się nowa mikroarchitektura, a później nowy proces technologiczny. Tak więc w ramach mikroarchitektury Core pojawiły się 65-nanometrowe układy Merom, a później ich 45-nanometrowa odmiana o nazwie Penryn. Najnowsza mikroarchitektura Intela o nazwie Nehalem jest obecna na rynku już od jakiegoś czasu i możemy kupić procesory wykonane w procesie produkcyjnym 45 nanometrów, a teraz koncern zapowiada 32-nanometrowe układy Westmere, które są zmniejszonymi Nehalemami z dodanym rdzeniem graficznym. Z kolei w 2010 roku zadebiutuje nowa 32-nanometrowa mikroarchitektura o nazwie Sandy Bridge, a później Intel jeszcze bardziej zmniejszy proces technologiczny. Z wcześniejszych informacji wynika, że w latach 2011-2012 na rynek zaczną trafiać procesory wykonane w technologii 22 nanometrów. W roku 2011 zadebiutuje układ o nazwie kodowej Ivy Bridge. Będzie to 22-nanometrowe wcielenie mikroarchitektury Sandy Bridge. Z kolei w roku 2012, prawdopodobnie w jego drugiej połowie, będziemy mogli kupić 22-nanometrowe kości Haswell - pierwsze w historii układy wykonane w mikroarchitekturze zaprojektowanej specjalnie dla procesu technologicznego 22 nm. Najprawdopodobniej Haswell zadebiutuje jako ośmiordzeniowy procesor. Zestaw wykonywanych przezeń instrukcji zostanie powiększony o co najmniej jedną. Już teraz wiadomo, że obsłuży on FMA (Fused Multiply Add), która pozwoli na dodawanie i mnożenie trzech wartości w jednej operacji.
  22. Naukowcy z Sandia National Laboratories udowodnili, że próby podnoszenia wydajności superkomputerów poprzez samo tylko zwiększanie liczby rdzeni w procesorach, w przypadku wielu złożonych aplikacji prowadzą do... spadku mocy obliczeniowej. Przeprowadzone symulacje wykazały, że jeśli w superkomputerach użyjemy procesorów dwu- zamiast czterordzeniowych, uzyskamy znaczy wzrost wydajności. Dalsze zwiększanie liczby rdzeni i zastosowanie układów ośmiordzeniowych w miejsce czterordzeniowych staje się nieopłacalne. Wzrost mocy jest bowiem bardzo niewielki. Z kolei użycie jeszcze bardziej złożonych procesorów prowadzi do stopniowego spadku wydajności systemu. I tak superkomputer do którego budowy wykorzystano 16-rdzeniowe procesory będzie tak samo wydajny, jak maszyna z identyczną liczbą układów... dwurdzeniowych. Przyczyną takiego stanu rzeczy są z jednej strony niewystarczająca szerokość interfejsów pamięci, a z drugiej - ciągła rywalizacja rdzeni o dostęp do niej. Na opublikowanym wykresie wyraźnie widać (niebieska linia) gwałtowny wzrost czasu oczekiwania na dostęp do pamięci w przypadku wykorzystywania standardowych technologii i procesorów 16-rdzeniowych. Wciąż nierozwiązany pozostaje problem dostępu procesorów do podsystemu pamięci, chociaż, jak wynika z wykresu, teoretycznie można go przezwyciężyć stosując istniejące, przynajmniej na papierze, rozwiązania.
  23. Intel poinformował o zakończeniu opracowywania technologii 32 nanometrów. W czwartym kwartale 2009 roku z linii produkcyjnych mają zjechać pierwsze kości wykonane w tej technice. Przedstawiciele koncernu zapowiedzieli, że w przyszłym tygodniu podczas konferencji International Electron Devices Meeting zaprezentują szczegóły przygotowanych przez siebie rozwiązań. Będzie można zapoznać się z drugą generacją materiałów o wysokiej stałej dielektrycznej połączonych z metalową bramką czy też z techniką 193-nanometrowej litografii immersyjnej. To już czwarty rok z rzędu, gdy Intelowi udało się dotrzymać wyznaczonych terminów wdrażania kolejnego procesu produkcyjnego. Podczas wspomnianej konferencji odbędzie się również spotkanie dotyczące technologii 22 nanometrów.
  24. Intel rozpoczął sprzedaż procesorów z rodziny Core i7. To oficjalna nazwa architektury znanej dotychczas pod kodową nazwą Nehalem. Układy wykonane w technologii 45 nanometrów jako pierwsi na świecie mogli kupić Japończycy. Przed sklepami w tokijskiej dzielnicy Akihabara zgromadziły się setki entuzjastów komputerów. Nowe procesory nie są tanie. Układ Core i7 965 Extreme Edition taktowany zegarem o częstotliwości 3,2 GHz wyceniono na 999 dolarów. Za Core i7 940 (2,93 GHz) trzeba zapłacić 562 USD, a za Core i7 920 (2,66 GHz) - 284 USD. Intel chce przekonać klientów do nowej architektury m.in. możliwością zoptymalizowania pracy układu w zależności od potrzeb. W procesorach Core i7 można dopasować 20 różnych parametrów pracy układu. Ten tzw. Turbo Mode to jedno z ciekawszych rozwiązań zastosowanych w nowych CPU. Znane z notebooków rozwiązanie trafi tym razem do desktopów. Turbo Mode to nic innego jak dynamiczne zasilanie poborem energii przez układ. Każda jego część jest zasilana osobno. W zależności od potrzeb może więc pobierać mniej lub więcej energii. Może też przejść w stan uśpienia gdy nie jest potrzebna. Umieszczona w procesorze sieć czujników będzie decydowała np. o wyłączeniu niepotrzebnych rdzeni procesora w sytuacji, gdy uruchomiona aplikacja używa tylko jednego rdzenia, ale wykorzystuje go bardzo intensywnie. Wówczas do tego rdzenia zostanie dostarczone wyższe napięcie i zwiększy się taktowanie jego zegara, a pozostałe rdzenie zostaną "uśpione". Dzięki takiemu rozwiązaniu nasza aplikacja będzie działała bardziej wydajnie, a ogólny bilans poboru mocy i wydzielania ciepła przez procesor pozostanie niezmieniony lub się zmniejszy. Rozwiązanie takie uchroni nas też przed przegrzewaniem się procesora i np. zawieszaniem komputera, gdyż w słabo chłodzonych maszynach kości nie będą osiągały pełnej mocy, by zapewnić ich stabilną pracę. Główną cechą architektury Core i7 jest modułowa budowa procesora. Dzięki niej producent może łatwo dodawać nowe rdzenie i oferować kości zarówno dwu-, trzy- jak i ośmiordzeniowe. Co ważne, procesory będą monolityczne, czyli od samego początku będą "prawdziwymi" wielordzeniowcami. To odstępstwo od dotychczasowej polityki Intela, którego pierwszymi wielordzeniowymi układami były po prostu procesory zamknięte w jednej obudowie, a dopiero kolejne wersje to rdzenie umieszczone na jednym kawałku krzemu. W nowych procesorach umieszczono również kontroler pamięci, a ich architektura umożliwia wbudowywanie weń licznych poziomów pamięci cache. Teoretycznie może się w nich znaleźć nawet cache L4 (czwartego poziomu). Ponadto Core i7 współpracuje z układami DDR3 w trybach jedno-, dwu-, trzy- i czterokanałowym. Podstawowym procesorem z rodziny Core i7 będzie układ czterordzeniowy. Intel zapowiada również kości z ośmioma rdzeniami. Jako, że każdy z rdzeni może przetwarzać dwa wątki, układy obsłużą do 16 wątków jednocześnie. Przypomina to więc obecną w procesorach Pentium technologię Hyper-Threading. Tym razem ma jednak być ona bardziej wydajna i elastyczna. Intel zapowiedział bowiem, że użytkownik będzie mógł z poziomu BIOS-u wyłączyć obsługę wielowątkowości. Inną istotną zmianą jest zastosowanie magistrali QPI (Quick Path Interconnect) w miejsce FSB. Dzięki temu dwukrotnie przyspieszono wewnętrzną komunikację pomiędzy CPU w maszynach wieloprocesorowych. Na razie wszystko wskazuje na to, że Intel nastawił się na bardziej wymagających odbiorców. Core i7 powinien sprawdzić się w zastosowaniach serwerowych oraz tam, gdzie wymagane są duże moce obliczeniowe i wielowątkowość. Wstępne testy na domowych desktopach napawają umiarkowanym optymizmem. W typowo domowych zastosowaniach procesory sprawują się tylko nieznacznie lepiej dotychczas dostępne na rynku CPU. Przyrost wydajności jest niewielki, a zastanawiając się nad kupnem Core i7 powinniśmy wziąć pod uwagę wysoką cenę nowości oraz fakt, że zmieniając procesor musimy kupić przystosowaną do współpracy z nim płytę główną z podstawką LGA 1366.
  25. IBM wystąpił do sądu przeciwko jednemu ze swoich menadżerów i najważniejszych inżynierów, Markowi Papermasterowi. Jeszcze niedawno pełnił on w IBM-ie funkcję wiceprezesa ds. rozwoju technologii mikroprocesorowej, a teraz chce ponoć od listopada rozpocząć pracę w firmie Apple. IBM twierdzi, że w ten sposób złamie warunki swojego kontraktu, który mówi o zakazie pracy u konkurencji. Błękitny Gigant obawia się, że Papermaster może wyjawić Apple'owi szczegóły dotyczące architektury Power oraz tajemnice na temat produktów serwerowych. W pozwie IBM-a czytamy, że jeśli Papermaster rozpocznie pracę w Apple'u to będzie ściśle współpracował ze Steve'em Jobsem zapewniając Apple'owi doradztwo techniczne i strategiczne dotyczące wielu kwestii. Analityk Gordon Haff nie sądzi, by zatrudniając Papermastera Apple chciało wzmocnić swój dział produkujący serwery Xblade. Firma Jobsa przez lata bowiem zmieniała swoją strategię i obecnie działa nie tyle na rynku komputerów, co na rynku elektroniki użytkowej. Wątpliwe więc, uważa Haff, by zależało jej na rozwoju serwerów. Analityk sądzi, że Apple ma zamiar w przyszłości stać się znaczącym graczem na rynku cloud computing (chmur obliczeniowych). Dlatego też chce zatrudnić eksperta, który zna się na serwerach i pomoże firmie stworzyć własną infrastrukturę potrzebną do zaistnienia na rynku chmur. Ponadto Papermaster to jeden z najbardziej szanowanych członków elitarnego klubu zajmującego się projektowaniem układów scalonych. Tymczasem Apple przed kilkoma miesiącami kupiło firmę P.A. Semi, która zajmuje się właśnie tego typu pracami. Papermaster może być nieocenioną pomocą dla zespołu P.A. Semi. Tym bardziej, podobnie jak członkowie tego zespołu, w kręgu jego zainteresowań znajduje się architektura Power, która obecnie stanowi podstawę budowy konsol do gry. Być może więc Apple będzie chciało skonstruować własną konsolę.
×
×
  • Dodaj nową pozycję...