Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Wzrosty na rynku pecetów przyczyną niedoborów CPU

Recommended Posts

Intel przerzuca się z producentami pecetów odpowiedzialnością za niedobory na rynku procesorów dla pecetów. W liście otwartym do klientów i partnerów Bob Swan, dyrektor ds. finansowych Intela, który tymczasowo sprawuje funkcję dyrektora wykonawczego, stwierdził, że braki na rynku procesorów wynikają z rosnącej popularności chmur obliczeniowych oraz z niespodziewanego wzrostu popytu na pecety. Analitycy spodziewają się, że po raz pierwszy od 2011 roku rynek pecetów doświadczy znaczącego wzrostu.

Jednak nie wszyscy zgadzają się z Intelem. Jeszcze przed publikacją listu Swana na blogu jednego z brytyjskich producentów pecetów opublikowano wpis, w którym producent ten wini wyłącznie Intela za rynkowe problemy. Dowiadujemy się z niego, że wobec rosnącego zapotrzebowania na chmury obliczeniowe i centra bazodanowe Intel zmienił swoje priorytety i skupił się głównie na produkcji Xeonów, nie dbając o wyczerpujące się zapasy CPU dla pecetów. Wobec rosnącego zapotrzebowania na rynku komputerów osobistych oznacza to nie tylko niedobory, ale także wzrosty cen, które mogą utrzymać się jeszcze w pierwszym kwartale przyszłego roku.

Niezależnie jednak od problemów z zaspokojeniem popytu, Intel ma się czym pochwalić. Nasz biznes bazodanowy wzrósł w drugim kwartale o 25%, a przychody z rynku chmur obliczeniowych zwiększyły się o 43% w pierwszym półroczu. Postępy na rynku pecetów są jeszcze bardziej zdumiewające, czytamy w liście Swana.

Dobrą alternatywą dla pecetowych procesorów Intela mogą być kości AMD Ryzen, których ceny pozostają stabilne. Jednak nie wszyscy klienci dadzą się przekonać do zakupu kości AMD, więc producenci komputerów osobistych nie mają innego wyjścia jak poczekać, aż na rynek trafi wystarczająca ilość produktów Intela.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      AMD konsekwentnie zdobywa coraz silniejszą pozycję na rynku. Firma analityczna Mercury Research, z której usług korzystają m.in. AMD i Intel, poinformowała, że IV kwartał 2019 roku był już 9. kwartałem z kolei, w którym AMD zwiększało swoje udziały w rynku procesorów.
      Analityków zaskoczyły niewielkie postępy na rynku desktopów oraz centrów bazodanowych. W ciągu trzech ostatnich miesięcy ubiegłego roku AMD zyskało tam, odpowiednio, 0,2 i 0,3 punktu procentowego. Największe zaś postępy firma zanotowała na rynku urządzeń przenośnych, gdzie pomiędzy październikiem a grudniem 2019 roku wzrosły o 1,5 punktu procentowego.
      Obecnie AMD posiada 4,5% rynku serwerów (+ 1,4 pp rok do roku), 18,3% rynku desktopów (+2,4 pp rdr), 16,2% rynku urządzeń mobilnych (+ 4,0 pp rdr). Całkowity udział AMD w rynku układów x86 wynosi obecnie 15,5%. Ostatnio tak dobrym wynikiem firma mogła pochwalić się przed niemal 7 laty.
      Sprzedaż desktopowych CPU wzrosła dzięki dużemu popytowi na highendowe procesory dla graczy oraz dlatego, że Intel zwiększył dostawy tanich procesorów. AMD zanotowało bardzo silny wzrost sprzedaży układów z serii Ryzen 3000, a Intel duży wzrost w segmencie i9. Większość wzrostu obu firm pochodziło ze sprzedaży procesorów o największej liczbie rdzeni, mówi Dean McCarron z Mercury Research.
      Warto też zauważyć, że AMD zdominował Black Friday i Cyber Monday na Amazonie, gdzie jego procesory często zajmowały pierwszych 10 pozycji wśród najchętniej kupowanych układów. To jednocześnie pokazuje, że rynek klienta indywidualnego jest znacznie mniejszy niż rynek OEM, na którym tradycyjnie dominuje Intel. Koncern jest szczególnie silny w segmencie przedsiębiorstw i administracji państwowej. Klienci ci pozostają wierni platformie Intela, gdyż unikają w ten sposób kosztownych i długotrwałych procesów związanych z przejściem na inna platformę sprzętową.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Epidemia koronawirusa to nie tylko problem medyczny, ale i coraz poważniejszy problem ekonomiczny. Część analityków przewiduje załamanie na chińskim rynku smartfonów. W pierwszym kwartale bieżącego roku z pewnością dojdzie do olbrzymiego spadku produkcji. W optymistycznym scenariuszu, jeśli epidemia zostanie opanowana do końca lutego, spadek ten wyniesie 9%.
      To zła wiadomość dla firm działających na rynku smartfonów. Niektóre z nich, jak mający silną pozycję MediaTek, mogą zanotować dwucyfrowy spadek przychodów. Jednak, co ciekawe, wielki producent układów scalonych, tajwański TSMC, nie planuje zmiany prognoz sprzedaży. Firma wciąż twierdzi, że dojdzie do minimalnych spadków.
      Tymczasem wiele firm w Chinach jeszcze nie podjęło pracy po chińskim Nowym Roku. Najprawdopodobniej zakłady produkcyjne ruszą ponownie w najbliższy poniedziałek, jest jednak mało prawdopodobne, by pracowały pełną parą. Głównym problemem mogą być niedobory towarów i pracowników, spowodowane ograniczeniami w ruchu ludzi i towarów nałożonymi przez władze lokalne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowa metoda ataku na procesory Intela wykorzystuje techniki overclockingu. Eksperci ds. bezpieczeństwa odkryli, że możliwe jest przeprowadzenie ataku na procesory i zdobycie wrażliwych danych – jak na przykład kluczy kryptograficznych – poprzez manipulowanie napięciem procesora.
      Nowy atak, nazwany Plundervolt, bierze na celownik Intel Software Guard Extensions (SGS). To zestaw kodów bezpieczeństwa wbudowanych w intelowskie CPU. Celem Intel SGX jest zamknięcie najważniejszych informacji, takich właśnie jak klucze, w fizycznie odseparowanych obszarach pamięci procesora, gdzie są dodatkowo chronione za pomocą szyfrowania. Do obszarów tych, zwanych enklawami, nie mają dostępu żadne procesy spoza enklawy, w tym i takie, działające z większymi uprawnieniami.
      Teraz okazuje się, że manipulując napięciem i częstotliwością pracy procesora można zmieniać poszczególne bity wewnątrz SGX, tworząc w ten sposób dziury, które można wykorzystać.
      Naukowcy z University of Birmingham, imec-DistriNet, Uniwersytetu Katolickiego w Leuven oraz Uniwersytetu Technologicznego w Grazu mówią: byliśmy w stanie naruszyć integralność Intel SGX w procesorach Intel Core kontrolując napięcie procesora podczas przetwarzania instrukcji w enklawie. To oznacza, że nawet technologia szyfrowania/uwierzytelniania SGX nie chroni przed atakiem Plundervolt.
      Intel zaleca aktualizacje BIOS-u do najnowszych wersji.
      Przeprowadzenie ataku nie jest łatwe. Znalezienie odpowiedniej wartości napięcia wymaga eksperymentów i ostrożnego zmniejszania napięcia (np. w krokach co 1 mV), aż do czasu wystąpienia błędu, ale przed spowodowaną manipulacją awarią systemu, stwierdzają odkrywcy dziury. Naukowcom udało się doprowadzić do takich zmian w SGX, że stworzyli dziury umożliwiające zwiększenie uprawnień i kradzież danych.
      Do przeprowadzenia ataku nie trzeba mieć fizycznego dostępu do komputera, jednak by zdalnie zaatakować SGX konieczne jest wcześniejsze zdobycie uprawnień administracyjnych na atakowanym systemie.
      Plundervolt może zostać przeprowadzony na wszystkie procesory Intel Core od czasów Skylake'a, co oznacza, że narażone są Intel Core 6., 7., 8., 9. i 10. generacji oraz układy Xeon E3 v5 i v6, a także Xeony z rodzin E-2100 i E-2200.

      « powrót do artykułu
×
×
  • Create New...