Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' procesor' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 16 wyników

  1. Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji. Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee. Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory. To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych. Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances. « powrót do artykułu
  2. W piśmie Energy & Environmental Science ukazał się artykuł opisujący mikroprocesor zasilany procesem fotosyntezy. Twórcami niewielkiego systemu są naukowcy z University of Cambridge, a ich procesor pracuje bez przerwy od ponad roku. Ich badania dają nadzieję na stworzenie stabilnego, odnawialnego źródła zasilania dla niewielkich urządzeń. Wielkość całego systemu jest porównywalna z rozmiarami baterii AA. W jego skład wchodzą glony z rodzaju Synechocystis, niewielka aluminiowa elektroda i mikroprocesor. Całość zbudowana jest z tanich, powszechnie dostępnych i w większości poddających się recyklingowi materiałów. Twórcy systemu mówią, że najbardziej się on przyda w miejscach, gdzie brak jest dostępu do sieci energetycznych, a potrzebne są niewielkie ilości energii np. do zasilania czujników. Rozrastający się Internet of Things zwiększa zapotrzebowanie na energię elektryczną. Myślimy, że mamy tutaj rozwiązanie pozwalające na generowanie jej niewielkich ilości na bieżące potrzeby, mówi jeden z twórców systemu, profesor Christopher Howe. W naszym systemie nie występuje problem wyczerpania energii, gdyż do jej wytwarzania wykorzystywane jest światło słoneczne, dodaje. Podczas prowadzonego właśnie eksperymentu glony wykorzystywane są do zasilania procesora Arm Cortex M0+, który powszechnie wykorzystywany jest w Internet of Things. Zasilany glonami procesor pracował zarówno w warunkach domowych jak i na zewnątrz. Był wystawiony na naturalne zmiany światła i temperatury. Byliśmy pod wrażeniem ciągłości jego pracy. Sądziliśmy, że całość może ulec awarii po kilku tygodniach, ale tak się nie stało, mówi doktor Paolo Bombelli z Wydziału Biochemii University of Cambridge. Glony nie potrzebują specjalnego odżywiania, gdyż zapewniają sobie – i procesorowi – energię drogą fotosyntezy. I mimo tego, że do jej przeprowadzenia konieczne jest światło, procesor był zasilany nawet w okresach, gdy panowała ciemność. Glony wciąż prowadziły procesy metaboliczne. Twórcy systemu zwracają uwagę, że zasilanie miliardów Internet of Things stosowanymi obecnie akumulatorami litowo-jonowymi byłoby niepraktyczne. Potrzebne do tego byłoby więcej litu, niż obecnie wytwarzamy. A tradycyjne ogniwa fotowoltaiczne wytwarzane są z użyciem materiałów niebezpiecznych dla środowiska. Stąd potrzeba opracowania nowych, stabilnych i przyjaznych środowisku źródeł energii. « powrót do artykułu
  3. Od dekad tranzystory są mniejsze i mniejsze. Dzięki temu w procesorze możemy upakować ich więcej. To zaś najłatwiejszy sposób na zwiększenie wydajności procesora. Powoli zbliżamy się do momentu, w którym nie będziemy już w stanie zmniejszać długości bramki tranzystora. Niewykluczone, że Chińczycy właśnie dotarli do tej granicy. Prąd w tranzystorze przepływa pomiędzy źródłem a drenem. Przepływ ten kontrolowany jest przez bramkę, która przełącza się pod wpływem napięcia. Długość bramki to kluczowy czynnik decydujący o rozmiarach tranzystora. W ostatnich latach naukowcy zaczęli eksperymentować z nowymi materiałami, z których chcą budować elektronikę przyszłości. W obszarze ich zainteresowań jest na przykład grafen – dwuwymiarowy materiał składający się z pojedynczej warstwy atomów węgla – czy disiarczek molibdenu, czyli warstwa atomów molibdenu zamknięta między dwiema warstwami siarki. Teraz specjaliści z Chin wykorzystali te materiały do zbudowania rekordowo małego tranzystora. Długość jego bramki wynosi zaledwie 0,34 nanometra. To tyle, co średnica atomu węgla. Nowy tranzystor można porównać do dwóch schodów. Na górnym znajduje się źródło, na dolnym zaś dren. Oba zbudowane są z tytanu i palladu. Powierzchnia schodów działa jak łączący je kanał. Jest ona zbudowana w pojedynczej warstwy disiarczku molibdenu, pod którą znajduje się izolująca warstwa ditlenku hafnu. Wyższy stopień zbudowany jest z wielu warstw. Na samy dole znajduje sie warstwa grafenu, nad nią zaś aluminium pokryte tlenkiem aluminium. Jego zadaniem jest oddzielenie grafenu i disiarczku molibdenu. Jedynym miejscem ich połączenia jest widoczna na grafice niewielka szczelina w wyższym stopniu. Gdy bramka zostaje ustawiona w pozycji „on” jej długość wynosi zaledwie 0,34 nm. Autorzy nowego tranzystora twierdzą, że nie uda się tej odległości już bardziej zmniejszyć. Na pewno zaś próba zbudowania jeszcze mniejszych tranzystorów będzie wymagała nowatorskiego podejścia do materiałów dwuwymiarowych. Ze szczegółami pracy zespołu z Tsinghua University można zapoznać się na łamach Nature. « powrót do artykułu
  4. Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona. Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%. Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń. Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface. Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend. « powrót do artykułu
  5. Powszechna obecność komputerów kwantowych to wciąż dość odległa przyszłość, jednak specjaliści już pracują nad kryptografią postkwantową, czyli technikami kryptograficznymi mającymi na celu uchronienie nas przed atakami przeprowadzanymi za pomocą komputerów kwantowych. Algorytmy takie wymagają jednak olbrzymich mocy obliczeniowych. Teraz naukowcy z Niemiec ogłosili, że stworzyli układ scalony, który bardzo efektywnie wykorzystuje tego typu algorytmy i może rozpocząć epokę kryptografii postkwantowej. Większość współczesnej kryptografii korzysta z faktu, że komputery klasyczne potrzebują bardzo dużo czasu do rozwiązania złożonych problemów matematycznych, takich jak faktoryzacja (rozkład na czynniki) wielkich liczb. Jednak komputery kwantowe będą radziły sobie z takimi obliczeniami błyskawicznie. A przeprowadzenie udanej faktoryzacji oznacza we współczesnej kryptografii złamanie szyfru. Dlatego też specjaliści już od lat projektują algorytmy dla kryptografii postkwantowej. To problemy matematyczne, które mają sprawiać dużą trudność zarówno komputerom klasycznym jak i kwantowym. Wiele z nich to algorytmy kratowe. Ta krata to zbiór punktów w przestrzeni z periodyczną strukturą. W strukturze tej można zapisać wektory. Zaszyfrowana wiadomość zależy od jednego z tych punktów/wektorów. Do kraty dodawany jest też losowy szum, a cała trudność polega na tym, by – nie wiedząc jaki szum został dodany – znaleźć oryginalny punkt/wektor za pomocą którego zaszyfrowano wiadomość i go odszyfrować. Odszyfrowanie tak zabezpieczonej wiadomości jest trudne zarówno dla komputerów klasycznych jak i kwantowych. Jednak wykorzystanie takiego algorytmu wymaga bardzo dużych mocy obliczeniowych. Georg Sigl i jego koledzy z Uniwersytetu Technicznego w Monachium właśnie rozwiązali ten problem. Wspólnie z Siemensem, Infineonem i Giesecke+Devrient stworzyli układ scalony oparty na opensource'owej architekturze RISC-V. Zarówno układ jak i pracujące na nim oprogramowanie zostały zoptymalizowane pod kątem pracy z algorytmami kratowymi. W porównaniu z rozwiązaniami bazującymi tylko na oprogramowaniu, nowy układ jest 10-krotnie szybszy podczas pracy z Kyberem, jednym z najbardziej obiecujących algorytmów kratowych. Wykorzystuje też 8-krotnie mniej energii. Co więcej układ jest na tyle elastyczny, że pracuje też z SIKE, innym algorytmem kryptografii postkwantowej, który nie jest algorytmem kratowym. W tym przypadku ma być on 21-krotnie szybszy niż rozwiązania czysto software'owe. Twórcy nowego układu pracują też nad rozwiązaniem innego problemu bezpieczeństwa – trojanów sprzętowych. To złośliwe elementy sprzętowe celowo wprowadzane do układów scalonych. Sigle i jego grupa wbudowali w swój układ cztery takie trojany. Aby wiedzieć, czy można zaufać danemu chipowi, musimy posiadać metody jego weryfikacji. Chcemy się dowiedzieć, w jaki sposób można sprawdzić sam sprzęt i wykryć w nim sprzętowe trojany, wyjaśnia Sigl. Każdy z trojanów, które badają specjaliści z Monachium, działa w inny sposób. Jeden może zmniejszać wydajność układu, inny zaś przekazywać dane na zewnątrz. Celem badań jest stworzenie metod identyfikacji tego typu zagrożeń. Na razie udało się opracować trzy metody wykrywania sprzętowych trojanów na etapie projektowania układu scalonego. « powrót do artykułu
  6. Jeszcze w bieżącym roku ma zadebiutować kolejna edycja systemu operacyjnego Microsoftu – Windows 11. Koncern z Redmond opublikował minimalną specyfikację sprzętową, jaka będzie koniczna, by zaktualizować komputer i okazało się, że wielu użytkowników nie będzie mogło tego zrobić. Windows 11 nie będzie bowiem wspierał wszystkich procesorów. Nie zainstalujemy go na procesorze starszym nią 4–5 lat. Microsoft opublikował dokładne listy układów Intela, AMD i Qualcommu, na których można będzie zainstalować najnowszy system operacyjny. Co ciekawe, na liście tej nie ma układu Intel Core i7-7820HQ, który używany jest w microsoftowym notebooku Surface Studio 2. Jak można się domyślać, użytkownicy tego sprzętu nie są zbytnio zadowoleni z faktu, że nie otrzymają najnowszego Windowsa. Jednak nie tylko oni. MiIiony osób korzystających obecnie z Windows 10 nie będzie mogło zaktualizować systemu do jego najnowszej edycji. Za pomocą aplikacji PC Health Check możemy sprawdzić, czy nasz komputer spełnia minimalne wymagania, by zainstalować na nim Windows 11. Nie do końca jest jasne, na ile ściśle zasady te będą jednak przestrzegane. Już wcześniej menedżerowie Microsoftu sugerowali, że – po wyświetleniu ostrzeżenia – Windows 11 zainstaluje się na części teoretycznie niewspieranych procesorów. Na stronie polskiego Microsoftu czytamy, że na urządzeniach, które nie spełniają minimalnych wymagań zainstalowanie Windows 11 może okazać się niemożliwe. « powrót do artykułu
  7. Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona. O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali. CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU. Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych. Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych. Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s. Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy. Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci. Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp. Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych. Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego. Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni). « powrót do artykułu
  8. Potwierdziły się plotki mówiące o zamiarach porzucenia przez Apple'a architektury x86 i całkowitym przejściu na architekturę ARM. Wczoraj, podczas WWDC 2020, firma oficjalnie ogłosiła rozpoczęcie dwuletniego okresu przechodzenia na ARM. Koncern z Cupertino zaoferuje odpowiednie SDK producentom oprogramowania, a pierwszy komputer z procesorem ARM ma trafić do sprzedaży jeszcze przed końcem bieżącego roku. Dyrektor wykonawczy Apple'a, Tim Cook, poinformował, że firma wciąż będzie oferowała nowe modele komputerów z procesorami Intela, jednak w ciągu dwóch lat każdy nowy model będzie też sprzedawany w wersji z procesorem ARM. Ponadto wszystkie przyszłe systemy operacyjne, od edycji MacOS 11 Big Sur będą wspierały architekturę ARM i x86. Koncern poinformował też, że już całe jego oprogramowanie, włącznie z takimi programami jak Final Cut czy Logic Pro, ma swoje wersje dla ARM. Firma współpracuje też z Microsoftem i Adobe nad przygotowaniem odpowiednich wersji programów tych firm na komputery Mac z układami ARM. Trwają też prace nad emulatorem Rosetta 2, który pozwoli na uruchamianie programów dla x86 na komputerach z ARM. Pierwsze wersje demonstracyjne takiego oprogramowania jak Maya czy Shadow of the Tomb Raider, wyglądają bardzo obiecująco. Apple będzie samodzielnie przygotowywało swoje procesory ARM. Koncern informuje, że powodem podjęcia takiej decyzji była chęć zwiększenia wydajności w przeliczeniu na wat energii. Warto tutaj zauważyć, że samodzielny rozwój i produkcja procesorów pozwolą Apple'owi jeszcze bardziej zmniejszyć zależność od zewnętrznych dostawców i w jeszcze większym stopniu kontrolować sprzedawane przez siebie sprzęt i oprogramowanie. « powrót do artykułu
  9. AMD konsekwentnie zdobywa coraz silniejszą pozycję na rynku. Firma analityczna Mercury Research, z której usług korzystają m.in. AMD i Intel, poinformowała, że IV kwartał 2019 roku był już 9. kwartałem z kolei, w którym AMD zwiększało swoje udziały w rynku procesorów. Analityków zaskoczyły niewielkie postępy na rynku desktopów oraz centrów bazodanowych. W ciągu trzech ostatnich miesięcy ubiegłego roku AMD zyskało tam, odpowiednio, 0,2 i 0,3 punktu procentowego. Największe zaś postępy firma zanotowała na rynku urządzeń przenośnych, gdzie pomiędzy październikiem a grudniem 2019 roku wzrosły o 1,5 punktu procentowego. Obecnie AMD posiada 4,5% rynku serwerów (+ 1,4 pp rok do roku), 18,3% rynku desktopów (+2,4 pp rdr), 16,2% rynku urządzeń mobilnych (+ 4,0 pp rdr). Całkowity udział AMD w rynku układów x86 wynosi obecnie 15,5%. Ostatnio tak dobrym wynikiem firma mogła pochwalić się przed niemal 7 laty. Sprzedaż desktopowych CPU wzrosła dzięki dużemu popytowi na highendowe procesory dla graczy oraz dlatego, że Intel zwiększył dostawy tanich procesorów. AMD zanotowało bardzo silny wzrost sprzedaży układów z serii Ryzen 3000, a Intel duży wzrost w segmencie i9. Większość wzrostu obu firm pochodziło ze sprzedaży procesorów o największej liczbie rdzeni, mówi Dean McCarron z Mercury Research. Warto też zauważyć, że AMD zdominował Black Friday i Cyber Monday na Amazonie, gdzie jego procesory często zajmowały pierwszych 10 pozycji wśród najchętniej kupowanych układów. To jednocześnie pokazuje, że rynek klienta indywidualnego jest znacznie mniejszy niż rynek OEM, na którym tradycyjnie dominuje Intel. Koncern jest szczególnie silny w segmencie przedsiębiorstw i administracji państwowej. Klienci ci pozostają wierni platformie Intela, gdyż unikają w ten sposób kosztownych i długotrwałych procesów związanych z przejściem na inna platformę sprzętową. « powrót do artykułu
  10. Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze. Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI. Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM. Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna. Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe. Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci. Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie. Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman. Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman. Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów. Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE. Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund. Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery. « powrót do artykułu
  11. Pojawiły się pogłoski, że Intel ma zamiar znacząco obniżyć ceny procesorów 9. generacji. Jak donosi TweakTown, w obliczu zbliżającej się premiery procesorów Cascade Lake-X koncern ma zamiar obciąć ceny układów Skylake-X nawet o 50%. W ten sposób firma chce szybciej opróżnić magazyny i lepiej konkurować z AMD. Jeśli rzeczywiście dojdzie do tak znaczącej obniżki, to najprawdopodobniej Intel będzie musiał dopłacić swoim dystrybutorom i innym parterom handlowym. To obniży firmowe zyski, jednak pozwoli lepiej konkurować z AMD. Obecnie AMD oferuje lepsze ceny procesorów z przeliczeniu na rdzeń, dlatego też wielu graczy wybiera układy Ryzen 5 3600/X lub Ryzen 7 3700X i cieszy się lepszą wydajnością w grach niż w przypadku układów Core i7-8700K czy Core i9-9900K, które są ponadto droższe. Doniesienia o potężnej obniżce opierają się na slajdzie, który prawdopodobnie wyciekł z Intela. Na slajdzie widzimy, że Intel przewiduje iż na obniżki przeznaczy w bieżącymm roku 3 miliardy dolarów. Porównuje się przy tym do AMD, pokazując, że konkurent jest znacznie mniejszą firmą, której cały zysk netto wyniósł w ubiegłym roku 0,3 miliarda USD. Mimo swojej olbrzymiej przewagi finansowej i pozycji na rynku Intel woli najwyraźniej dmuchać na zimne i poważnie traktuje AMD, które od czasu premiery architektury Zen umacnia się na rynku. « powrót do artykułu
  12. Inżynierowie z intelowskiej grupy Strategic Offensive Research & Mitigation (STORM) opublikowali pracę naukową opisującą nowy rodzaj pamięci dla procesorów. Pamięć taka miałaby zapobiegać atakom side-channel wykorzystującym mechanizm wykonywania spekulatywnego, w tym atakom na błędy klasy Spectre. Wymienienie w tym kontekście dziury Spectre nie jest przypadkiem. Zespół STORM powstał bowiem po tym, jak Intel został poinformowany przez Google'a i niezależnych badaczy o istnieniu dziur Meltdown i Spectre. Przypomnijmy, że są to błędy w architekturze procesorów. Meltdown występuje niemal wyłącznie w procesorach Intela, Spectre dotyczy wszystkich procesorów wyprodukowanych przed rokiem 2019, które wykorzystują mechanizm przewidywania rozgałęzień. Dziura Spectre ma większy wpływ na procesory Intela niż innych producentów. Główny rywal Intela, AMD, w dużej mierze poradził sobie z atakami typu Spectre zmieniając architekturę procesorów Ryzen i Epyc. Intel jak dotąd walczy ze Spectre za pomocą poprawiania oprogramowania. To dlatego – jak wykazały testy przeprowadzone przez witrynę Phoronix – średni spadek wydajności procesorów Intela spowodowany zabezpieczeniami przed Spectre jest aż 5-krotnie większy niż w przypadku procesorów AMD. Inżynierowie ze STORM opisali nowy rodzaj pamięci dla procesorów, którą nazwali Speculative-Access Protected Memory (SAPM). Ma być ona odporna na obecne i przyszłe ataki typu Spectre i podobne. Członkowie grupy STORM mówią, że większość ataków typu Spectre przeprowadza w tle te same działania, a SAPM ma domyślnie blokować takie operacje, co zapobiegnie obecnym i ewentualnym przyszłym atakom. Jak przyznają badacze Intela, zaimplementowanie pamięci SAPM negatywnie wpłynie na wydajność procesorów tej firmy, jednak wpływ ten będzie mniejszy niż wpływ obecnie stosowanych łatek programowych. Mimo że spadek wydajności dla każdego przypadku dostępu do pamięci SAPM jest dość duży, to operacje tego typu będą stanowiły niewielką część operacji związanych z wykonaniem oprogramowania, zatem całkowity koszt będzie niski i potencjalnie mniejszy niż spadek wydajności spowodowany obecnie stosowanymi rozwiązaniami, czytamy w opublikowanym dokumencie. SAPM może zostać zaimplementowany zarówno na poziomie adresu fizycznego jak i wirtualnego. W tym drugim przypadku pamięć byłaby kontrolowana z poziomu systemu operacyjnego. Jeśli zaś ten zostałby skompromitowany, a tak się często dzieje, SAPM nie będzie chroniła przed atakiem. W opublikowanej pracy czytamy, że jest to praca teoretyczna, dotycząca możliwych implementacji, co oznacza, że całościowa koncepcja nie jest jeszcze gotowa i jeśli w ogóle SAPM powstanie, będzie wymagała długotrwałych szczegółowych testów. « powrót do artykułu
  13. Prawo Moore'a żyje i ma się dobrze, uważa Mark Liu, przewodniczący zarządu TSMC. Firma poinformowała właśnie o rozpoczęciu prac badawczo-rozwojowych nad 3-nanometrowym procesem technologicznym. Jak stwierdził Philip Wong, wiceprezes ds. badawczych, Prawo Moore'a będzie obowiązywało jeszcze przez dziesięciolecia i pozwoli na tworzenie układów scalonych w technologii 2 i 1 nanometra. Największym problemem dla przemysłu półprzewodnikowego, przynajmniej na Tajwanie, może być niedobór inżynierów. To brak specjalistów może zagrozić dalszemu rozwojowi TSMC. Problem z odpowiednią ilością wykształconych pracowników będzie się jeszcze pogarszał, gdyż firmy z Chin agresywnie rekrutują inżynierów w innych państwach. Chcą, wykorzystując ich dotychczasowe doświadczenie, w sposób skokowy nadrobić przepaść technologiczną, jaka dzieli je od zagranicznej konkurencji. Już w tej chwili Chińczycy agresywnie rekrutują na Tajwanie i w Korei Południowej, oferując tamtejszym inżynierom znacznie wyższe płace niż te, na jakie mogą liczyć u siebie. « powrót do artykułu
  14. Pojawiły się doniesienia, jakoby procesor Intela Core i9-9990XE miał być sprzedawany poza tradycyjnym kanałem detalicznym. Z dokumentów, do których dotarli dziennikarze, wynika, że układ będzie dostępny wyłącznie na zamkniętych online'owych aukcjach dla firm budujących systemy komputerowe. Core i9-9990XE to 14-rdzeniowy, 28-wątkowy procesor taktowany zegarem o częstotliwości od 4 do 5 GHz. Jego TDP wynosi 255 watów. Układ ma być oferowany wybranym klientom na aukcjach. Te zaś mają odbywać się raz na kwartał. Pierwszą z nich zaplanowano na trzeci tydzień bieżącego roku. To zaś oznacza, że cena procesora nie jest stała i z góry ustalona, a będzie uzależniona od tego, na ile kość wycenią potencjalni klienci. W pierwszej aukcji wezmą udział tylko 3 wybrane przez Intela firmy. Taki a nie inny system sprzedaży oznacza, że Intelowi nie zależy na tym, by Core i9-9990XE trafił na masowy rynek. Jako, że procesory te będą niezwykle precyzyjnie sortowane podczas produkcji, by odrzucić wszelkie elementy zawierające jakiekolwiek wady, można spodziewać się, że co kwartał na aukcje trafi zaledwie kilkaset sztuk. Niewykluczone, że cena pojedynczego i9-9990XE przekroczy 2000 USD. « powrót do artykułu
  15. Intel przerzuca się z producentami pecetów odpowiedzialnością za niedobory na rynku procesorów dla pecetów. W liście otwartym do klientów i partnerów Bob Swan, dyrektor ds. finansowych Intela, który tymczasowo sprawuje funkcję dyrektora wykonawczego, stwierdził, że braki na rynku procesorów wynikają z rosnącej popularności chmur obliczeniowych oraz z niespodziewanego wzrostu popytu na pecety. Analitycy spodziewają się, że po raz pierwszy od 2011 roku rynek pecetów doświadczy znaczącego wzrostu. Jednak nie wszyscy zgadzają się z Intelem. Jeszcze przed publikacją listu Swana na blogu jednego z brytyjskich producentów pecetów opublikowano wpis, w którym producent ten wini wyłącznie Intela za rynkowe problemy. Dowiadujemy się z niego, że wobec rosnącego zapotrzebowania na chmury obliczeniowe i centra bazodanowe Intel zmienił swoje priorytety i skupił się głównie na produkcji Xeonów, nie dbając o wyczerpujące się zapasy CPU dla pecetów. Wobec rosnącego zapotrzebowania na rynku komputerów osobistych oznacza to nie tylko niedobory, ale także wzrosty cen, które mogą utrzymać się jeszcze w pierwszym kwartale przyszłego roku. Niezależnie jednak od problemów z zaspokojeniem popytu, Intel ma się czym pochwalić. Nasz biznes bazodanowy wzrósł w drugim kwartale o 25%, a przychody z rynku chmur obliczeniowych zwiększyły się o 43% w pierwszym półroczu. Postępy na rynku pecetów są jeszcze bardziej zdumiewające, czytamy w liście Swana. Dobrą alternatywą dla pecetowych procesorów Intela mogą być kości AMD Ryzen, których ceny pozostają stabilne. Jednak nie wszyscy klienci dadzą się przekonać do zakupu kości AMD, więc producenci komputerów osobistych nie mają innego wyjścia jak poczekać, aż na rynek trafi wystarczająca ilość produktów Intela. « powrót do artykułu
  16. Chiński gigant internetowy, Alibaba Group, poinformował o przejęciu firmy C-Sky Microsystems. Zakupione przez Alibabę przedsiębiorstwo specjalizuje się w projektowaniu 32-bitowych rdzeni CPU. Działania Alibaby to kolejny przykład najnowszego tredu, zgodnie z którym firmy takie jak Google czy Amazon przejmują producentów układów scalonych, by projektować kości pasujące do ich modelu biznesowego. C-Sky powstała w Hangzhou w 2001 roku i od dłuższego czasu miała unikatowe stosunki z Alibabą. Była m.in. pierwszą firmą półprzewodnikową, w którą Alibaba zainwestowała znaczne sumy. Profesor Xiaolang Yan, założyciel i szef C-Sky od dawna starał się uświadomić Alibabie, że sprzęt jest kluczowym elementem przyszłego sukcesu internetowego giganta. W 2003 roku C-Sky opracowało swój pierwszy rdzeń CK510. Od tamtej pory firma powiększyła swoją ofertę, w której znajduje się obecnie wiele modeli 32-bitowych energooszczędnych CPU o wysokiej wydajności. Przedsiębiorstwo specjalizuje się projektowaniu układów, które następnie licencjonuje. W ofercie firmy, obok rdzeni CPU, są platformy SoC oraz narzędzia programistyczne. W ubiegłym roku C-Sky miało 70 klientów w Chinach. C-Sky działa na rynku urządzeń wbudowanych oraz Internet-of-Things. Firma nie ma zamiaru wchodzić na rynek smartfonów. Oczywiście pozostaje pytanie, czy przedsiębiorstwo to ma jakiekolwiek szanse w starciu z takimi gigantami jak np. ARM. Warto jednak zauważyć, że chińskie firmy półprzewodnikowe mogą liczyć na silne wsparcie rządu Państwa Środka. Władze w Pekinie chcą bowiem uniezależnić swój przemysł IT od producentów zewnętrznych. « powrót do artykułu
×
×
  • Dodaj nową pozycję...