Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Największy na świecie procesor jest szybszy niż procesy fizyczne. Zrewolucjonizuje sztuczną inteligencję?

Recommended Posts

Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona.

O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali.

CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU.

Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych.
Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych.

Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s.

Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy.

Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci.

Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp.

Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych.

Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego.

Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni).


« powrót do artykułu

Share this post


Link to post
Share on other sites
Cytat

szybszy niż procesy fizyczne, które symuluje

To teraz wyobraźmy sobie, że symuluje Twój mózg. Kim jesteś?

Share this post


Link to post
Share on other sites

No to pięknie.

Ciekawe jak to będzie wyglądać za jakiś czas, może nie ma sensu już kodować i robić inne, powtarzalne rzeczy i czas się przebranżowić na Picassa? ( z moim talentem wchodzi jeszcze w grę ekspresjonizm :P )

EDIT: a nie, czekaj, malarstwo też odpada. Szydełkowanie może na razie, szaliczki na drutach?

Edited by radar

Share this post


Link to post
Share on other sites
1 godzinę temu, radar napisał:

z moim talentem wchodzi jeszcze w grę ekspresjonizm :P

Raczej bym uważał, bo "ekspresja" nie wystarczy. Osobiście polecam prymitywizm, bo to ciężki temat, a AI jeszcze nie bardzo chyba rozróżnia prymitywizm od buraczyzmu. ;)

1 godzinę temu, radar napisał:

EDIT: a nie, czekaj, malarstwo też odpada.

No :)

1 godzinę temu, radar napisał:

Szydełkowanie może na razie, szaliczki na drutach?

Eee. To da się zakodować prosto bez AI. Osobiście zrobiłem na drutach parę szalików (oczywiście jedynie słusznych) i da się to robić przysypiając przy mózgowym zużyciu energii na poziomie minimum.

Share this post


Link to post
Share on other sites

Nie jestem pewien tego"powera" tego przerośniętego procka. Sami autorzy delikatnie sugerują że ma przewagę nad maluchami tylko w specyficznych zastosowaniach, przy algorytmach które słabo się skalują , które wymieniają dużo danych między wątkami. 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Od dekad tranzystory są mniejsze i mniejsze. Dzięki temu w procesorze możemy upakować ich więcej. To zaś najłatwiejszy sposób na zwiększenie wydajności procesora. Powoli zbliżamy się do momentu, w którym nie będziemy już w stanie zmniejszać długości bramki tranzystora. Niewykluczone, że Chińczycy właśnie dotarli do tej granicy.
      Prąd w tranzystorze przepływa pomiędzy źródłem a drenem. Przepływ ten kontrolowany jest przez bramkę, która przełącza się pod wpływem napięcia. Długość bramki to kluczowy czynnik decydujący o rozmiarach tranzystora.
      W ostatnich latach naukowcy zaczęli eksperymentować z nowymi materiałami, z których chcą budować elektronikę przyszłości. W obszarze ich zainteresowań jest na przykład grafen – dwuwymiarowy materiał składający się z pojedynczej warstwy atomów węgla – czy disiarczek molibdenu, czyli warstwa atomów molibdenu zamknięta między dwiema warstwami siarki.
      Teraz specjaliści z Chin wykorzystali te materiały do zbudowania rekordowo małego tranzystora. Długość jego bramki wynosi zaledwie 0,34 nanometra. To tyle, co średnica atomu węgla.
      Nowy tranzystor można porównać do dwóch schodów. Na górnym znajduje się źródło, na dolnym zaś dren. Oba zbudowane są z tytanu i palladu. Powierzchnia schodów działa jak łączący je kanał. Jest ona zbudowana w pojedynczej warstwy disiarczku molibdenu, pod którą znajduje się izolująca warstwa ditlenku hafnu. Wyższy stopień zbudowany jest z wielu warstw. Na samy dole znajduje sie warstwa grafenu, nad nią zaś aluminium pokryte tlenkiem aluminium. Jego zadaniem jest oddzielenie grafenu i disiarczku molibdenu. Jedynym miejscem ich połączenia jest widoczna na grafice niewielka szczelina w wyższym stopniu.
      Gdy bramka zostaje ustawiona w pozycji „on” jej długość wynosi zaledwie 0,34 nm. Autorzy nowego tranzystora twierdzą, że nie uda się tej odległości już bardziej zmniejszyć. Na pewno zaś próba zbudowania jeszcze mniejszych tranzystorów będzie wymagała nowatorskiego podejścia do materiałów dwuwymiarowych.
      Ze szczegółami pracy zespołu z Tsinghua University można zapoznać się na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wiele trapiących nas chorób ma związek z nieprawidłowo działającymi komórkami. Być może udało by się je skuteczniej leczyć, ale najpierw naukowcy muszą szczegółowo poznać budowę i funkcjonowanie komórek. Dzięki połączeniu sztucznej inteligencji oraz technik mikroskopowych i biochemicznych uczeni z Wydziału Medycyny Uniwersytetu Kalifornijskiego w San Diego (UCSD) dokonali ważnego kroku w kierunku zrozumienia komórek ludzkiego organizmu.
      Dzięki mikroskopom możemy dojrzeć struktury komórkowe wielkości pojedynczych mikrometrów. Z kolei techniki biochemiczne, w których wykorzystuje się pojedyncze proteiny, pozwalają na badanie struktur wielkości nanometrów, czyli 1/1000 mikrometra. Jednak poważnym problemem w naukach biologicznych jest uzupełnienie wiedzy o tym, co znajduje się w komórce pomiędzy skalą mikro- a nano-. Okazuje się, że można to zrobić za pomocą sztucznej inteligencji. Wykorzystując dane z wielu różnych źródeł możemy ją poprosić o ułożenie wszystkiego w kompletny model komórki, mówi profesor Trey Ideker z UCSD.
      Gdy myślimy o komórce, prawdopodobnie przyjdzie nam do głowy schemat ze szkolnych podręczników do biologii, z jego mitochondrium, jądrem komórkowym i retikulum endoplazmatycznym. Jednak czy jest to pełny obraz? Zdecydowanie nie. Naukowcy od dawna zdawali sobie sprawę z tego, że więcej nie wiemy niż wiemy. Teraz w końcu możemy przyjrzeć się komórce dokładniej, dodaje uczony. Ideker i Emma Lundberg ze szwedzkiego Królewskiego Instytutu Technicznego stali na czele zespołu, który jest autorem najnowszego osiągnięcia.
      Wykorzystana przez naukowców nowatorska technika nosi nazwę MuSIC (Multi-Scale Integrated Cell). Podczas pilotażowych badań MuSIC ujawniła istnienie około 70 struktur obecnych w ludzkich komórkach nerek. Połowa z nich nie była dotychczas znana. Zauważono np. grupę białek tworzących nieznaną strukturę. Po bliższym przyjrzeniu się naukowcy stwierdzili, że wiąże ona RNA. Prawdopodobnie struktura ta bierze udział w splicingu, czyli niezwykle ważnym procesie składania genu.
      Twórcy MuSIC od lat próbowali stworzyć mapę procesów zachodzących w komórkach. Tym, co różni MuSIC od podobnych systemów jest wykorzystanie technik głębokiego uczenia się do stworzenia mapy komórki bezpośrednio z obrazów mikroskopowych. System został wyćwiczony tak, by bazując na dostępnych danych stworzył model komórki. Nie mapuje on specyficznych struktur w konkretnych lokalizacjach, tak jak mamy to w schematach uczonych w szkole, gdyż niekoniecznie zawsze znajdują się one w tym samym miejscu.
      Na razie w ramach badań pilotażowych uczeni opracowali za pomocą MuSIC 661 protein i 1 typ komórki. Następnym celem badań będzie przyjrzenie się całej komórce, a później innym rodzajom komórek, komórkom u różnych ludzi i u różnych gatunków zwierząt. Być może z czasem będziemy w stanie lepiej zrozumieć molekularne podstawy różnych chorób, gdyż będziemy mogli wyłapać różnice pomiędzy zdrowymi a chorymi komórkami, wyjaśnia Ideker.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Powszechna obecność komputerów kwantowych to wciąż dość odległa przyszłość, jednak specjaliści już pracują nad kryptografią postkwantową, czyli technikami kryptograficznymi mającymi na celu uchronienie nas przed atakami przeprowadzanymi za pomocą komputerów kwantowych. Algorytmy takie wymagają jednak olbrzymich mocy obliczeniowych. Teraz naukowcy z Niemiec ogłosili, że stworzyli układ scalony, który bardzo efektywnie wykorzystuje tego typu algorytmy i może rozpocząć epokę kryptografii postkwantowej.
      Większość współczesnej kryptografii korzysta z faktu, że komputery klasyczne potrzebują bardzo dużo czasu do rozwiązania złożonych problemów matematycznych, takich jak faktoryzacja (rozkład na czynniki) wielkich liczb. Jednak komputery kwantowe będą radziły sobie z takimi obliczeniami błyskawicznie. A przeprowadzenie udanej faktoryzacji oznacza we współczesnej kryptografii złamanie szyfru.
      Dlatego też specjaliści już od lat projektują algorytmy dla kryptografii postkwantowej. To problemy matematyczne, które mają sprawiać dużą trudność zarówno komputerom klasycznym jak i kwantowym. Wiele z nich to algorytmy kratowe. Ta krata to zbiór punktów w przestrzeni z periodyczną strukturą. W strukturze tej można zapisać wektory. Zaszyfrowana wiadomość zależy od jednego z tych punktów/wektorów. Do kraty dodawany jest też losowy szum, a cała trudność polega na tym, by – nie wiedząc jaki szum został dodany – znaleźć oryginalny punkt/wektor za pomocą którego zaszyfrowano wiadomość i go odszyfrować.
      Odszyfrowanie tak zabezpieczonej wiadomości jest trudne zarówno dla komputerów klasycznych jak i kwantowych. Jednak wykorzystanie takiego algorytmu wymaga bardzo dużych mocy obliczeniowych. Georg Sigl i jego koledzy z Uniwersytetu Technicznego w Monachium właśnie rozwiązali ten problem.
      Wspólnie z Siemensem, Infineonem i Giesecke+Devrient stworzyli układ scalony oparty na opensource'owej architekturze RISC-V. Zarówno układ jak i pracujące na nim oprogramowanie zostały zoptymalizowane pod kątem pracy z algorytmami kratowymi.
      W porównaniu z rozwiązaniami bazującymi tylko na oprogramowaniu, nowy układ jest 10-krotnie szybszy podczas pracy z Kyberem, jednym z najbardziej obiecujących algorytmów kratowych. Wykorzystuje też 8-krotnie mniej energii. Co więcej układ jest na tyle elastyczny, że pracuje też z SIKE, innym algorytmem kryptografii postkwantowej, który nie jest algorytmem kratowym. W tym przypadku ma być on 21-krotnie szybszy niż rozwiązania czysto software'owe.
      Twórcy nowego układu pracują też nad rozwiązaniem innego problemu bezpieczeństwa – trojanów sprzętowych. To złośliwe elementy sprzętowe celowo wprowadzane do układów scalonych. Sigle i jego grupa wbudowali w swój układ cztery takie trojany.
      Aby wiedzieć, czy można zaufać danemu chipowi, musimy posiadać metody jego weryfikacji. Chcemy się dowiedzieć, w jaki sposób można sprawdzić sam sprzęt i wykryć w nim sprzętowe trojany, wyjaśnia Sigl. Każdy z trojanów, które badają specjaliści z Monachium, działa w inny sposób. Jeden może zmniejszać wydajność układu, inny zaś przekazywać dane na zewnątrz. Celem badań jest stworzenie metod identyfikacji tego typu zagrożeń. Na razie udało się opracować trzy metody wykrywania sprzętowych trojanów na etapie projektowania układu scalonego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jeszcze w bieżącym roku ma zadebiutować kolejna edycja systemu operacyjnego Microsoftu – Windows 11. Koncern z Redmond opublikował minimalną specyfikację sprzętową, jaka będzie koniczna, by zaktualizować komputer i okazało się, że wielu użytkowników nie będzie mogło tego zrobić. Windows 11 nie będzie bowiem wspierał wszystkich procesorów. Nie zainstalujemy go na procesorze starszym nią 4–5 lat.
      Microsoft opublikował dokładne listy układów Intela, AMD i Qualcommu, na których można będzie zainstalować najnowszy system operacyjny. Co ciekawe, na liście tej nie ma układu Intel Core i7-7820HQ, który używany jest w microsoftowym notebooku Surface Studio 2. Jak można się domyślać, użytkownicy tego sprzętu nie są zbytnio zadowoleni z faktu, że nie otrzymają najnowszego Windowsa.
      Jednak nie tylko oni. MiIiony osób korzystających obecnie z Windows 10 nie będzie mogło zaktualizować systemu do jego najnowszej edycji. Za pomocą aplikacji PC Health Check możemy sprawdzić, czy nasz komputer spełnia minimalne wymagania, by zainstalować na nim Windows 11.
      Nie do końca jest jasne, na ile ściśle zasady te będą jednak przestrzegane. Już wcześniej menedżerowie Microsoftu sugerowali, że – po wyświetleniu ostrzeżenia – Windows 11 zainstaluje się na części teoretycznie niewspieranych procesorów. Na stronie polskiego Microsoftu czytamy, że na urządzeniach, które nie spełniają minimalnych wymagań zainstalowanie Windows 11 może okazać się niemożliwe.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...