Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

WSE 2, gigantyczny procesor dla sztucznej inteligencji, zawiera 2,6 biliona tranzystorów

Rekomendowane odpowiedzi

Przed rokiem firma Cerebras Systems zaprezentowała największy w historii procesor o gigantycznej mocy obliczeniowej, który pokonał najpotężniejszy superkomputer, symulując procesy fizyczne szybciej, niż odbywają się one w rzeczywistości. Teraz firma ogłosiła, że stworzyła drugą wersję swojego procesora i udostępni go w 3. kwartale bieżącego roku. Wafer Scale Engine 2 (WSE 2) ma ponaddwukrotnie więcej tranzystorów, rdzeni i pamięci niż WSE 1.

Trenowanie systemów sztucznej inteligencji trwa wiele tygodni. To zdecydowanie zbyt długo, gdyż w takiej sytuacji można wytrenować tylko kilka sieci rocznie. Jeśli zaś moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.

Mogą w tym pomóc właśnie olbrzymie procesory WSE. Ich twórcy zauważyli, że rozwiązaniem problemu wąskiego gardła, którym jest konieczność ciągłego przesyłania danych pomiędzy procesorem a układami pamięci, będzie zbudowanie wielkiego procesora, który będzie w stanie przechować wszystkie potrzebne dane w swoich rdzeniach.

Oba procesory WSE mają powierzchnię 46 255 mm2. Dla porównania procesor Nvidia A100 ma powierzchnię 826 mm2. WSE 2 korzysta z 2,6 biliona tranzystorów (WSE 1 z 1,2 biliona, a A100 z 54,2 miliardów). Najnowszy procesor Cerebras składa się z 850 000 rdzeni (WSE 1 ma ich 400 000, A100 – 7344). W WSE 2 zastosowano 40 gigabajtów pamięci. TO aż 1000-krotnie więcej niż w A100 i ponaddwukrotnie więcej niż w WSE 1. Ponadto rdzenie WSE 2 wymieniają między sobą dane z prędkością 200 PB/s, podczas gdy A100 przekazuje dane z prędkością 155 GB/s, a WSE 1 z prędkością 9 PB/s. Najnowszy procesor Cerebras został wykonany w technologii 7nm, czyli tej samej co A100. WSE 1 korzystał z 16nm.

Cerebras zapewnia, że udoskonalił również samą mikroarchitekturę WSE 2 tak, by jeszcze lepiej spełniał on zadania stawiane przed systemami sztucznej inteligencji.

Firma może pochwalić się rosnącą liczbą klientów, którzy prowadzą na WSE 1 i mają zamiar prowadzić na WSE 2 niezwykle złożone obliczenia. Wśród klientów tych jest Argonne National Lab, które wykorzystuje WSE do prac nad lekami na nowotwory, badania COVID-19, badania fal grawitacyjnych czy badań nad nowymi materiałami. Z kolei Edinburgh Parallel Computing Centre używa WSE do przetwarzania języka naturalnego i badań genetycznych. Koncern farmaceutyczny GlaxoSmithKline poszukuje nowych leków za pomocą WSE 1, a Lawrence Livermore National Lab symuluje fuzję jądrową, prowadzi badania nad traumatycznymi uszkodzeniami mózgu.

Wśród klientów Cerebras jest też wiele firm z przemysłu ciężkiego, wojskowego czy wywiadu.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fajnie by się kopało krypto :)
Na której to uczelni kopali na superkompie?
Byłem miesiąc czy dwa temu w czyimś domu - szukałem do zakupu - wchodzę do garażu - patrzę z 8 kart graficznych na stelażu.
Potem jeszcze w kilku pomieszczeniach to samo :)

Czyli łącznie tych kart graficznych to tam było ponad 20. Ze 100 PLN/dzień powinno dawać.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, thikim napisał:

Fajnie by się kopało krypto :)

wydaje mi się że kopanie to monotonne powtarzanie tych samych, prostych, zmiennoprzecinkowych operacji. Nie wiem czy w tym zastosowaniu ten wafel byłby szybszy od zwykłej karty graficznej.

Zresztą, to jest firma prywatna nie mająca żadnych ograniczeń, więc jakby dobrze to kopało to na pewno by to kopało w piwnicach firmy i dało by to się odczuć na rynku kryptowalut.

 

Edytowane przez tempik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie do końca.
Jeśli masz superkomputer który możesz wynająć za jakąś kasę do poważnych rzeczy - to to robisz, bo jest to bardziej opłacalne niż kopanie krypto.
Jest cała masa bardziej dochodowych rzeczy niż kopanie krypto. 
Ale kopanie ma jedną zaletę: kopać każdy może a nie każdy dostanie zlecenie za tysiące $ żeby udostępnić swój komp na parę "minut".

Godzinę temu, tempik napisał:

Nie wiem czy w tym zastosowaniu ten wafel byłby szybszy od zwykłej karty graficznej.

Od zwykłej karty to raczej na pewno jest szybszy. Przeciętny średniak graficzny to zysk 10 x w stosunku do przeciętnego procesora.
Ale od ASICów(iluś na jednej płytce) to już może być wolniejszy.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, tempik said:

wydaje mi się że kopanie to monotonne powtarzanie tych samych, prostych, zmiennoprzecinkowych operacji. Nie wiem czy w tym zastosowaniu ten wafel byłby szybszy od zwykłej karty graficznej.

Na pewno byłby szybszy niż GPU, ale prawdopodobnie mniej wydajny energetycznie niż odpowiednik na kartach. Zwłaszcza jak potrafii przeprowadzać bardziej skomplikowane operacje niż mielenie haszy z losowych danych w zamian za spalony węgiel. Tak na szybko GeForce GTX 1080 ma 7.2 miliona tranzystorów, a ten superkomputer 2.6 miliarda.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
41 minut temu, thikim napisał:

Jeśli masz superkomputer który możesz wynająć za jakąś kasę do poważnych rzeczy - to to robisz, bo jest to bardziej opłacalne niż kopanie krypto.
Jest cała masa bardziej dochodowych rzeczy niż kopanie krypto

Ale patrzysz na to jak na kogoś kto kupuje ten sprzęt za tysiące czy mln $ i ma dylemat jak najlepiej wykorzystać maszynę którą kupił. A tu mamy firmę która je produkuje, i nie robią tego robotnicy, miesiącami wykuwając ze stali. Mają gotowy projekt, matrycę, skalibrowane maszyny. Ile ich fizycznie kosztuje żeby wsadzić zamiast 2 to 200 plastrów krzemu? więc jaki problem za śmieszne pieniądze(koszt krzemu, prądu) zrobić sobie 1000x takich z przeznaczeniem na kopanie, żeby pochwalić się akcjonariuszom wielokrotnie większym zyskiem?

Edytowane przez tempik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W niedawno opublikowanym wywiadzie Mark Zuckerberg stwierdził, że prawdopodobnie jeszcze w bieżącym roku firma Meta (właściciel Facebooka), podobnie jak inne wielkie firmy, będzie dysponowała systemem sztuczne inteligencji zdolnym do programowania na poziomie średnio doświadczonego inżyniera (mid-level engineer).
      Początkowo wdrożenie takich systemów będzie bardzo kosztowne i będą one musiały zyskać na wydajności, jednak z czasem dojdziemy to momentu, w którym bardzo duża część kodu używanych przez nas aplikacji, w tym kodu algorytmów sztucznej inteligencji, nie będzie pisana przez ludzi, a przez sztuczną inteligencję, stwierdził założyciel Facebooka.
      Słowa Zuckerberga to tylko jeden z sygnałów, że branżę programistyczną mogą w najbliższym czasie czekać olbrzymie zmiany. Sami programiści z jednej strony tworzą algorytmy sztucznej inteligencji, które w przyszłości mogą ich zastąpić, z drugiej zaś, coraz częściej korzystają z ich pomocy. Jeszcze na początku 2023 roku tylko 10% programistów używało AI do pomocy w programowaniu, pod koniec roku 2023 już 63% firm używało lub wdrażało użycie narzędzi AI pomagających w programowaniu. Pod koniec ubiegłego roku odsetek ten wzrósł do 80%.
      Zuckerberg nie jest jedynym wśród wiodących biznesmenów z branży IT, który zapowiada szybkie nadejście olbrzymich zmian. We wrześniu Matt Garman, szef Amazon Web Services, zasugerował, że w ciągu najbliższych 2 lat większość inżynierów oprogramowania przestanie zajmować się programowaniem. Zaś kilka miesięcy wcześniej prezes Nvidii stwierdził, że uczenie się programowania nie jest dobrym pomysłem, gdyż dzięki rozwojowi AI ludzki język staje się najważniejszym językiem programowania.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomiędzy lipcem 2021 roku a lutym 2023 roku 12 centrów mammograficznych w Niemczech brało udział w programie, w którym badania mammograficzne były wspomagane przez system sztucznej inteligencji. Radiolodzy sami decydowali, kiedy wykorzystać AI, a kiedy wykonać badania tradycyjnymi metodami. W tym czasie we wspomnianych centrach 119 radiologów przebadało 463 094 kobiety w wieku 50–69 lat. W przypadku 260 739 z nich diagnoza była wspomagana przez sztuczną inteligencję, pozostała część stanowiła grupę kontrolną.
      W grupie, w której badania wspomagane były przez AI, odsetek wykrytych nowotworów piersi wyniósł 0,67%, podczas gdy w grupie badanej tradycyjnymi metodami było to 0,57%. Ponadto tam, gdzie do badania użyto AI odsetek pań poddanych pogłębionej diagnostyce wyniósł 3,74%, a w grupie kontrolnej – 3,83%. Wartość predykcyjna dodatnia (PPV) dla grupy badanej przez AI wynosiła 17,9%, dla grupy kontrolnej – 14,9%. PPV pokazuje tę część podejrzanych wyników mammografii, które w pogłębionej diagnostyce rzeczywiście reprezentują chorobę.
      Najważniejszym wskaźnikiem przydatności algorytmu sztucznej inteligencji w badaniach mammograficznych jest fakt, że zwiększył on wykrywalność choroby bez zwiększania potrzeby przeprowadzenia pogłębionej diagnostyki. To już kolejne badania, które pokazały, że algorytmy sztucznej inteligencji rzeczywiście wspomagają pracę radiologów i mogą ratować życie kobiet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W latach 1967–1978 roku Włoska Wyprawa Archeologiczna ISMEO prowadziła pierwsze badania w Shahr-i Sokhta (SiS) w Iranie. Szybko okazało się, że miasto składało się z trzech obszarów: mieszkalnego, cmentarza i przemysłowego. Jego największy rozkwit przypadł na połowę III tysiąclecia przed naszą erą, gdy obszar mieszkalny zajmował 80 hektarów. Miasto uznano za jeden z najważniejszych ośrodków na wschodzie Wyżyny Irańskiej. Zidentyfikowano tam cztery okresy kulturowe podzielone na 10 faz konstrukcyjnych, które datowano na od 2. połowy IV tysiąclecia do połowy III tysiąclecia. W południowej części miasta znaleziono duży cmentarz o powierzchni około 20 hektarów, a w jednym z grobów planszę do gry i bierki.
      Datowanie wykazało, że gra pochodzi z lat 2600–2700 p.n.e. W grobie nie znaleziono żadnej innej planszy, założono więc, że wszystkie bierki pochodzą z tej jednej gry i że jest ona kompletna. Planszę do gry złożono w pobliżu głowy zmarłej osoby, w pobliżu zaś stał koszyk z bierkami i kostkami. Plansza jest podobna do wcześniej znajdowanych plansz, ale istnieją między nimi też duże różnice. Kształt planszy z SiS jest niezwykle podobny do słynnej Królewskiej Gry z Ur, jednak gra z SiS ma więcej bierek i nie ma na niej rozety, która wydaje się bardzo ważnym elementem tego typu gier, znanych pod zbiorową nazwą „gier na 20 kwadratach”.
      Z Bliskiego Wschodu i spoza niego znamy ponad 100 plansz, w pewnej mierze do siebie podobnych, a w wielu aspektach różnych, które klasyfikowane są pod tą nazwą. Znaleziono je w Turkmenistanie czy Indiach. Podobnej gry używali Egipcjanie ok. 1580 roku p.n.e. Prawdopodobnie zapoznali się z nią za pośrednictwem Hyksosów. Podobne gry były popularne przez około 2000 lat.
      Autorzy nowych badań zaprzęgli algorytmy sztucznej inteligencji, do pracy nad odgadnięciem zasad gry. Wykorzystanie metod obliczeniowych do badań starożytnych gier, pozwala na symulowanie tysięcy możliwych zestawów zasad i wybranie tych najbardziej prawdopodobnych czy pasujących do gry i bierek.
      Gra z Shahr-i Sokhta wydaje się grą strategiczną – rodzajem wyścigu – podobną do Królewskiej Gry z Ur, ale bardziej złożoną. Zdaniem naukowców, mamy tutaj do czynienia z grą 2-osobową, a celem gracza jest przesunięcie przez pola planszy wszystkich 10 swoich bierek, zanim zrobi to przeciwnik. W grze gracze posługują się kostką i mogą wykorzystywać swoje bierki zarówno do jak najszybszego dotarcia do celu, jak i do blokowania ruchów przeciwnika. Badacze sugerują, że dodatkowe bierki, dzięki którym gra różni się np. od gry z Ur, dodawały jej złożoności. Widzimy wśród nich na przykład rozety, podobne do rozet, które w grze w Ur narysowane są na planszy. W przeciwieństwie do Królewskiej Gry z Ur, w przypadku gry z SiS losowość odgrywa mniejszą rolę, a większa rolę gra strategia.
      Po określeniu najbardziej prawdopodobnych zasad, grę z SIS przetestowało 50 doświadczonych graczy, który ocenili ją i porównali z Królewską Grą z Ur. Przyznali, że gra z SiS jest bardziej wymagająca pod względem strategii niż gra z Ur.
      Szczegóły badań zostały opublikowane na łamach Journal of the British Institute of Persian Studies. Gra z Shahr-i Sokhta została znaleziona w bogato wyposażonym grobie, ale nie był to grób królewski, co wskazuje, że była bardziej dostępna niż gra dla najwyższej elity.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...