Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Superkomputer w kostce cukru?

Recommended Posts

Doktor Bruno Michel z IBM Zurich twierdzi, że w ciągu kilkunastu lat mogą powstać superkomputery wielkości... kostki cukru. Będzie to możliwe dzięki nowemu podejściu do projektowania komputerów, które umożliwi układanie procesorów jeden na drugim. Układy będą chłodzone wodą przepływającą pomiędzy nimi.

Architektura, nad którą pracuje IBM, nie ma jednak na celu zmniejszanie wielkości superkomputerów, a zbudowanie energooszczędnych maszyn.

Obecnie około 2% światowego zużycia energii przypada na sprzęt komputerowy. Zdaniem Michela, w przyszłości musimy skupić się nie na zwiększaniu mocy komputerów a na zmniejszaniu przez nie zużycia energii.

Michel wraz z zespołem zaprezentowali prototypowy system Aquasar. Rozmiarami przekracza on znacznie kostkę cukru, gdyż jest większy od lodówki. Jednak Aquasar zużywa o niemal 50% mniej energii niż najbardziej wydajne superkomputery.

Jak zauważył Michel, w przeszłości podstawowym problemem były ceny sprzętu. Przed 50 lat pojedynczy tranzystor kosztował dolara. Obecnie koszty produkcji pojedynczego tranzystora są stukrotnie mniejsze od kosztów wydrukowania pojedynczego znaku na papierze. Tak znaczący spadek cen spowodował, że koszty nie są już przeszkodą na drodze do powstania superkomputerów przyszłości. Tym, co martwi specjalistów, są koszty energii potrzebnej mu do pracy. Michel przewiduje, że w przyszłości koszty operacyjne centrum bazodanowego będą wyższe niż koszty jego budowy. A do gwałtownego wzrostu zapotrzebowania na energię przyczynia się konieczność chłodzenia systemów komputerowych.

Dlatego też coraz większą wagę przywiązuje się do zużycia energii. Obecnie najbardziej wydajne superkomputery są w stanie wykonać około 770 milionów operacji na sekundę zużywając przy tym 1 wat mocy. Aquasar zużywa 1 wat wykonując 1,1 miliarda operacji na sekundę. System jest jednak dość duży, dlatego też Michel i jego zespół pracują nad jego zmniejszeniem. "Obecnie zbudowaliśmy system Aquaser, który składa się z szafy pełnej procesorów. Planujemy, że za 10-15 lat zmniejszymy go do rozmiarów kostki cukru" - mówi Michel.

Przed naukowcami piętrzą się jednak poważne problemy. Samo dostarczenie danych do miejsca, gdzie są one używane do przeprowadzenia obliczeń wymaga 1000-krotnie więcej energii niż jest zużywane podczas liczenia. Ponadto samo przesyłanie danych jest głównym czynnikiem opóźniającym wszelkie operacje logiczne. Systemy muszą być zatem chłodzone nie tylko tam, gdzie odbywają się obliczenia, ale również i tam, gdzie przesyłane są dane. Zapewnianie odbioru ciepła jest niezwykle skomplikowaną operacją. Jak mówi Michel, układ składający się z 1 miligrama tranzystorów wymaga obecnie urządzeń chłodzących o wadze 1 kilograma. Potrzebne jest zatem nowe podejście do kwestii przesyłania danych, obliczeń i chłodzenia. Im większy dystans dzieli układy, tym więcej energii jest zużywane i tym więcej ciepła wydzielane. Rozwiązaniem problemu byłoby układanie procesorów na sobie. Taka architektura wymaga jednak opracowania nowych systemów chłodzących.

Share this post


Link to post
Share on other sites

Takie podejście wydaje się sensowne, ale trzeba czasu żeby technologię warstwowych procków dopracować, no i to chłodzenie wodne takiego procesora pewnie będzie sprawiało wiele problemów.

 

Na chwilę obecną skupiłbym się bardziej na wykorzystaniu już wyprodukowanego ciepła. Czytałem jakiś czas temu (chyba nawet na kopalni wiedzy) że w jakimś kampusie studenckim podgrzewają basen i pomieszczenia dla studentów ciepłem wydzielanym przez serwerownię... I to jest moim zdaniem naprawdę dobre rozwiązanie. Lepiej gospodarować tym co już mamy!

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      W mediach pojawiły się informacje, z których wynika, że podczas targów CES 2020 Intel zaprezentuje technologię, która pozwoli na pozbycie się wentylatorów z notebooków. Takie rozwiązanie pozwoliłoby na budowanie lżejszych i cieńszych urządzeń. Podobno na targach mają zostać zaprezentowane gotowe notebooki z technologią Intela.
      Część mediów pisze, że nowatorskie rozwiązanie to połączenie technologii komory parowej (vapor chamber) i grafitu. W technologii komory parowej płynne chłodziwo paruje na gorącej powierzchni, którą ma schłodzić, unosi się do góry, oddaje ciepło i ulega ponownej kondensacji. Rozwiązanie takie od lat stosuje się np. w kartach graficznych, jednak zawsze w połączeniu z wentylatorem, odprowadzającym ciepło z powierzchni, do której jest ono oddawane przez chłodziwo. Podobno Intel był w stanie pozbyć się wentylatora, dzięki poprawieniu o 25–30 procent rozpraszania ciepła.
      Obecnie w notebookach systemy chłodzące umieszcza się pomiędzy klawiaturą a dolną częścią komputera, gdzie znajduje się większość komponentów wytwarzającyh ciepło. Intel miał ponoć zastąpić systemy chłodzące komorą parową, którą połączył z grafitową płachtą umieszczoną za ekranem, co pozwoliło na zwiększenie powierzchni wymiany ciepła.
      Z dotychczasowych doniesień wynika również, że nowy projekt Intela może być stosowany w urządzeniach, które można otworzyć maksymalnie pod kątem 180 stopni, nie znajdzie więc zastosowania w maszynach z obracanym ekranem typu convertible. Podobno jednak niektórzy producenci takich urządzeń donoszą, że wstępnie poradzili sobie z tym problemem i w przyszłości nowa technologia trafi też do laptopów z obracanymi ekranami.
      Niektórzy komentatorzy nie wykluczają, że Intel wykorzystał rozwiązania z technologii k-Core firmy Boyd, która wykorzystuje grafit do chłodzenia elektroniki w przemyśle satelitarnym, lotniczym i wojskowym.
      Obecnie na rynku są dostępne przenośne komputery bez wentylatorów, są to jednak zwykle ultrabooki czy mini laptopy. Pełnowymiarowych maszyn jest jak na lekarstwo i nie  są to rozwiązania o najmocniejszych konfiguracjach sprzętowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Do 2020 r. naukowcy z Akademii Górniczo-Hutniczej w Krakowie zbudują, razem z partnerami europejskimi, superkomputer. Będzie on 10 razy szybszy niż obecnie działający najszybszy komputer w Europie – poinformowało Ministerstwo Nauki i Szkolnictwa Wyższego.
      Ów superkomputer trafi do jednego z ośmiu ośrodków obliczeń superkomputerowych, których lokalizację ogłosiła w piątek Komisja Europejska. Europejskie superkomputery będą wspierać naukowców, przemysł i przedsiębiorstwa w opracowywaniu nowych zastosowań w wielu dziedzinach – od tworzenia leków i nowych materiałów, po walkę ze zmianą klimatu.
      Prace odbędą się w ramach Europejskiego Wspólnego Przedsięwzięcia w dziedzinie Obliczeń Wielkiej Skali (EuroHPC Joint Undertaking).
      Deklarację o przystąpieniu Polski do EuroHPC podpisał w 2018 wicepremier, minister nauki i szkolnictwa wyższego Jarosław Gowin.
      Jak podało Ministerstwo Nauki i Szkolnictwa Wyższego (MNiSW), Polska jest jednym z ośmiu krajów, które wchodzi w skład konsorcjum LUMI (Large Unified Modern Infrastructure). Razem z Finlandią, Belgią, Czechami, Danią, Norwegią, Szwecją i Szwajcarią weźmie udział w opracowaniu, instalacji i udostępnieniu naukowcom superkomputera przed-eksaskalowego. Instalacja planowana jest już w roku 2020 i odbędzie się w fińskim centrum danych w Kajaani.
      Polskę w konsorcjum LUMI reprezentuje Akademickie Centrum Komputerowe Cyfronet Akademii Górniczo-Hutniczej w Krakowie, operator najszybszego w Polsce superkomputera Prometheus.
      Planowana moc obliczeniowa superkomputera będzie ok. 10 razy większa od szwajcarskiego Piz Daint – najszybszego superkomputera działającego obecnie w Europie. Dzięki temu europejscy naukowcy i przedsiębiorcy zyskają narzędzie dostępne do tej pory jedynie światowym liderom w zakresie obliczeń wielkiej skali: USA, Japonii i Chin - poinformował resort nauki.
      Dostęp do superkomputera będzie realizowany tradycyjnie, jak również poprzez chmurę.
      Całkowity budżet systemu wynosi ponad 207 mln euro. Połowa tej kwoty pochodzi ze środków Komisji Europejskiej, a połowa od państw tworzących konsorcjum. Ministerstwo Nauki i Szkolnictwa Wyższego przekaże na ten cel 5 mln euro. To wsparcie zapewni polskim naukowcom - zarówno akademickim, jak i tym z przemysłu - bezpośredni dostęp do najszybszych europejskich zasobów obliczeniowych – podkreśla resort nauki.
      Jak przypomina, obecnie polscy naukowcy korzystają z istniejących superkomputerów m.in. do badania sztucznych liści grafenowych odtwarzających proces fotosyntezy; komputerowego projektowania leków, modelowania enzymów i wydajnych katalizatorów, symulacji cząstek elementarnych; analizy fal grawitacyjnych.
      Obliczenia wielkiej skali umożliwią przeprowadzanie wielokrotnie bardziej zaawansowanych badań niż obecnie. Nowe możliwości pozwolą na dokonywanie przełomów w nauce. Przekroczenie istniejących ograniczeń przyczyni się do nowych osiągnięć w zakresie chemii, inżynierii materiałowej, biotechnologii, fizyki czy medycyny - wskazuje resort nauki.
      Według MNiSW moc obliczeniowa superkomputera z centrum obliczeniowego z Kajaani pozwoli podjąć również takie problemy badawcze, jak prognozowanie zmian klimatycznych, rozwój sztucznej inteligencji, produkcję czystej energii; wspomoże też badania w zakresie medycyny spersonalizowanej.
      Superkomputer będzie składać się z trzech partycji: akceleracyjnej, opartej o procesory graficzne ogólnego przeznaczenia GPU, klasycznej, zbudowanej z tradycyjnych procesorów CPU, partycji do analizy danych.
      Planowana moc obliczeniowa superkomputera EuroHPC to ok. 200 PFlops, czyli 0,2 EFlops. Na potrzeby prowadzenia obliczeń superkomputer będzie wyposażony w zasoby pamięci masowych o pojemności ponad 60 PB, w tym szybkie pamięci typu flash o przepustowości ponad 1TB/s.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Im bardziej wpływowa osoba, tym wyższa wydaje się sama sobie - twierdzą amerykańscy psycholodzy. W świetle wyników ich badań Napoleon Bonaparte powinien uważać się za człowieka dość słusznego wzrostu i tak zapewne było...
      Przed przystąpieniem do każdego z 3 eksperymentów dotyczących oceny wzrostu Michelle Duguid z Uniwersytetu Waszyngtona w St Louis i Jack Goncalo z Uniwersytetu Cornella wywoływali u badanych poczucie mocy. W pierwszym eksperymencie naukowcy prosili niektórych ochotników, by przypomnieli sobie sytuację, gdy mieli nad kimś władzę, a innym polecili, by przywołali wspomnienia bycia rządzonym przez drugą osobę. Później wszyscy mieli ocenić swój wzrost w porównaniu do tyczki (była tak przycięta, by długość dokładnie o 0,5 m przekraczała wzrost badanego). Ludzie utwierdzani w poczuciu mocy uważali, że bliżej im do wymiarów tyczki, niż wskazywałyby na to liczby.
      W drugim badaniu utworzono pary: jeden z wolontariuszy był menedżerem, drugi szeregowym pracownikiem. Później w kwestionariuszu należało wpisać swój wzrost. Okazało się, że zarządzająca osoba z tandemu zawyżała wpisy.
      W 3. i ostatnim eksperymencie Duguid i Goncalo znowu prosili ochotników o przypomnienie sobie sytuacji rządzenia i poddawania się czyjejś woli. Potem badani mieli wybrać dla siebie awatar w grze Second Life. Osoby z grupy z primingiem mocy decydowały się na wyższe postaci.
      Skoro ktoś czuje się wyższy, zajmując istotne stanowisko, sytuację można odwrócić. Kontrola fizycznego położenia może być stosunkowo niedrogą i nieinwazyjną metodą dodawania komuś mocy i fundamentalnej zmiany stanu psychicznego.
    • By KopalniaWiedzy.pl
      Poza niedźwiedziami duże ssaki Europy Środkowej pozostają aktywne przez cały rok. W jaki sposób np. jelenie są w stanie przetrwać na zapasach tłuszczu? Obniżają tętno i temperaturę w kończynach. Jak widać, przechłodzone stopy nie zawsze są czymś niepożądanym...
      Christopher Turbill i zespół z Uniwersytetu Weterynaryjnego w Wiedniu umieścili w żwaczach 15 samic jelenia specjalne nadajniki. Dzięki temu mogli przez 18 miesięcy, w tym 2 zimy, monitorować nie tylko tętno, ale i temperaturę żołądka. Zwierzęta żyły w prawie naturalnych warunkach, ale ściśle kontrolowano spożywane przez nie pokarmy, m.in. ilość i zawartość białka. Poza tym Austriacy śledzili temperaturę otoczenia i wykorzystywali dobrodziejstwa modelowania statystycznego, by oddzielić wpływ różnych czynników, np. połykania śniegu, na metabolizm.
      Okazało się, że tętno jeleni spadało w zimie bez względu na to, ile pokarmu spożywały. Liczba uderzeń serca obniżała się stopniowo z 65-70 w maju do ok. 40 zimą, nawet jeśli zwierzętom dostarczano dużo wysokobiałkowej paszy. Tętno jest dobrym wskaźnikiem metabolizmu, a więc jego spadek pokrywał się idealnie z okresem, kiedy zwykle pożywienia brakuje - mimo że nasze zwierzęta zawsze mają co jeść. To pokazuje, że jelenie są w jakiś sposób zaprogramowane na zachowywanie rezerw w czasie zimy.
      Znaczny wzrost tętna na wiosnę w okresie rozrodu nie był związany ze zmianą w dostępności pokarmu, dlatego należy go uznać za kolejny element wrodzonego programu. Tak jak naukowcy przewidywali, obniżenie zimą racji żywnościowych jeleni prowadziło do jeszcze większego obniżenia tętna. Co ciekawe, podobny efekt odnotowano również latem. Sugeruje to, że wywołuje go nie tylko spadek natężenia trawienia. Jelenie muszą aktywnie ograniczać metabolizm w odpowiedzi zarówno na zimę, jak i niedobory pożywienia w innych porach roku.
      Austriacy ustalili, że spadkowi tętna towarzyszyło obniżenie temperatury żołądka. Oznacza to, że jelenie dostosowują wydatkowanie energii, regulując produkcję wewnętrznego ciepła. Ponieważ okazało się, że stosunkowo nieduże zmiany w temperaturze żołądka wpływały na metabolizm silniej niż można by się spodziewać, należało przypuszczać, że istnieje jakiś dodatkowy mechanizm oszczędzania energii.
      W ramach wcześniejszych badań zademonstrowano, że jelenie potrafią skutecznie obniżać temperaturę kończyn i innych wystających części ciała, odpowiedzi na pytanie od dodatkowy mechanizm chłodzący trzeba zatem poszukiwać właśnie tutaj. W tym kontekście nieznaczny spadek temperatury żołądka stanowi zaledwie zmianę towarzyszącą.
      Jeden z członków zespołu, Walter Arnold, sądzi, że duże zwierzęta wykorzystują do chłodzenia swoje gabaryty. Umożliwiają im drastyczne ograniczenie metabolizmu bez konieczności dużego zmniejszania temperatury wewnętrznej. Wystarczy chłodzenie peryferyjne.
×
×
  • Create New...