Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

W Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie

Rekomendowane odpowiedzi

Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.

Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.

Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.

Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.

Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może dlatego, że Forschungszentrum Jülich to potężne centrum naukowo-badawcze, jedno z największych w Europie, więc lepiej, by stał tam silniejszy superkomputer. Mają też doświadczenie z jednymi z najpotężniejszych maszyn na świecie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W Akademickim Centrum Komputerowym Cyfronet AGH oficjalnie uruchomiono najpotężniejszy superkomputer w Polsce. Uroczyste uruchomienie Atheny, bo tak nazwano maszynę, towarzyszyło inauguracji roku akademickiego. Maszyna dołączyła do innych superkomputerów z Cyfronetu – Zeusa, Prometeusza i Aresa.
      Maksymalna teoretyczna wydajność nowego superkomputera wynosi 7,71 PFlop/s, a maksymalna wydajność zmierzona testem Linpack osięgnęła 5,05 PFlop/s, co dało Athenie 105. pozycję na liście 500 najpotężniejszych superkomputerów na świecie. Polski superkomputer jest jedną z najbardziej ekologicznych maszy na świecie. Na liście Green500 zajął niezwykle wysoką, 9. pozycję. Do pracy potrzebuje bowiem 147 kW, zatem osiąga imponującą wydajność 29,9 GFlops/wat.
      Athena zbudowana jest z 48 serwerów. W skład każdego z nich wchodzą dwa 64-rdzeniowe procesory AMD EPYC oraz 8 kart GPGPU NVIDIA A100. Do wymiany danych pomiędzy serwerami służy wydajna infrastruktura wewnętrzna o przepustowości 4 x 200 Gb/s na serwer.
      Na liście TOP500 znajdziemy w sumie 5 polskich superkomputerów, z czego 3 z Cyfronetu. Obok Atheny są to Ares (290. pozycja, 2,34 PFlop/s) oraz Prometheus (475. pozycja, 1,67 PFlop/s).
      Nasze superkomputery są bardzo potrzebne polskiej nauce i innowacyjnej gospodarce. Czasem jestem pytany, dlaczego nie wystarczy jeden superkomputer? Odpowiedź jest bardzo prosta: po pierwsze są ogromne potrzeby użytkowników, po drugie każdy z superkomputerów ma swoją specyfikę, wynikającą z jego architektury, zainstalowanych procesorów i architektury pamięci operacyjnej. Uruchamiana dziś uroczyście Athena swoją wielką moc obliczeniową osiąga dzięki procesorom graficznym GP GPU. Są to bardzo nowoczesne i bardzo wydajne procesory graficzne Ampere A100 SXM3 firmy Nvidia. Architektura Atheny przeznaczona jest przede wszystkim dla obliczeń metodami sztucznej inteligencji oraz dla potrzeb medycyny, w tym walki z pandemią COVID-19, mówi dyrektor Akademickiego Centrum Komputerowego Cyfronet AGH prof. Kazimierz Wiatr. Uczony dodaje, że w ubiegłym roku maszyny te wykonały ponad 5,5 miliona zadań obliczeniowych na potrzeby polskiej nauki.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Miłośnicy Nowej Huty mogą już pobrać nowohucki wzór liternictwa. Zarząd Zieleni Miejskiej w Krakowie udostępnił fonty na dysku Google'a. Fonty udostępniono na licencji OFL.
      Huta to krój pisma, którego forma bazuje na literach dawnych tablic ulicowych krakowskiej Nowej Huty. Mowa o wąskich, charakterystycznych tylko dla tego miejsca literach. Taki krój pisma nie pojawił się w żadnym innym miejscu. Powstał on w oparciu o ręczne liternictwo specjalnie dla Huty po 1959 roku, kiedy to nadano osiedlom nowe, funkcjonujące do czasów obecnych, nazwy - pokreślono w komunikacie ZZM w Krakowie.
      Pod opieką artystyczną Anny Zabdyrskiej współczesny font zaprojektowała w 2021 r. Dominika Langosz (miało to związek z wymianą tablic osiedlowych).
      Jest to tak zwany tytułowy krój pisma, a nie tekstowy. Nie możemy nim złożyć książki, ale możemy złożyć nim jej tytuł. Czcionka nada się do wszelkiego rodzaju tytułów, nagłówków, plakatów, szyldów - tłumaczyła Esce Anna Zabdyrska.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Trzeba będzie jeszcze poczekać, nim dowiemy się, kto zostanie hejnalistą Wieży Mariackiej w Krakowie. Okazało się bowiem, że kandydaci, którzy poradzili sobie z przesłuchaniem kwalifikacyjnym z zakresu gry na trąbce, nie zaliczyli niestety testów sprawnościowych. W związku z tym w najbliższych tygodniach ogłoszony zostanie kolejny nabór. Jak podkreślił oficer prasowy komendanta miejskiego Państwowej Straży Pożarnej (PSP) Bartłomiej Rosiek, do tego czasu kandydaci, którzy nie przeszli testów sprawnościowych, będą mogli poprawić swoją kondycję fizyczną.
      Zgłosiło się 35 osób, w tym 3 kobiety. Etap gry na trąbce przeszło 6 kandydatów (w gronie tym nie było ani jednej kobiety). Później, tak jak inne osoby ubiegające się o pracę w straży pożarnej, kandydaci na hejnalistę musieli wziąć udział w testach sprawnościowych. Podciągali się na drążku, biegali po kopercie i poddawali się próbie wydolnościowej "beep test". W konkursie na hejnalistę i tak obniżyliśmy kryteria, ale kandydaci i tak ich nie spełnili - powiedział Rosiek.
      W związku z tym anulowano kolejne etapy naboru do służby, m.in. sprawdzian braku lęku wysokości.
      W grudniu ogłoszono nabór na stanowisko stażysty w służbie przygotowawczej - strażaka-hejnalisty w Komendzie Miejskiej PSP w Krakowie. Przewidziano aż 2 etaty. Jest to skutek m.in. tego, że po latach służby w marcu 2020 r. na emeryturę odszedł Jan Sergiel.
      Sergiel powiedział w wywiadzie udzielonym rok temu portalowi Kraków.pl, że trafił na wieżę przypadkiem; wystartował w konkursie ogłoszonym przez Radio Kraków, bo chciał się sprawdzić, a że wygrałem, to musieli mnie przyjąć. Grać na trąbce nauczył się w orkiestrze OSP Budzów. Potem – w czasie służby wojskowej – grałem w orkiestrze reprezentacyjnej Pomorskiego Okręgu Wojskowego. Z tą ostatnią zaliczyłem też wiele występów estradowych czy na dancingach. Można powiedzieć, że byłem ograny w różnych gatunkach. Muszę przyznać, że gdy startowałem w konkursie na hejnalistę, nie wiedziałem, że hejnał wygrywają strażacy!
      Hejnalista pracuje przez 24 godziny, później ma 48 godzin przerwy. Wygrywa hejnał o każdej pełnej godzinie - od 8 do 7 następnego dnia. Na jednej zmianie pracuje 2 hejnalistów. Hejnał mariacki wygrywa się na 4 strony świata: dla króla (na Wawel), dla rajców miejskich (na Rynek), dla gości (na Bramę Floriańską) i dla komendanta (na Komendę Straży Pożarnej).
      Warto przypomnieć, że 16 kwietnia 1927 roku Polskie Radio po raz 1. transmitowało w południe hejnał mariacki z Krakowa.
      Na stronie Poczet Krakowski, na której można zobaczyć przysięgę trębacza z 1671 r., dawne zapisy nutowe hejnału, hejnalicę i hejnalistów na obrazach czy hejnałowe trąbki, podkreślono, że pierwsza wzmianka o hejnale pochodzi z 1392 r. Nie wiemy, jak brzmiała odgrywana wówczas melodia. Kto wie, czy Kraków nie jest miastem, które najdłużej na świecie podtrzymuje tradycję odgrywania hejnału...

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zakończyła się konserwacja figur i płaskorzeźb ołtarza Wita Stwosza w bazylice Mariackiej. Efekty kilkuletnich prac będzie można zobaczyć za kilka tygodni, gdy wszystkie elementy zostaną zamontowane, a rusztowania usunięte.
      Cieszymy się, że prace konserwatorskie przy rzeźbach i płaskorzeźbach zakończyły się - powiedział Polskiej Agencji Prasowej arcyprezbiter kościoła Mariackiego ksiądz infułat Dariusz Raś. Za kilka tygodni sprzed ołtarza znikną rusztowania, wtedy będzie można go podziwiać w całej okazałości i wtedy zapraszamy na uroczyste otwarcie i ocenę efektu końcowego [...] - dodał.
      Jak można przeczytać na stronie internetowej bazyliki Mariackiej, obecny projekt konserwatorski jest konsekwencją działań rozpoczętych w latach 2011–2012 , kiedy to z inicjatywy SKOZK [Społecznego Komitetu Odnowy Zabytków Krakowa] i bazyliki Mariackiej, reprezentowanej przez ks. infułata dra Dariusza Rasia, powołano Komisję Konserwatorską do przeprowadzenia oceny stanu zachowania ołtarza Wita Stwosza. Przewodniczącym komisji [...] był prof. dr Władysław Zalewski. Powstały po tych pracach raport określił stan ołtarza jako "stabilny", lecz "zagrożony", ze stale pogłębiającymi się obszarami zniszczeń. Dał on asumpt do podjęcia kompleksowych prac badawczych i konserwatorskich nad ołtarzem. W 2013 r. Międzyuczelniany Instytut Konserwacji i Restauracji Dzieł Sztuki przeprowadził pełną inwentaryzację ołtarza metodą skaningu laserowego 3D i stworzył najnowszą dokumentację pomiarową w postaci ortoplanów i rysunków wektorowych.
      Prace konserwatorskie rozpoczęły się we wrześniu 2015 r. Ich wykonawcą został Międzyuczelniany Instytut Konserwacji i Restauracji Dzieł Sztuki (ta jednostka naukowo-badawcza skupia dwa wydziały: Konserwacji i Restauracji Dzieł Sztuki Akademii Sztuk Pięknych w Krakowie oraz Akademii Sztuk Pięknych w Warszawie).
      Konserwatorzy powrócili do rozwiązań kolorystycznych najbliższych oryginałowi Wita Stwosza. W poniedziałek (14 grudnia) Komisji Konserwatorskiej zaprezentowano odnowione elementy ołtarza (ok. 200). Kierownik prac badawczo-konserwatorskich, prof. krakowskiej ASP Jarosław Adamowicz, tłumaczy, że choć bezpośrednie prace przy ołtarzu się kończą, specjalistów czekają jeszcze analizy i opracowanie pełnej dokumentacji konserwatorskiej.
      Wykonano ogrom prac, gdyż konserwacji poddano wszystkie rzeźby i elementy snycerskie. Dzięki oczyszczeniu z zabrudzeń, przemalowań, retuszów i uzupełnień akumulujących się w ciągu 500 lat (ołtarz powstawał w latach 1477-89) odsłonięto pierwotną kolorystykę; zmienił się np. dominujący błękit teł w kwaterach i szafie głównej.
      Na jednej z figur ze sceny zaśnięcia Marii Panny (na boku apostoła św. Jakuba) odczytano datę 1486 r. Poprzedza ona o 3 lata przyjętą w literaturze fachowej datę poświęcenia ołtarza. Oprócz tego specjaliści potwierdzili istnienie inskrypcji zaświadczających o konserwacji ołtarza w 1638 i 1795 r.
      Przeprowadzono badania dendrochronologiczne. Rzeźby badano w podczerwieni, UV, promieniowaniu rentgenowskim oraz za pomocą ręcznego spektrometru fluorescencji rentgenowskiej i mikroskopu elektronowego. Sporządzono także dokumentację opisową, fotograficzną i rysunkową poszczególnych scen.
      Warto przypomnieć, że po II wojnie światowej ołtarz był konserwowany na Wawelu w latach 1946-50. Oddano go do kościoła Mariackiego w 1957 r. Krótki film przedstawiający konserwację (Notatnik operatora Kraków. Konserwacja Ołtarza Mariackiego) można obejrzeć w Repozytorium Cyfrowym.
      W XX w. prace konserwatorskie prowadzono kilkukrotnie. W latach 1932-34, za czasów archiprezbitera ks. dr. Józefa Kulinowskiego, zespół kierowany przez prof. Juliana Makarewicza podjął próbę odsłonięcia pierwotnych polichromii i korekty zabiegów z XIX w. Dokonano także zachowawczej konserwacji formy rzeźbiarskiej. W latach 1946-50 przeprowadzono wspominane już wcześniej prace związane z rozpoznaniem i naprawą zniszczeń powstałych po zagrabieniu ołtarza przez Niemców. Następnie dwukrotnie, w 1986 r. pod kierunkiem Aleksandry Bogdanowskiej oraz w 1999 r. pod kierunkiem prof. Mariana Paciorka, podjęto prace nad oczyszczeniem struktury nastawy ołtarzowej i wykonaniem drobnych retuszy wcześniejszych uzupełnień polichromii i złoceń. W latach 90. zabezpieczano osypujące się złocenia, zlecano retusze wcześniejszych uzupełnień ubytków polichromii oraz prowadzono odwierty, które miały pomóc w określeniu stanu zachowania struktury drewna.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...