Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Galera - 50 teraflopsów w Gdańsku

Rekomendowane odpowiedzi

Jak donosi PC World Komputer, na Politechnice Gdańskiej stanął najpotężniejszy komputer w Polsce i 9. pod względem wydajności w Europie. W uroczystości uruchomienia Galery wzięli udział m.in. Lech Wałęsa i prezes Intela Paul Otellini.

Moc obliczeniowa 7-tonowego komputera to 50 teraflopsów.

Superkomputer korzysta z 1344 czterordzeniowych Xeonów Intela. Tworzą one 336 węzłów, a każdy węzeł składa się z dwóch płyt głównych, na których umieszczono po dwa procesory. Całość umieszczono w 27 szafach połączonych siecią InfinoBand o przepustowości 20 Gb/s.

Galera ma do dyspozycji 5,3 terabajta pamięci operacyjnej i 107,5 TB przestrzeni dyskowej.

Superkomputer będzie wykorzystywany przede wszystkim do modelowania procesów zwijania białek oraz badań związanych z lotnictwem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No nieźle. Z tego co się orientuję do tej pory jak już jakiś polski komputer wszedł na top500 to plasował się na szarym końcu, a Galera w ostatnim notowaniu zajeła by miejsce w okolicach 25. Ciekawe ile na niego wyłożyli...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bodajze cos okolo 7mln zl. Tamten ktory do tej pory byl w top500 tez nalezy do trojmiejskiej sieci TASK.

a rzeczywista moc obliczeniowa Galery to 38teraflopsow.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To czym w takim razie jest ta wartość 50 teraflopsów? Zauważyłem że w top500 podają wartość min i max. Czy to jest ten max dla tej maszyny?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To czym w takim razie jest ta wartość 50 teraflopsów? Zauważyłem że w top500 podają wartość min i max. Czy to jest ten max dla tej maszyny?

 

To jak z dyskami twardymi, teoretycznie masz 250 giga a w rzeczywistości około 232. Tak, 38 teraflopsów to max.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nie jest tak jak z dyskami. W ich przypadku podaje się większą powierzchnię niż dostępna ponieważ jest to faktycznie powierzchnia dysku, ale łącznie z przestrzenią przeznaczoną na "zapasowe sektory" które włączają się gdy pojawiają się badsectory. Sprawdziłem w innym artykule i też podali że komputer ten ma moc 50 teraflopsów. Więc wartość ta musi mieć jakieś uzasadnienie. Osobiście uważam, że jest to teoretyczna niezmierzona jeszcze moc obliczeniowa, co nie znaczy że niemożliwa do osiągnięcia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość macintosh

mam nadzieję, że z tych badań wyjdzie coś ciekawego,

fajnie byłoby wiedzieć co z tego wyjdzie,

mamy na świcie klika tysięcy superkomputerów i nadal nie ma nas w raju  :-X

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No, no, składanie białek in silico ma ogromną przyszłość ;) fajnie, że Polacy będą mieli duży wkład w rozwój tej dziedziny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mam nadzieję, że z tych badań wyjdzie coś ciekawego,

fajnie byłoby wiedzieć co z tego wyjdzie,

mamy na świcie klika tysięcy superkomputerów i nadal nie ma nas w raju  :-X

 

Niedługo odpalą LHC, a dzięki tej maszynce jestem przekonany, że dowiemy się wielu ciekawych rzeczy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko tak naprawdę ile ma szansę wnieść do codziennego życia człowieka LHC? To bardzo ciekawy projekt, nie przeczę - ale szaremu człowiekowi ani nie jest on potrzebny, ani przydatny. A 4 mld dolarów kosztuje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Na Politechnice Gdańskiej prowadzony jest projekt badawczy dotyczący postępowania ze zużytymi łopatami turbin wiatrowych. Obecnie większość z nich trafia na składowiska, ale naukowcy z Gdańska mają nadzieję, że uda się je ponownie wykorzystać. To cenny materiał, jednak fakt, że jest to polimerowy kompozyt, znakomicie utrudnia jego ponowne wykorzystanie.
      Są to głównie struktury warstwowe, składające się z tkanin szklanych i węglowych oraz żywicy. Dzięki dużej zawartości włókien mają bardzo wysoki stosunek wytrzymałości do masy oraz znakomitą nośność i trwałość, ale te cechy równocześnie sprawiają, że są trudne do utylizacji, mówi profesor Magdalena Rucka z Katedry Wytrzymałości Materiałów. Nawet tam, gdzie łopaty są poddawane recyklingowi, odbywa się to metodami bardzo energochłonnymi i nieprzyjaznymi dla środowiska. W naszym projekcie chcemy zaproponować kompleksowe podejście do recyklingu łopat o możliwie niskiej energochłonności w stosunku do obecnie stosowanych metod, które wykorzysta dużą nośność łopaty i w efekcie przyczyni się do zmniejszenia bieżących problemów w budownictwie, w tym związanych ograniczoną dostępnością niektórych materiałów, dodaje profesor Rucka.
      Projekt składa się z trzech części. Pierwsza z nich, za którą odpowiada doktor Monika Zielińska, to projekt architektoniczny na wykorzystanie łopaty w elementach małej architektury, w tym w wiacie na rowery. W ramach drugiej, prowadzonej przez doktora Mikołaja Miśkiewicza, naukowcy sprawdzą, czy fragmenty łopat mogą być wykorzystane jako elementy nośne. Na początek ocenimy stan pozyskanych łopat po zakończonej eksploatacji na farmach wiatrowych. Jeżeli do zastosowań konstrukcyjnych będzie można wykorzystać całość lub większą część łopaty, uwzględniając ewentualne zniszczenia i rozwarstwienia materiału, to będziemy mogli wykonywać elementy konstrukcyjne oraz elementy małej architektury, stwierdza uczony. Większe fragmenty mogłyby zostać wykorzystane np. jako zadaszenia, ogrodzenia czy ścianki do wspinaczki.
      Za trzecią część odpowiada doktor Marzena Kurpińska. Będzie ona polegała na ocenie przydatności zmielonych łopat jako zamiennika kruszywa do mieszkanki betonowej. Naukowcy szacują, że łopaty mogłyby zastąpić nawet 40% naturalnego kruszywa. Wydobycie kruszyw naturalnych oraz metoda ich uszlachetniania przez płukanie i kruszenie w taki sposób, aby nadawały się do produkcji betonu wymaga dużych nakładów energii. Ponadto w części regionów występują problemy z dostępnością niektórych frakcji kruszywa. Widzimy możliwość, aby część kruszywa zastępować tym z recyklingu łopat. Wstępne badania, które przeprowadziliśmy są obiecujące, stwierdza doktor Kurpińska.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Gdańsku powstał prototyp innowacyjnego generatora pięciofazowego, który gwarantuje pracę zasilanej maszyny w przypadku awarii jednej z faz. Ponadto urządzenie nie wymaga użycia magnesów stałych, dzięki czemu jego producent może uniezależnić się od Chin, które zmonopolizowały rynek magnesów.
      Generatory z trójfazowym uzwojeniem sterującym są powszechnie dostępne na rynku, natomiast nie ma maszyn z uzwojeniem sterującym pięciofazowym. Jesteśmy pionierami w tym zakresie. Dotychczas nie został opracowany taki prototyp, ponieważ problem polega na tym, by opracować takie uzwojenie sterujące, które nie będzie sprzęgało się z uzwojeniem mocy bezpośrednio, tylko poprzez zwarte uzwojenie wirnika oraz dołączyć do tego dedykowany układ sterowania. Nam się to udało, cieszy się doktor inż. Grzegos Kostro. Jest on członkiem zespołu z Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej, kierowanego przez dr. inż. Rolanda Ryndzionka.
      Generator to rodzaj maszyny prądu przemiennego. Urządzenia takie, do prawidłowego działania, potrzebują pola magnetycznego o wirującym strumieniu. Aby uzyskać takie pole konieczne jest odpowiednie rozłożenie uzwojeń w przestrzeni. W przypadku uzwojeń 2- lub 3-fazowych awaria jednaj z faz powoduje awarię całego urządzenia, gdyż nie można uzyskać odpowiedniego pola magnetycznego. Jednak pięć faz w uzwojeniu sterującym powoduje, że generator może nadal pracować przy uszkodzeniach jednej z faz uzwojenia, bądź przy uszkodzeniu jednej gałęzi falownika. Powoduje to zwiększoną niezawodność generatora i zapewnia większe bezpieczeństwo, wyjaśnia dr Filip Kutt.
      Pięciofazowy generator z Gdańska nadal działa przy awarii jednej z faz, co prawda jego wydajność spada o 10–15 procent, ale nadal jest na tyle duża, że zasilane przezeń urządzenie może bez przeszkód pracować do czasu usunięcia awarii. Trzeba zaznaczyć, że jesteśmy jedynym zespołem, który podjął się skonstruowania takie prototypu w Polsce. Nie spotkaliśmy się też z takimi badaniami na świecie, dodaje dr inż. Michał Michna.
      Obecnie stoimy w obliczu kryzysu energetycznego, a jedną z możliwości dywersyfikacji źródeł energii jest pozyskiwanie jej jak najczęściej ze źródeł ekologicznych, na przykład poprzez farmy wiatrowe. Nasz generator nie tylko daje większą gwarancję niezawodności, ale jest również ekologiczny. Do jego budowy nie używamy bowiem magnesów trwałych, powszechnie stosowanych w innych tego typu urządzeniach. Problemem jest ich pozyskanie na masową skalę, ponieważ rynek magnesów został zupełnie zmonopolizowany przez Chiny. Dzięki naszemu pomysłowi możemy uniezależnić się od rynków azjatyckich. Urządzenia bez magnesów trwałych są niezwykle pożądane, więc jesteśmy pewni, że nasz generator wzbudzi zainteresowanie, zwłaszcza na rynku europejskim, mówi doktor Ryndzionek.
      W Gdańsku powstał już prototyp pięciofazowego generatora szczotkowego, a naukowcy pracują już nad modelem bezszczotkowym.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Politechnika Gdańska (PG) i firma Seatech Engineering podpisały umowę przewidującą opracowanie wstępnego projektu autonomicznego statku zasilanego energią elektryczną, który będzie zbierał odpady z wody i odbierał je z innych statków. WCV (Waste Collecting Vessel) ma być przystosowany do pływania zarówno na otwartych wodach, jak i trudnych do nawigacji akwenach ograniczonych: portach, przystaniach czy śródlądowych drogach wodnych.
      Projekt „Zeroemisyjny Statek do Zbierania Zanieczyszczeń w Portach i Obszarach Przybrzeżnych” (ZeroWastePorts) to wspólne przedsięwzięcie PG, Seatech Engineering, National Taiwan University oraz Ship and Ocean Industries R&D Center. Naukowcy zamierzają zaprojektować kształt kadłuba o dobrej stateczności, niskim zużyciu paliwa i dobrych właściwościach manewrowych. Powstanie też algorytm wykrywania odpadów i żeglugi autonomicznej. Specjaliści stworzą również propozycję stacji brzegowej, odbierającej odpady i ładującej akumulatory jednostki. Ponadto wykonana zostanie ocena możliwości wdrożenia koncepcji takiej jednostki dla różnych portów na całym świecie.
      W działaniach projektowych zostaną wykorzystane najbardziej zaawansowane metody badawcze, w tym badania modelowe i metody numerycznej mechaniki płynów (CFD - computational fluid dynamics). Metody zostaną wykorzystane przede wszystkim do oceny efektywności napędu i manewrowości statku. Poza tym planowane jest wykorzystanie zagadnienia uczenia maszynowego do wykrywania odpadów i autonomicznego planowania trajektorii ruchu statku oraz symulatora statku do analizy reakcji statku w czasie rzeczywistym – oznajmiła Politechnika Gdańska.
      Prace finansowane są przez Narodowe Centrum Badań i Rozwoju oraz tajwańskie Ministerstwo Nauki i Technologii. Na czele zespołu badawczego stanął doktor inżynier Maciej Reichel z Instytutu Oceanotechniki i Okrętownictwa Wydziału Inżynierii Mechanicznej i Okrętownictwa.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...