Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polska na liście TOP500

Rekomendowane odpowiedzi

W najnowszej edycji TOP500, listy 500 najpotężniejszych superkomputerów, znalazły się aż 3 maszyny z Polski. Tak wielu najbardziej wydajnych komputerów nasz kraj nie miał od 1995 roku.

Pierwszym polskim superkomputerem na TOP500 (lista z czerwca 1995 roku) był Power Chellenge autorstwa SGI, który znalazł się 486. pozycji. W grudniu 1995 mieliśmy już trzy superkomputery SP2/15, z których najbardziej wydajny trafił na 479. pozycję.

Czerwiec roku 1996 to dwie polskie maszyny. Bardziej wydajna z nich, SPP1200/XA-32 uplasowała się na 406. miejscu. W listopadzie 1996 komputer był już samotnym przedstawicielem naszego kraju. Zajmował 408. miejsce. Pół roku później Polskę reprezentuje, na 434. pozycji, samotny T3E.
Nasz kraj na kilka lat wypada z listy superkomputerów.

Ponownie pojawia się w czerwcu 2000 roku z maszyną HPC 1000 400 MHz Cluster autorstwa Suna, który zajmuje 242. pozycję. Mija pół roku i polska maszyna spada na 467. miejsce.
W czerwcu 2001 roku HPC 10000 wypada z listy, ale pojawia się na niej ORIGIN 3000 500 MHz (376. pozycja). Polska jest nieobecna do listopada 2003 roku, kiedy to na listę trafia słynny Hołk i zajmuje na niej 231. miejsce. W czerwcu 2004 Hołk spada na 487. pozycję, ale na miejscu 366. pojawił sie SuperDome 875 MHz/HperPlex.

Przez kilka lat żaden superkomputer nie reprezentuje Polski, aż w listopadzie ubiegłego roku na listę trafia BladeCenter HS21 Cluster (426. miejsce).

Obecna edycja listy to trzy polskie superkomputery:
- Galera (45. pozycja),
- Cluster Platform 3000 BL460c (274. miejsce)
oraz
- Nova ACTION (318. pozycja).

Szerzej o polskich superkomputerach i najnowszej liście TOP500 piszemy w artykule "Pierwsza taka lista TOP500".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak operujemy tymi mega, giga, petaflopami a warto uzmysłowić sobie jak niewyobrażalnie wielkie są to ilości danych. Nie tylko za pomocą skrótów matematyczny... polecam stronę znalezioną na wykopie: http://blog.managednetworks.co.uk/it-support/googles-20-petabytes/

 

robi wrażenie ;-) cieszy szczególnie rozwój polskiego sektora superkomputerów

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Najbardziej zagrożone suszą są rzeki spływające do środkowej Odry i Wisły. Wysychające warstwy gleby spowodują dalsze pustynnienie obszarów na Kujawach, Pomorzu, w Wielkopolsce i na Lubelszczyźnie. To wynik braku opadów i wyższych temperatur – poinformował hydrolog i rzecznik IMGW Grzegorz Walijewski.
      Od 2015 r. z krótką przerwą na zeszły rok, mieliśmy do czynienia z permanentną suszą. W tym roku po dosyć wilgotnym lutym, kiedy spadło łącznie 113 proc. normy w całym kraju, wydawało się, że problem suszy może być mniejszy, ale od 25 lutego jest bezwietrza i bezdeszczowa, słoneczna pogoda. W większej części kraju, oprócz Polski południowej, południowo-wschodniej i częściowo wschodniej, nie było deszczu. Dodatkowo stosunkowo wysokie temperatury w dzień powodowały większe parowanie, co spowodowało, że sytuacja staje się z dnia na dzień coraz gorsza – powiedział Walijewski.
      W ocenie hydrologa już mamy do czynienia z pierwszymi symptomami suszy meteorologicznej. O zjawisku tym mówimy wówczas, kiedy przez przynajmniej 20 dni występuje brak opadów, bądź jest ich niedobór – wyjaśnił.
      To przekłada się na coraz mniejszą wilgotność gleby. We wschodnich województwach – w lubelskim, częściowo podkarpackim, ale także w centrum, czyli w woj. mazowieckim, oraz na zachodzie lubuskiego, Wielkopolski i zachodniopomorskiego, w wierzchniej warstwie gleby (do 7 cm) wilgotność spada poniżej 45 proc. To pierwsza oznaka problemów dla rolników, bo przesusza się wierzchnia warstwa gleby – wskazał Walijewski.
      We wschodniej części kraju, w głębszej warstwie gleby (od 8 do 28 cm) wilgotność jest poniżej 50-45 proc. Sytuacja się pogorszy, bo w następnych dniach wyż sprawi, że niedobór opadów będzie przynajmniej do 24 marca. Później ok. 25-26 marca mogą pojawić się niewielkie deszcze, jednak nie zmieni to faktu, że marzec będzie w całym kraju z opadami poniżej normy – oznajmił.
      Obecnie stan wód na rzekach osiąga przeważnie poziom średni, ale pojawia się coraz więcej rzek z niskim poziomem. Do tego brak wody z topniejących śniegów sprawia, że przed nami tendencja spadkowa – dodał.
      Najbardziej zagrożone suszą są rzeki na Niżu Polskim i dorzecza Odry, szczególnie zlewnia Warty i środkowej Odry, a także wszystkie rzeki, które spływają do środkowej Wisły.
      Wody w Polsce będzie coraz mniej. Są takie prognozy, że do 2040 r. w niektórych miejscach naszego dostępność wody pitnej może się zmniejszyć nawet o ok. 30 proc. – powiedział rzecznik IMGW.
      Zwrócił uwagę, że w centralnej części kraju, np. w Płocku roczny niedobór opadów notowany jest od 2010 r. Co roku było mniej opadów i w sumie ich deficyt wynosi ok. 600 mm. To tak, jakby przez cały rok w ogóle nie padało – wyjaśnił.
      W innych rejonach Polski, na Kujawach, Pomorzu, w Wielkopolsce, na Lubelszczyźnie, a nawet w niektórych miejscach na Mazurach są również są niedobory wody. Te obszary pustynnieją. W ostatnich 4–5 latach coraz częściej obserwowane są burze pyłowe. Dwa lata temu w Lubelskiem czarnoziemy zostały bardzo mocno przesuszone, a następnie silny wiatr spowodował burze piaskowe. Unoszący się pył było widać wyraźnie nawet na zdjęciach satelitarnych – powiedział Walijewski. Podkreślił, że to zjawisko będzie się pogłębiało.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Europa ma prawdopodobnie jedne z najbardziej rozdrobnionych rzek na świecie. W samej Polsce jest 77 tys. sztucznych barier – średnio jedna na km rzeki czy strumyka – wynika z badań opublikowanych w Nature. Naukowcy komentują, że konstrukcje te szkodzą bioróżnorodności, a istnienie wielu z nich nie ma ekonomicznego sensu.
      W ramach projektu AMBER koordynowanego przez walijski Uniwersytet Swansea oszacowano, że w 36 europejskich krajach jest co najmniej 1,2 mln barier w nurcie wodnym rzeki. A to oznacza, że na 4 kilometry rzeki przypadają średnio 3 bariery zbudowane przez człowieka (0,74 bariery na 1 km). Polska jest powyżej europejskiej średniej: na 1 km strumyka przypada u nas 1 bariera. Rekordzistką jest jednak Holandia, gdzie na kilometr rzeki przypada prawie 20 barier.
      To zaskakująco wysokie liczby w stosunku do tego, co wiadomo było wcześniej. Ponad 60 proc. konstrukcji jest bowiem na tyle niewielkich (mają np. poniżej 2 m wysokości), że były dotąd pomijane w statystykach. W zakrojonych na dużą skalę badaniach opracowano Atlas Zapór AMBER – pierwszą kompleksową ogólnoeuropejską inwentaryzację zapór. Zarejestrowano tam tysiące dużych zapór, ale i znacznie większą liczbę niższych struktur, takich jak jazy, przepusty, brody, śluzy i rampy, które były dotąd niewidoczne w statystykach, a są głównymi sprawcami fragmentacji rzek. Wyniki badań – koordynowanych przez Barbarę Belletti – opublikowano w Nature. W ramach projektu powstała też aplikacja AMBER, w której każdy może pomóc dokumentować brakujące dotąd w statystykach bariery.
      Ponieważ policzenie wszystkich barier nie było fizycznie możliwe, naukowcy w badaniach terenowych przewędrowali wzdłuż 147 rzek (2,7 tys. km) i odnotowywali wszelkie sztuczne bariery w ich nurtach. Na tej podstawie oszacowano, ile barier może być w Europie.
      Jeden ze współautorów badania prof. Piotr Parasiewicz, kierownik Zakładu Rybactwa Rzecznego w Instytucie Rybactwa Śródlądowego im. S. Sakowicza zaznacza, że bariery te są ogromnym utrudnieniem w migracji ryb rzecznych nie tylko takich jak łososie, pstrągi, jesiotry, węgorze, ale także płotki czy leszcze. Za sprawą konstrukcji rzecznych gatunki te mają coraz trudniejsze warunki do przeżycia.
      To jednak nie jedyny minus. Jeśli na rzekach mamy tysiące barier, to zamieniamy nasze rzeki w stawy - mówi naukowiec. Powyżej bariery tworzy się bowiem często zalew, w którym woda płynie bardzo powoli, a lepiej radzą sobie tam organizmy charakterystycznie nie dla rzek, ale właśnie stawów. Z ryb są to choćby karpie czy leszcze. A to zwykle gatunki mniej wyspecjalizowane i bardziej pospolite.
      Bariery zmieniają też temperaturę wody (powyżej bariery jest często ona cieplejsza niż poniżej). A w dodatku blokują przepływ osadów i materii. A w poprzegradzanej rzece wolniej zachodzą procesy samooczyszczania.
      Ponadto z danych dostarczonych przez wolontariuszy w ramach aplikacji AMBER wynikło, że ponad 10 proc. europejskich barier jest nieużytecznych. Gdyby więc je usunąć, nie miałoby to żadnego ekonomicznego znaczenia. A to by oznaczało, że w Europie można by było rozebrać ok. 150 tys. barier bez żadnych strat ekonomicznych. Za to z zyskiem dla środowiska i dla ludzi – ocenia prof. Parasiewicz.
      Jednym z praktycznych wyników naszego projektu jest to, że Unia Europejska zadeklarowała w swoim Programie Bioróżnorodności do 2030 r., że udrożni 25 tys. km rzek – komentuje prof. Parasiewicz.
      AMBER otrzymał finansowanie z unijnego programu badań naukowych i innowacji "Horyzont 2020". Celem tego projektu jest zastosowanie zarządzania adaptacyjnego do eksploatacji zapór i innych barier w celu osiągnięcia bardziej zrównoważonego wykorzystania zasobów wodnych i skuteczniejszego przywrócenia ciągłości ekosystemów rzecznych. W ramach projektu opracowano narzędzia i symulacje, które mają pomóc przedsiębiorstwom wodociągowym i zarządcom rzek zmaksymalizować korzyści płynące z barier i zminimalizować ich wpływ na środowisko.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ludzie zamieszkujący południe Polski w neolicie byli blisko spokrewnieni z populacją z okresu epoki brązu. Doktor Anna Juras wraz z zespołem z Uniwersytetu Adama Mickiewicza przeprowadziła analizy genetyczne 150 kości 80 osób żyjących w epoce brązu.
      Badani zmarli byli przedstawicielami kultur mierzanowickiej, strzyżowskiej oraz trzcinieckiej. Naukowcy skupili się na genomie mitochondrialnym, dziedziczonym po matce.
      Jak czytamy na łamach American Journal of Physical Anthropology, wyniki analizy genetycznej wykazały bliskie pokrewieństwo po linii matki społeczności kultury mierzanowickiej i trzcinieckiej ze społecznościami kultury ceramiki sznurowej. Bardziej odległa od nich społeczność kultury strzyżowskiej wykazywała bliższe podobieństwo genetyczne do populacji stepu powiązanej z wcześniejszymi kulturami grobów jamowych i kultury grobów katakumbowych oraz z późniejszymi Scytami.
      Autorzy pracy zauważają, że istnieje ciągłość genetyczna pomiędzy kulturą sznurową późnego neolitu a kulturami mierzanowicką i trzciniecką reprezentującymi kultury brązu. Ponadto pod koniec III tysiąclecia przed Chrystusem ludy stepu mogły wnieść swój wkład w rozwój kultury strzyżowskiej.
      Jak już wiemy z poprzednich badań, tereny dzisiejszej zachodniej Polski we wczesnej epoce brązu zostały zasiedlone przez przedstawicieli kultury unietyckiej, a południowo-wschodnie tereny kraju zamieszkali najpierw przedstawiciele kultury mierzanowickiej, a po nich pojawili się ludzie reprezentujący kulturę strzyżowską, którzy zamieszkali niewielki region w południowo-wschodniej Polsce i zachodniej Ukrainie. Kultury strzyżowska i mierzanowicka rozwijały się niemal równocześnie do mniej więcej 1600 roku przed naszą erą. Później ustąpiły one kulturze trzcinieckiej, która przetrwała do około 1100 roku przed Chrystusem.
      EDIT: w poprzedniej wersji umieściliśmy nieuprawniony wniosek o ciągłości genetycznej od neolitu po czasy współczesne. Chodziło o ciągłość genetyczną neolit-epoka brązu

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...