Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Sześć polskich maszyn na TOP500

Recommended Posts

Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops.

Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops.

Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows.

W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów).

Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495.


Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce.

Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową.

W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD.

Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell.

Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej.

Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows.

Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.

Share this post


Link to post
Share on other sites

[...] Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 24. pozycji korzysta m.in. z układów Nvidia GT200.

 

Może i to drobnostka, ale maszyna Tsubame uplasowała się na 29. pozycji ;-)

Share this post


Link to post
Share on other sites
wie ktos gdzie w polsce znajduja sie te superkomputery ?

jeden chyba w Gdańsku jest politechnice/uniwersytecie.

Pozycja:         Komputer:

68    Politechnika Gdańska

221   Uniwersytet Warszawski

331   Cyfronet, Kraków

337   PCSS Poznań

373   Nasza Klasa :) , prawdopodobnie Wrocław Poznań

495   Communications Company (P1), nie wiem gdzie :D

 

http://www.top500.org/country/systems/164

Share this post


Link to post
Share on other sites

Dzięki za sprostowanie :) Sugerowałem się adresem firmy. Dlatego napisałem "prawdopodobnie". Jak widać, serwery wcale nie muszą być blisko.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Środowy wieczór zdecydowanie nie był dla mieszkańców Armentières standardowy. Ich oczom ukazał się bowiem czarny jaguar, który przez około godzinę spokojnie spacerował po dachu i gzymsach i od czasu do czasu wchodził do jednego z mieszkań przez otwarte okno.
      Szybko powiadomiono policję i straż. W razie gdyby jaguar zeskoczył, służby ustawiły kordon ochronny. Kiedy kot wszedł do mieszkania z otwartym oknem, został uśpiony za pomocą strzałki.
      Jak powiedział gazecie La Voix du Nord Kader Laghouati z Ligi Ochrony Zwierząt, zwierzę waży ok. 30 kg i ma ok. 5-6 miesięcy. Jest udomowione i zupełnie nieagresywne. Ma przycięte pazury.
      Kota umieszczono w klatce i przekazano agentowi z Biura ds. Polowań i Dzikiej Przyrody. Potem zajęła się nim Liga. Ostatecznie jaguar ma trafić do zoo.
      Z wywiadu przeprowadzonego przez dziennikarzy La Voix du Nord wśród mieszkańców wynika, że jaguar może należeć do kogoś, kto wyjechał na urlop.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Upały, które właśnie nadciągnęły nad Polskę, mogą oznaczać problemy dla elektrowni. Im jest cieplej, tym więcej urządzeń chłodzących włączają ludzie, a to oznacza duże wzrosty zużycia prądu. Tymczasem polskie elektrownie są chłodzone głównie wodą z rzek. To powoduje dwa problemy. Po pierwsze stany rzek są niskie, po drugie, ze względu na wymogi ochrony środowiska, woda użyta do chłodzenia bloków energetycznych nie może być zbyt gorąca przed zrzuceniem jej do rzeki. To zaś oznacza, że albo trzeba obniżyć moc elektrowni, czyli produkować mniej prądu, albo włączyć dodatkowe schładzacze, a to zwiększa straty energii. Jak powiedział Rzeczpospolitej profesor Władysław Mielczarski z Politechniki Łódzkiej, w tym roku jeszcze polski system energetyczny powinien dać sobie radę, jednak sytuacja będzie się pogarszała i w kolejnych latach powinniśmy przygotować się na wyłączenia prądu.
      W Polsce przemysł węglowy pobiera aż 70% całej używanej wody. Dla porównania w Niemczech jest to 18%, a w całej UE – 13,7%. To jednak nie oznacza, że tylko Polska jest narażona na kłopoty. Jak mówi Mielczarski, cała Europa może już w ciągu najbliższych 2–3 lat doświadczyć blackoutów spowodowanych upałami. Oczywiście Polska może w razie potrzeby kupić prąd za granicą, jednak to zabezpieczenie coraz bardziej iluzoryczne. Naszymi potencjalnymi dostawcami prądu mogą być Czesi lub Niemcy. Tymczasem w samym tylko czerwcu niemiecki system energetyczny aż czterokrotnie był na granicy załamania.
      Polskim problemem jest energetyka oparta w dużej mierze na węglu oraz fakt, że nasze elektrownie były budowane głównie w latach 60. i 70. ubiegłego wieku, kiedy nawet w lecie występowały obfite opady. Wówczas nie brakowało wody do chłodzenia elektrowni. Obecnie jest z tym coraz większy kłopot.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Polska onkologia i medycyna opiera się na zbyt malej ilości twardych danych; nie wiemy tak naprawdę, jakie są dokładnie wyniki leczenia nowotworów – powiedział PAP prof. Piotr Rutkowski, przewodniczący powołanego niedawno zespołu ds. tzw. cancer planu.
      Do 30 listopada 2019 r. zespół ds. tzw. cancer planu ma opracować Narodową Strategię Onkologiczną, której głównym celem jest poprawa wykrywalności oraz skuteczności leczenia nowotworów.
      Zdaniem prof. Piotra Rutkowskiego, chirurga Centrum Onkologii w Warszawie, zespół specjalistów ds. Narodowej Strategii Onkologicznej (wśród których są onkolodzy z centrów onkologii, jak i przedstawiciele ministerstwa zdrowia, Narodowego Funduszu Zdrowia oraz uczelni medycznych), potrzebuje przede wszystkim wiarygodnych danych.
      Polska onkologia i polska medycyna opiera się na zbyt malej ilości twardych danych i tak naprawdę nie wiemy, jakie są dokładnie wyniki leczenia, za co płaci płatnik, ale przede wszystkim jakie korzyści odnosi z tego chory. To jest niezbędne – powiedział w rozmowie z dziennikarzem PAP.
      Skutkiem braku danych o wynikach leczenia jest to – podkreślił specjalista - że pacjent nie wie, jaka jest jakość danego zabiegu, ale też płatnik tego w ogóle nie kontrolował. Wykazał to niedawno opublikowany raport Narodowego Funduszu Zdrowia "Nowotwory złośliwe. Koncentracja leczenia zabiegowego" (opracowany na podstawie danych dotyczących realizacji świadczeń medycznych w 2017 r.).
      NFZ postanowił, że powyżej pewnej liczby wykonywanych procedur za zabieg będzie płacić więcej. Okazuje się jednak, że mało ośrodków spełnia przyjęte warunki, przykładowo w jednym z nowotworów [jelita grubego – PAP] 30 ośrodków spełnia określone kryteria, a 300 innych - nie spełnia. Opublikowane w raporcie dane ujawniły zatem olbrzymie rozproszenie ośrodków zajmujących się leczeniem nowotworów – podkreślił szef zespołu ds. cancer planu.
      Chirurgią w wielu nowotworach jest podstawą leczenia. W skomplikowanych zabiegach, do jakich często zaliczane są operacje nowotworów, bardzo ważne jest zatem, żeby w danej placówce wykonywano ich jak najwięcej. Chirurdzy, którzy często je przeprowadzają, uzyskują lepsze efekty, z korzyścią dla chorego. W chirurgii onkologicznej często jest tak, że ilość faktycznie przechodzi w jakość, ale musi być również odpowiednia jakość sprawozdawania tych wyników, zarówno o liczbie wykonywanych procedur, jak też osiąganych wynikach leczenia – wyjaśnił prof. Rutkowski.
      Podkreślił, że w krajach zachodnich istnieje dobrze pojęta konkurencja między placówkami specjalizującymi się w danym typie nowotworów. Zdarza się, że znikają kliniki, które w kolejnych audytach odstawały jakościowo od innych pod względem uzyskiwanych wyników i dlatego je zamknięto. Byłem w szoku, kiedy po raz pierwszy się zetknąłem się z tym, że pewnego ośrodka po jakimś czasie już nie było. Czy można sobie wyobrazić, żeby w Polsce zamknięto jakakolwiek klinikę, bo nie spełniała kryteriów – zapytał.
      Zdaniem przewodniczącego zespołu, który ma opracować Narodową Strategię Onkologiczną, wyspecjalizowane ośrodki powinny przez dłuższy czas opiekować się pacjentem. Przykładem tego, o co nam chodzi, są tzw. Breast Cancer Units [ośrodki specjalizujące się leczeniu raka piersi – PAP]. Opieka w takich placówkach powinna być skoordynowana i kompleksowa, czyli od diagnozy poprzez leczenie skojarzone, ale również po jego zakończeniu chory musi mieć zapewnioną dalszą rehabilitację. Teraz często jest tak, że pacjent, który zachorował na nowotwór, kończy leczenie i nie ma dalszej opieki, pozostawiony jest samu sobie. Tak jest niestety w wielu ośrodkach – przyznał prof. Rutkowski.
      Dodał, że w Polsce chorych nie poddaje się rehabilitacji z tego tylko powodu, że mają oni nowotwory i koło się zamyka. Jest u nas wiele przesądów po wyleczeniu i w trakcie leczeniu nowotworów. Chodzi w tym przypadku o całościową rehabilitację, nie tylko o fizykoterapię, ale także o wsparcie psychoonkologiczne i możliwość powrotu do pracy - ale w taki sposób, żeby pacjent mógł korzystać z dalszego leczenia – wyjaśnił specjalista.
      Specjalista zwrócił uwagę, że chirurgia onkologiczna jest dynamicznie rozwijającą się specjalnością, która dotyczy również leczenia okołooperacyjnego, za pomocą napromieniania, chemioterapii i nowych terapii. Nie zawsze trzeba od razu zoperować pacjenta. Na zjazdach naukowych coraz więcej jest o leczeniu okołooperacyjnym – dodał.
      Chodzi nie tylko o leczenie, ale i nowoczesne diagnozowanie, które jest bardzo trudne. To jest kosztowne, ale przynosi też oszczędności zarówno dla pacjenta, jak i płatnika, bo gdy rozpoznanie zostanie właściwie postawione to oszczędzamy pieniądze i leczymy właściwie, bardziej skutecznie - powiedział prof. Rutkowski.
      Jako przykład podał Francję, gdzie 95 proc. mięsaków jest diagnozowanych histopatologicznie jedynie w trzech ośrodkach. Po takich specjalistycznych badaniach zmieniono rozpoznania w 40 proc. przypadków, a w 10 proc. okazało się, że wcale nie było nowotworu, czyli w co drugim przypadku chorzy powinni być leczeniu całkowicie inaczej lub w ogóle niepotrzebnie poddano ich terapii. Chodzi o przeprowadzenie pełnej diagnostyki jeszcze przed operacją, żeby wypracować właściwą strategię leczenia, chemioterapię czy radioterapię. Przecież to są wszystko koszty – podkreślił specjalista.
      W ocenie szefa zespołu ds. cancer planu, chirurgią onkologiczną nie muszą się zajmować tylko wielospecjalistyczne ośrodki: To może być mały ośrodek specjalistyczny, a także placówki uniwersyteckie, np. w Krakowie czy Warszawie. Wykonują one dobrą robotę także w zakresie chirurgii onkologicznej.
      Prof. Rutkowski uważa, że system [opieki onkologicznej – PAP] trzeba w Polsce dopiero zbudować, bo był on postawiony na głowie.
      Skoncentrowana była chemioterapia, a zdekoncentrowana chirurgia. Tymczasem powinno być odwrotnie, bo wtedy uzyskuje się największy odsetek wyleczeń. Z kolei leczenie uzupełniające i paliatywne powinno być bliżej miejsca zamieszkania pacjenta. Bez sensu jest to, żeby na standardową chemioterapię pacjent jeździł 200 km. To jest to co mam nadzieję, że się zmieni - mówił.
      Według niego świadczenia medyczne powinny być jednak rozsądnie wycenione. Duża część procedur w chirurgii generalnie wykonywana jest poniżej kosztów. To jest totalna fikcja. Dlatego szpitale nie są zainteresowane wysokojakościową chirurgią, bo ona tylko przynosi straty - podkreślił.
      Zrobiliśmy ostatnio wyliczenie – dodał - bo po raz pierwszy wzięła się za to Agencja Oceny Technologii Medycznych i Taryfikacji, która wreszcie ocenia realne koszty w chirurgii. Okazało się, że u nas - w Centrum Onkologii - koszty realne są trzy razy wyższe od tego, co płaci NFZ. Bo tak niskie są te wyceny.
      Oczekuję, że wzrosną nakłady na służbę zdrowia, ale wiele zależy od organizacji opieki. Dotąd jak nie było pieniędzy, to wszyscy markowali, jak ten system ma działać. Jeżeli pieniędzy będzie więcej, to będzie on działał sprawnie – powiedział prof. Rutkowski.
      Specjalista poinformował PAP, że pierwsze posiedzenie zespołu ds. cancer planu planowane jest na 18 czerwca 2019 r. Przewiduje się, że omawiane będą wstępne priorytety Narodowej Strategii Onkologicznej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykańska NSA (Narodowa Agencja Bezpieczeństwa) dołączyła do Microsoftu zachęcając użytkowników systemu Windows, by pilnie zaktualizowali swój system operacyjny. W Remote Desktop Services for Windows odkryto bowiem dziurę, która podobna jest do luki, którą w 2017 roku wykorzystało ransomware WannaCry, powodując wielomiliardowe straty na całym świecie.
      Dziura, nazwana „BlueKeep”, może też istnieć w starszych systemach operacyjnych z rodziny Windows, jak Windows 7, Windows XP, Windows Server 2003 oraz Server 2008. Stanowi ona poważne zagrożenie, gdyż szkodliwy kod może rozprzestrzeniać się i zarażać bez interakcji ze strony użytkownika.
      Microsoft poinformował o istnieniu dziury wraz z publikacją w ubiegłym miesiącu odpowiedniej poprawki. Wówczas firma nie zdradziła zbyt wielu informacji. Poinformowano jedynie, że na atak może być narażonych około 7 milionów urządzeń na całym świecie. Później dokładniej przyjrzano się zagrożeniu i liczbę narażonych urządzeń zmniejszono do 1 miliona.
      „BlueKeep”, oficjalnie skatalogowana jako CVE-2017-0708, to krytyczna luka pozwalająca napastnikowi na uruchomienie dowolnego kodu, który kradnie dane i szpieguje użytkowników. Na blogu NSA czytamy: to typ luki, jaką cyberprzestępcy często wykorzystują. Można jej użyć na przykład do przeprowadzenia ataku DoS. Ukazanie się i rozpowszechnienie szkodliwego kodu atakującą tę lukę jest prawdopodobnie kwestią czasu.
      Niektóre firmy zajmujące się cyberbezpieczeństwem już stworzyły prototypowy szkodliwy kod, by móc na tej podstawie stworzyć mechanizmy zabezpieczające. Microsoft i NSA wzywają do pilnego zainstalowania opublikowanej łaty.

      « powrót do artykułu
×
×
  • Create New...