Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Rosyjski superkomputer wśród najpotężniejszych maszyn świata?

Rekomendowane odpowiedzi

NVIDIA informuje, że Moskiewski Uniwersytet Państwowy rozbuduje swój superkomputer Łomonosow o 1554 układy GPU Tesla X2070. Dzięki temu maksymalna wydajność Łomonosowa ma osiągnąć 1,3 petaflopsa. Tym samym rosyjski superkomputer mógłby trafić do pierwszej dziesiątki najpotężniejszych maszyn na świecie.

„Rozbudowany system łączy w sobie 1554 układy NVIDIA Tesla X2070 z identyczną liczbą czterordzeniowych CPU, dzięki czemu jego maksymalna moc obliczeniowawyniesie 1,3 petaflopsa, co uczyni go numerem 1 w Rosji i jednym z najszybszych systemów na świecie. System używany jest do badań wymagających intensywnych obliczeń, takich jak zmiany klimatyczne, modelowanie oceanów, formowanie się galaktyk" - czytamy w oświadczeniu NVIDII.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Elon Musk potwierdził, że rosyjski cyberprzestępca próbował przekupić jednego z pracowników firmy, by ten zainstalował ransomware w sieci firmowej Gigafactory w Newadzie. Próbę ataku podjął 27-letni Jegor Igorewicz Kriuczkow, który zaoferował anonimowemu pracownikowi Tesli milion dolarów za zainfekowanie systemu. Jeśli do infekcji by doszło, Kriuczkow i jego wspólnicy mogliby przeprowadzić atak DDoS na system Tesli.
      Szczegóły całej operacji poznaliśmy dzięki dokumentom ujawnionym przez FBI po aresztowaniu Kriuczkowa. Z dokumentów wynika, że Kriuczkow przyjechał do USA jako turysta w lipcu bieżącego roku. Wybrał się do miejscowości Sparks w Newadzie, gdzie znajduje się Gigafactory, i wynajął pokój hotelowy. Tam wielokrotnie spotkał się z mówiącym po rosyjsku pracownikiem fabryki. W czasie jednego ze spotkań zaoferował mu pieniądze za wprowadzenie malware'u do sieci. Pracownik zgodził się, a po rozmowie natychmiast poinformował o tym przedstawicieli firmy. Ci z kolei skontaktowali się z FBI. W sierpniu Biuro rozpoczęło tajną operację. W jej ramach pracownik nadal spotykał się z Kriuczkowem, tym razem jednak miał przy sobie podsłuch. Podczas kilku kolejnych spotkań omawiali sposób ataku oraz wynagrodzenie dla pracownika.
      Zainstalowane malware miało rozpocząć atak DDoS, który zaalarmowałby systemy bezpieczeństwa i odwrócił uwagę informatyków Tesli. W tym czasie Kriuczkow i jego kompani chcieli ukraść poufne informacje, za zwrot których zażądaliby sowitego okupu. Przestępcy najwyraźniej spodziewali się sporych zysków, skoro oferowali aż milion USD za zainfekowanie systemu firmy Muska.
      Kriuczkow został aresztowany 22 sierpnia w Los Angeles, gdy próbował opuścić USA. Postawiono mu zarzuty konspirowania z zamiarem celowego spowodowania szkód w chronionym systemie komputerowym. Za przestępstwo to grozi do 5 lat więzienia oraz wysoka grzywna.
      FBI stwierdziło, że Kriuczkow jest jednym z członków rosyjskiej grupy cyberprzestępczej, która już w przeszłości atakowała amerykańskie firmy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W sterownikach graficznych Nvidii znaleziono liczne dziury, które umożliwiają przeprowadzenie DoS (denial of service), wykonanie złośliwego kodu oraz inne rodzaje ataków. Nvidia wydala już odpowiednie poprawki, które należy jak najszybciej zainstalować.
      Dziury występują przede wszystkim w sterownikach do procesorów GeForce, Quadro i Tesla dla systemu Windows.
      Najpoważniejsza dziura znajduje się w panelu sterowania grafiki, elemencie umożliwiającym użytkownikowi zmianę ustawień GPU. Nvidia informuje, że napastnik z lokalnym dostępem może doprowadzić do awarii systemu plików panelu sterowania, co pozwala mu albo na przeprowadzenie ataku DoS, albo na zwiększenie uprawnień. Lukę tę (CVE-2020-5957) oceniono na 8,4 w 10-stopniowej skali zagrożeń CVSS.
      Kolejna dziura (CVE-2020-5958), uznana za średnio poważną, również występuje w panelu kontrolnym. Użytkownik z dostępem lokalnym może dzięki niej zainstalować zmanipulowany plik DLL, dzięki czemu może przeprowadzić atak DOS, zyskać uprawnienia do wykonywania kodu, odczytania zastrzeżonych informacji.
      Obie dziury zostały załatane. Na poprawki czeka jeszcze wersja R440 dla procesora Tesla. Zostaną one udostępnione w przyszłym tygodniu.
      Liczne dziury znaleziono też w Virtual GPU Manager. To oprogramowanie pozwalające wielu wirtualnym maszynom na jednoczesny dostęp do tego samego procesora graficznego. Tutaj najpoważniejsza dziura (CVE-2020-5959) spowodowana jest nieprawidłową weryfikacją danych wejściowych, co pozwala na przeprowadzenie ataku DoS. Lukę tę oceniono na 7,8 w skali CVSS. Druga z luk występująca w tym oprogramowaniu, CVE-2020-5960, została oceniona jako średnio poważna. Również ona umożliwia DoS.
      Poprawione wersje sterowników można pobrać na stronie Nvidii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Toyota czy Volkswagen sprzedają wielokrotnie więcej samochodów niż Tesla, ale to firma Muska ma coś, czego mogą jej pozazdrościć konkurenci i co może całkowicie zmienić krajobraz motoryzacji. Tym czymś jest Hardware 3, najnowszy komputer sterujący stosowany w nowych pojazdach Model 3, Model S i Model X.
      Analitycy z Nikkei Asian Review uważają, że o 6 lat wyprzedza on najlepsze osiągnięcia konkurencji. Inżynier jednego z dużych japońskich producentów motoryzacyjnych, który pracował w zespole analizującym budowę samochodów Tesli, po zapoznaniu się z Hardware 3 stwierdził nie możemy zrobić czegoś takiego.
      Hardware 3 składa się z dwóch układów scalonych sztucznej inteligencji autorstwa Tesli. Komputer odpowiada zarówno za całą autonomię samochodu, jak i za jego środowisko informatyczne. Eksperci uważają, że tak zaawansowany sprzęt upowszechni się w przemyśle motoryzacyjnym nie wcześniej niż w 2025 roku.
      Hardware 3 to efekt ewolucji Autopilota, który zadebiutował w 2014 roku. System, zwany wówczas Hardware 1, był w stanie podążać za innymi samochodami, głównie na autostradach i automatycznie trzymać się swojego pasa ruchu. Co 2-3 lata Tesla dokonywała poważnych udoskonaleń swojego systemu, aż powstał Hardware 3.
      Tacy giganci jak Toyota czy Volkswagen, z ich olbrzymim zapleczem inżynieryjnym i zasobami finansowymi, nie powinni mieć problemu w opracowaniu do roku 2025 podobnie zaawansowanego komputera sterującego samochodem.
      Jednak nie kwestie finansowe wchodzą tu w grę. Zdaniem inżyniera, który wypowiedział przytoczone powyżej zdanie nie możemy tego zrobić, problem leży w tym, że producenci samochodów obawiają się, iż komputery takie, jak zastosowane przez Teslę mogą spowodować, że cały łańcuch dostaw, który budowali i udoskonalali przez dziesięciolecia, stanie się przestarzały i niepotrzebny.
      System Tesli znacznie zmniejsza zapotrzebowanie na elektroniczne moduły sterujące (ECU) w samochodzie. Niektóre z nowoczesnych samochodów są wyposażone nawet w 80 ECU. Jeśli przemysł motoryzacyjny zmniejszyłby ich liczbę to, biorąc pod uwagę roczną sprzedaż samej tylko Toyoty i Volkswagena, zapotrzebowanie na ECU mogłoby spaść o setki milionów sztuk rocznie. Dla wielu producentów tych podzespołów oznaczałoby to bankructwo.
      Dlatego też wielkie koncerny motoryzacyjne czują się zobowiązane do używania złożonego systemu dziesiątków ECU, podczas gdy w Model 3 Tesli takich modułów jest zaledwie kilka. Patrząc na to z innej perspektywy możemy stwierdzić, że poddostawcy, którzy w przeszłości umożliwili wzrost i innowacje gigantom rynku motoryzacyjnego, teraz hamują te innowacje.
      Nowe firmy, takie jak Tesla, nie są tak bardzo powiązane z dostawcami, mają więc większą swobodę działania.
      Analiza Nikkei Asian Review ujawniła kolejną interesującą cechę tesli. Okazuje się, że na większości części w Model 3 nie ma nazwy dostawcy. wiele z nich ma logo Tesli. To wskazuje, że koncern Muska ściśle kontroluje prace nad niemal każdym elementem pojazdu. Ma więc olbrzymią swobodę w tym zakresie. A gdy samochód wyposażony jest w odpowiedni sprzęt, dokładnie taki, jaki od początku do końca wymyślił jego producent, można go na przykład... zdalnie udoskonalić.
      W tej chwili pojazdy Tesli są oficjalnie klasyfikowane jako należące do kategorii Level 2, czyli uznawane są za „częściowo autonomiczne”. Jednak Elon Musk twierdzi, że posiadają wszystko, co niezbędne, by być całkowicie autonomicznymi. A to oznacza, że wystarczy zgoda odpowiednich urzędów oraz zgoda użytkownika, by już teraz produkowane samochody zdalnie zaktualizować i uczynić z nich w pełni autonomiczne pojazdy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...