Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

500 najpotężniejszych komputerów świata

Recommended Posts

Opublikowano 28. już wydanie listy TOP500, na której wymieniono 500 najpotężniejszych superkomputerów na świecie.

Na czele listy wciąż znajduje się komputer BlueGene/L produkcji IBM’a, który pracuje w Lawrence Livermore National Labolatory w USA. Jego maksymalna zmierzona moc obliczeniowa wynosi 280,6 teraflopsa, czyli 280,6 biliona operacji na sekundę. Teoretycznie jednak może on osiągnąć wydajność rzędu 367 teraflopsów.

Na drugim miejscu nastąpiła zmiana. Obecnie znajduje się na nim maszyna Red Storm zbudowana przez Craya. Stojący w Sandia National Laboratories superkomputer osiągnął wydajność 101,4 biliona operacji na sekundę.

Trzecie miejsce, po spadku z drugiego, należy do kolejnego produktu IBM’a o nazwie eServer Blue Gene Solution, który powstał na potrzeby Thomas J. Watson Research Center. Jego wydajność to 91,2 teraflopsów.

Czwarte miejsce przypadło kolejnemu komputerowi z USA – ASC Purple, produkcji IBM’a. Znalazł się tam dzięki osiągnięciu 75,76 biliona operacji w ciągu sekundy.

Dopiero na 5. miejscu napotykamy najpotężniejszy europejski komputer – MareNostrum z Barcelony. Maszyna autorstwa inżynierów z IBM’a potrafi wykonać 62 biliony 630 miliardów operacji w ciągu sekundy.

Najpotężniejszy superkomputer na świecie wykorzystuje 131 072 procesory z rodziny PowerPC IBM’a. Podobnie jest w innych maszynach autorstwa Błękitnego Giganta. Blue Gene Solution to 40 960 procesorów, ASC Purple korzysta z 12 208, a MareNostrum z 10 240 CPU. W pierwszej piątce tylko Red Storm wykorzystuje inne procesory. Są to 2,4-gigahercowe dwurdzeniowe Opterony. W superkomputerze mieści się ich 26 544.

Największym producentem superkomputerów na świecie jest IBM. Zbudował on 236 (czyli 47,2%) maszyn z listy TOP500. Na drugim miejscu znajduje się Hewlett-Packard ze 158 (31,6%) komputerami, następnie SGI, które stworzyło 20 superkomputerów, później zaś Dell (18) oraz Cray (15).

Najczęściej w superkomputerach wykorzystywane są układy Intela. Przede wszystkim kości zbudowane w oparciu o architekturę IA-32. Na świecie znajduje się 120 superkomputerów z listy TOP500 korzystających z tych procesorów. Drugą pod względem popularności jest architektura AMD x86_64, którą znajdziemy w 113 maszynach. Kolejne miejsce należy znowu do Intela. Procesory EM64T zostały zastosowane w 108 maszynach. Na kolejnych miejscach znalazły się IBM-owskie procesory Power (91 superkomputerów) oraz IA-64 Intela (35 maszyn).

Skoro już o procesorach mowa, to warto wspomnieć, że większość superkomputerów z listy wykorzystuje od 513 do 1024 procesorów. Takich maszyn jest 192. W niewielu mniej, bo 185, znajdziemy od 1025 do 2048 CPU. Na liście znajdują się natomiast jedynie 4 komputery korzystające z 32 do 64 procesorów. Natomiast jeśli chodzi o największą liczbę jednostek centralnych to wszelkie rekordy bije BlueGene/L, który jest jedynym komputerem w przedziale od 64 000 do 128 000 CPU. Mimo to jego maksymalna wydajność jest jedynie dwuipółkrotnie mniejsza, niż wydajność wszystkich 192 maszyn z przedziału 513-1024 procesory.

Najwięcej, bo aż 285 superkomputerów, nie ma przydzielonego stałego zadania. Oznacza to, że wykorzystywane są w wielu różnych celach, w tym wojskowych, gdzie służą m.in. do symulacji wybuchów jądrowych. Równie dobrze jednak używane są do badania oddziaływania różnych leków czy innych związków chemicznych na białka.
Przemysł półprzewodnikowy wykorzystuje 50 superkomputerów, a do zadań typowo akademickich zaprzęgnięto 46 maszyn. Finansami zajmuje się 29 tego typu maszyn, 17 służy geofizykom, a kolejne 17 wykorzystywane jest do badań nad klimatem.

Superkomputery korzystają przede wszystkim z różnych odmian systemu Linux. Takich maszyn jest aż 376. Z czołowej pięćsetki 86 komputerów wykorzystuje systemy uniksowe, a 32 – mieszane. Pod kontrolą systemów z rodziny BSD pracują 3 superkomputery, tyle samo co pod kontrolą Mac OS.

Najwięcej superkomputerów znajduje się w Stanach Zjednoczonych. Jest ich tam 309. Drugie miejsce w tej klasyfikacji zajmują, ex aequo, Wielka Brytania i Japonia. Biorąc jednak pod uwagę moc obliczeniową, japońskie komputery są potężniejsze. W sumie wykonują one 286,674 biliona operacji na sekundę, podczas gdy brytyjskie "tylko” 186,420 biliona. Na trzecim miejscu znowu jest remis, tym razem pomiędzy Niemcami a Chinami. W obu tych krajach pracuje po 18 superkomputerów. Dwkrotnie bardziej wydajne są jednak te niemieckie (145 teraflopsów wobec 72 Tflops). Na czwartym miejscu uplasowała się Francja z 12 superkomputerami, a na piątym 10 indyjskich maszyn.

Na liście TOP500 znalazły się komputery, których wydajność wynosiła co najmniej 2,736 teraflopsa. Nie zmieściła się na niej żadna maszyna z Polski.

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Po raz pierwszy w historii udało się zdobyć klucz szyfrujący, którym Intel zabezpiecza poprawki mikrokodu swoich procesorów. Posiadanie klucza umożliwia odszyfrowanie poprawki do procesora i jej analizę, a co za tym idzie, daje wiedzę o luce, którą poprawka ta łata.
      W tej chwili trudno jest ocenić rzeczywisty wpływ naszego osiągnięcia na bezpieczeństwo. Tak czy inaczej, po raz pierwszy w historii Intela udało się doprowadzić do sytuacji, gdy strona trzecia może wykonać własny mikrokod w układach tej firmy oraz przeanalizować poprawki dla kości Intela, mówi niezależny badacz Maxim Goryachy. To właśnie on wraz z Dmitrym Sklyarovem i Markiem Ermolovem, którzy pracują w firmie Positive Technolgies, wyekstrahowali klucz szyfrujący z układów Intela. Badacze poinformowali, że można tego dokonać w przypadku każdej kości – Celerona, Pentium i Atoma – opartej na mikroarchitekturze Goldmont.
      Wszystko zaczęło się trzy lata temu, gdy Goryachy i Ermolov znaleźli krytyczną dziurę Intel SA-00086, dzięki której mogli wykonać własny kod m.in. w Intel Management Engine. Intel opublikował poprawkę do dziury, jednak jako że zawsze można przywrócić wcześniejszą wersję firmware'u, nie istnieje całkowicie skuteczny sposób, by załatać tego typu błąd.
      Przed pięcioma miesiącami badaczom udało się wykorzystać tę dziurę do dostania się do trybu serwisowego „Red Unlock”, który inżynierowie Intela wykorzystują do debuggowania mikrokodu. Dzięki dostaniu się do Red Unlock napastnicy mogli
      zidentyfikować specjalny obszar zwany MSROM (microcode sequencer ROM). Wówczas to rozpoczęli trudną i długotrwałą procedurę odwrotnej inżynierii mikrokodu. Po wielu miesiącach analiz zdobyli m.in. klucz kryptograficzny służący do zabezpieczania poprawek. Nie zdobyli jednak kluczy służących do weryfikacji pochodzenia poprawek.
      Intel wydał oświadczenie, w którym zapewnia, że opisany problem nie stanowi zagrożenia, gdyż klucz używany do uwierzytelniania mikrokodu nie jest zapisany w chipie. Zatem napastnik nie może wgrać własnej poprawki.
      Faktem jest, że w tej chwili napastnicy nie mogą wykorzystać podobnej metody do przeprowadzenia zdalnego ataku na procesor Intela. Wydaje się jednak, że ataku można by dokonać, mając fizyczny dostęp do atakowanego procesora. Nawet jednak w takim przypadku wgranie własnego złośliwego kodu przyniosłoby niewielkie korzyści, gdyż kod ten nie przetrwałby restartu komputera.
      Obecnie najbardziej atrakcyjną możliwością wykorzystania opisanego ataku wydaje się hobbistyczne użycie go do wywołania różnego typu zmian w pracy własnego procesora, przeprowadzenie jakiegoś rodzaju jailbreakingu, podobnego do tego, co robiono z urządzeniami Apple'a czy konsolami Sony.
      Atak może posłużyć też specjalistom ds. bezpieczeństwa, który dzięki niemu po raz pierwszy w historii będą mogli dokładnie przeanalizować, w jaki sposób Intel poprawia błędy w swoim mikrokodzie lub też samodzielnie wyszukiwać takie błędy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W latach 30. XX wieku Stany Zjednoczone doświadczyły Dust Bowl. Był to kilkuletni okres katastrofalnych susz na Wielkich Równinach i związanych z tym burz piaskowych. W wyniku Dust Bowl zginęło około 7000 osób, ponad 2 miliony ludzi zostało bezdomnymi, a około 3,5 miliona porzuciło dotychczasowe domy i przeniosło się w inne regiony USA.
      Produkcja pszenicy w latach 30. spadła o 36%, a kukurydzy o 48%. Do roku 1936 straty gospodarcze sięgnęły kwoty 25 milionów USD dziennie, czyli 460 milionów współczesnych dolarów.
      Dust Bowl był spowodowany nieprawidłową gospodarką ziemią na Wielkich Równinach. Wcześniejsze dekady to okres pojawiania się coraz większej ilości sprzętu mechanicznego w rolnictwie. To ułatwiło zajmowanie kolejnych obszarów pod uprawy. Pługi coraz głębiej wzruszały wierzchnią warstwę gleby, a naturalne dla tego obszaru trawy, których głębokie systemy korzeniowe zatrzymywały wilgoć w glebie, zostały zastąpione roślinami uprawnymi o płytkich korzeniach. Gdy w latach 30. nadeszła susza, gleba, której nie wiązały już korzenie traw, łatwo zamieniała się w pył, który z łatwością przemieszczał się z wiatrem. Nastała epoka wielkich burz pyłowych. Chmury pyłu zasypywały wszystko na swojej drodze, niszcząc uprawy. Dopiero gdy skończył się okres susz i zaczęło więcej padać, zakończył się też Dust Bowl.
      Naukowcy z Columbia University i NASA postanowili zbadać, jak na ponowny Dust Bowl zareagowałby obecnie rynek żywności. Trzeba bowiem pamiętać, że USA są wielkim producentem i eksporterem żywności. Chcieliśmy sprawdzić, jak wieloletni spadek produkcji u dużego eksportera wpłynąłby na międzynarodowy handel i dostępność pożywienia, mówi doktor Alison Heslin, główna autorka badań.
      We współczesnym zglobalizowanym systemie handlowym problemy pojawiające się w jednym miejscu nie są ograniczane granicami państwowymi. Załamanie produkcji może wpływać na partnerów handlowych, których bezpieczeństwo żywności zależy od importu, dodaje uczona.
      Naukowcy stworzyli dwie alternatywne symulacje światowego handlu pszenicą. Następnie wprowadzili do nich czteroletni okres Dust Bowl ograniczony wyłącznie do USA.
      W pierwszym z modeli kraje najpierw użyły swoich rezerw, a następnie skompensowały niedobory zwiększając import i zmniejszając eksport. W ten sposób doszło do rozniesienia się fali niedoborów. W drugim ze scenariuszów przyjęto, że USA początkowo zmniejszają tylko eksport, na czym cierpią wszyscy partnerzy, a następnie wszystkie kraje kompensują niedobory zwiększając import.
      Analizy wykazały, że obecny wpływ Dust Bowl byłby podobny jak podczas oryginalnego Dust Bowl.
      Okazało się, że w ciągu czterech pierwszych lat Dust Bowl USA wyczerpałyby 94% swoich rezerw żywnościowych. Również wszystkie bez wyjątku kraje, które kupują pszenicę w USA, wyczerpałyby swoje rezerwy, mimo tego, że same nie doświadczyłyby spadku plonów. Oczywiście zapasy te byłyby też uzupełniane, ale i tak wielkość posiadanych rezerw znacząco by się skurczyła w porównaniu ze stanem wyjściowym.
      Skupiliśmy się na całym zestawie możliwych wydarzeń, szczególnie na zmianach w handlu, użyciu rezerw strategicznych oraz spadkach w konsumpcji, wyjaśnia profesor Jessica Gephard, współautorka badań. Zauważyliśmy, że doszłoby do zmiany umów handlowych, kraje kupujące zboże w USA zaczęłyby kupować je gdzie indziej, a na całym świecie doszłoby do spadku strategicznych rezerw pszenicy. W wielu wypadkach rezerwy te zostałyby całkowicie wyczerpane. To wskazuje, że takie wydarzenie spowodowałoby nie tylko wzrost cen w USA, ale też daleko poza granicami Stanów Zjednoczonych, dodaje Gephart.
      Z symulacji wynika, że trwający 4 lata Dust Bowl spowodowałby, że światowe rezerwy pszenicy spadłyby o 31%. Pod koniec 4-letniego okresu na świecie byłoby od 36 do 52 krajów, których rezerwy skurczyłyby się o ponad 75% w porównaniu do okresu sprzed Dust Bowl. Z kolei 10 krajów o największych rezerwach (Chiny, USA, Indie, Iran, Kanada, Rosja, Maroko, Australia, Egipt i Algieria) doświadczyłyby spadku rezerw o 15-22%.
      Jako, że świat posiada duże zapasy zboża, początkowo Dust Bowl nie wpłynąłby na poziom konsumpcji. Nawet kraje, które nie posiadają rezerw zboża byłyby w stanie początkowo zapewnić niezmienny poziom dostaw na rynek.
      Nasze wyniki pokazują, że ryzyka związane ze zmianami klimatycznymi nie dotyczą wyłącznie samego klimatu i lokalnie występujących ekstremalnych warunków pogodowych. To również ich wpływ na światowy handel. W kontekście bezpieczeństwa żywności wykazaliśmy, że posiadane rezerwy mogą, na pewien czas, stanowić bezpieczny bufor, jednak w miarę ich wyczerpywania mogą pojawić się niedobory żywności, mówi Heslin.
      Obecnie USA są trzecim największym na świecie eksporterem pszenicy. Zapewniają 13,6% dostaw na światowe rynki. Większymi eksporterami są jedynie Rosja (21,1%) i Kanada (14,2%).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rząd USA przygotowuje się na pandemię trwającą co najmniej 1,5 roku. Takie są założenia wdrażanego od niedawna planu przygotowań. Dziennikarze The New York Timesa zdobyli oficjalny raport [PDF], na potrzeby którego założono, że pandemia potrwa 18 miesięcy lub dłużej i może składać się z wielu fal zachorowań. Może to doprowadzić do pojawienia się niedoborów, które negatywnie odbiją się na amerykańskim systemie opieki zdrowotnej.
      Stustronicowy plan datowany jest na ostatni piątek. W tym samym dniu prezydent Trump ogłosił w Stanach Zjednoczonych stan wyjątkowy. W dokumencie stwierdzono, że prezydent mógłby uruchomić Defense Production Act (DPA) z 1950 roku, z epoki wojny koreańskiej. Ustawa daje prezydentowi prawo do nakazania przemysłowi zwiększenia produkcji krytycznych towarów, takich jak respiratory czy środki ochronne dla pracowników służby zdrowia.
      W dokumencie czytamy może dojść do niedoborów, które będą miały wpływ na system opieki zdrowotnej, służby ratunkowe i inne elementy krytycznej infrastruktury. Dotyczy to też niedoborów sprzętu diagnostycznego, leków, środków ochrony osobistej w niektórych regionach kraju. Autorzy dokumentu stwierdzają, że rządy stanowe i lokalne oraz krytyczna infrastruktura i kanały komunikacyjne mogą zostać przeciążone i mniej wiarygodne".
      Plan nie został utajniony, ale jest na nim adnotacja „Do użytku wewnętrznego. Nie do upubliczniania”. Na 100 stronach opisano działania, jakie powinny podjąć lub już podjęły, różne agendy rządowe.
      Wydaje się, że Waszyngton – krytykowany dotychczas za niedostateczne działania – wziął się do pracy. Członkowie Kongresu od pewnego już czasu wzywali prezydenta, by skorzystał z uprawnień, jakie nadaje mu Defense Production Act. Wdrożenie uprawnień nadanych prezydentowi przez DPA pozwoli rządowi federalnemu na rozpoczęcie działań i podjęcie agresywnych kroków, niezbędnych w obecnej sytuacji, stwierdził w liście do prezydenta demokratyczny senator Bob Menendez. Inni senatorowie zwracał uwagę, że uruchomienie DPA pozwoli Pentagonowi na dostarczenie służbie zdrowia 5 milionów pełnych masek ochronnych i 2000 wyspecjalizowanych respiratorów.
      Jeszcze w czwartek prezydent Trump wzbraniał się przed skorzystaniem z DPA. Dotychczas tego nie zrobiliśmy, ale jesteśmy gotowi. Jeśli będziemy chcieli, zrobimy to bardzo szybko. Od dwóch tygodni zastanawiamy się nad takim ruchem. Mam nadzieję, że nie będziemy potrzebowali takich działań. To poważna sprawa. Dzisiaj Trump ogłosił, że uruchamia przepisy Defense Production Act.
      Ustawa ta, uchwalona w 1950 roku w czasie wojny w Korei, bazuje na doświadczeniach z II wojny światowej. Początkowo dawała ona prezydentowi uprawnienia do nakazania przemysłowi produkcji towarów niezbędnych do obrony kraju. Z czasem rozszerzano te uprawnienia również na inne nadzwyczajne sytuacje.
      Na jej podstawie prezydent ma prawo decydować o uruchomieniu bezpośrednich kredytów lub gwarancji kredytowych oraz podejmowania innych działań mających na celu zachęcenie przemysłu do współpracy. Ma też prawo do zdecydowania o rozpoczęciu dystrybucji sprzętu medycznego i wyposażenia zgromadzonych w Strategicznej Rezerwie Narodowej, kierowaniu federalnych pieniędzy do poszczególnych stanów oraz decydowaniu, gdzie mają trafić krytyczne zasoby tak, by wysyłano je w najbardziej potrzebujące regiony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W chipsetach Intela używanych od ostatnich pięciu lat istnieje dziura, która pozwala cyberprzestępcom na ominięcie zabezpieczeń i zainstalowanie szkodliwego kodu takiego jak keyloggery. Co gorsza, luki nie można całkowicie załatać.
      Jak poinformowała firma Positive Technologies, błąd jest zakodowany w pamięci ROM, z której komputer pobiera dane podczas startu. Występuje on na poziomie sprzętowym, nie można go usunąć. Pozwala za to na przeprowadzenie niezauważalnego ataku, na który narażone są miliony urządzeń.
      Na szczęście możliwości napastnika są dość mocno ograniczone. Przeprowadzenie skutecznego ataku wymaga bowiem bezpośredniego dostępu do komputera lub sieci lokalnej, w której się on znajduje. Ponadto przeszkodę stanowi też klucz kryptograficzny wewnątrz programowalnej pamięci OTP (one-time programable). Jednak jednostka inicjująca klucz szyfrujący jest również podatna na atak.
      Problem jest poważny, szczególnie zaś dotyczy przedsiębiorstw, które mogą być przez niego narażone na szpiegostwo przemysłowe. Jako, że błąd w ROM pozwala na przejęcie kontroli zanim jeszcze zabezpieczony zostanie sprzętowy mechanizm generowania klucza kryptograficznego i jako, że błędu tego nie można naprawić, sądzimy, że zdobycie tego klucza jest tylko kwestią czasu, stwierdzili przedstawiciele Positive Technologies.
      Błąd występuję w chipsetach Intela sprzedawanych w przeciągu ostatnich 5 lat. Wyjątkiem są najnowsze chipsety 10. generacji, w której został on poprawiony.
      Intel dowiedział się o dziurze jesienią ubiegłego roku. Przed kilkoma dniami firma opublikowała poprawkę, która rozwiązuje problem. Firma przyznaje, że programowe naprawienie dziury jest niemożliwe. Dlatego też poprawka działa poprzez poddanie kwarantannie wszystkich potencjalnych celów ataku.
      Dziura znajduje się w Converged Security Management Engine (CSME), który jest odpowiedzialny za bezpieczeństwo firmware'u we wszystkich maszynach wykorzystujących sprzęt Intela.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...