Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Powstał wydajny procesor do kryptografii postkwantowej

Recommended Posts

Powszechna obecność komputerów kwantowych to wciąż dość odległa przyszłość, jednak specjaliści już pracują nad kryptografią postkwantową, czyli technikami kryptograficznymi mającymi na celu uchronienie nas przed atakami przeprowadzanymi za pomocą komputerów kwantowych. Algorytmy takie wymagają jednak olbrzymich mocy obliczeniowych. Teraz naukowcy z Niemiec ogłosili, że stworzyli układ scalony, który bardzo efektywnie wykorzystuje tego typu algorytmy i może rozpocząć epokę kryptografii postkwantowej.

Większość współczesnej kryptografii korzysta z faktu, że komputery klasyczne potrzebują bardzo dużo czasu do rozwiązania złożonych problemów matematycznych, takich jak faktoryzacja (rozkład na czynniki) wielkich liczb. Jednak komputery kwantowe będą radziły sobie z takimi obliczeniami błyskawicznie. A przeprowadzenie udanej faktoryzacji oznacza we współczesnej kryptografii złamanie szyfru.

Dlatego też specjaliści już od lat projektują algorytmy dla kryptografii postkwantowej. To problemy matematyczne, które mają sprawiać dużą trudność zarówno komputerom klasycznym jak i kwantowym. Wiele z nich to algorytmy kratowe. Ta krata to zbiór punktów w przestrzeni z periodyczną strukturą. W strukturze tej można zapisać wektory. Zaszyfrowana wiadomość zależy od jednego z tych punktów/wektorów. Do kraty dodawany jest też losowy szum, a cała trudność polega na tym, by – nie wiedząc jaki szum został dodany – znaleźć oryginalny punkt/wektor za pomocą którego zaszyfrowano wiadomość i go odszyfrować.

Odszyfrowanie tak zabezpieczonej wiadomości jest trudne zarówno dla komputerów klasycznych jak i kwantowych. Jednak wykorzystanie takiego algorytmu wymaga bardzo dużych mocy obliczeniowych. Georg Sigl i jego koledzy z Uniwersytetu Technicznego w Monachium właśnie rozwiązali ten problem.

Wspólnie z Siemensem, Infineonem i Giesecke+Devrient stworzyli układ scalony oparty na opensource'owej architekturze RISC-V. Zarówno układ jak i pracujące na nim oprogramowanie zostały zoptymalizowane pod kątem pracy z algorytmami kratowymi.
W porównaniu z rozwiązaniami bazującymi tylko na oprogramowaniu, nowy układ jest 10-krotnie szybszy podczas pracy z Kyberem, jednym z najbardziej obiecujących algorytmów kratowych. Wykorzystuje też 8-krotnie mniej energii. Co więcej układ jest na tyle elastyczny, że pracuje też z SIKE, innym algorytmem kryptografii postkwantowej, który nie jest algorytmem kratowym. W tym przypadku ma być on 21-krotnie szybszy niż rozwiązania czysto software'owe.

Twórcy nowego układu pracują też nad rozwiązaniem innego problemu bezpieczeństwa – trojanów sprzętowych. To złośliwe elementy sprzętowe celowo wprowadzane do układów scalonych. Sigle i jego grupa wbudowali w swój układ cztery takie trojany.

Aby wiedzieć, czy można zaufać danemu chipowi, musimy posiadać metody jego weryfikacji. Chcemy się dowiedzieć, w jaki sposób można sprawdzić sam sprzęt i wykryć w nim sprzętowe trojany, wyjaśnia Sigl. Każdy z trojanów, które badają specjaliści z Monachium, działa w inny sposób. Jeden może zmniejszać wydajność układu, inny zaś przekazywać dane na zewnątrz. Celem badań jest stworzenie metod identyfikacji tego typu zagrożeń. Na razie udało się opracować trzy metody wykrywania sprzętowych trojanów na etapie projektowania układu scalonego.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Od dekad tranzystory są mniejsze i mniejsze. Dzięki temu w procesorze możemy upakować ich więcej. To zaś najłatwiejszy sposób na zwiększenie wydajności procesora. Powoli zbliżamy się do momentu, w którym nie będziemy już w stanie zmniejszać długości bramki tranzystora. Niewykluczone, że Chińczycy właśnie dotarli do tej granicy.
      Prąd w tranzystorze przepływa pomiędzy źródłem a drenem. Przepływ ten kontrolowany jest przez bramkę, która przełącza się pod wpływem napięcia. Długość bramki to kluczowy czynnik decydujący o rozmiarach tranzystora.
      W ostatnich latach naukowcy zaczęli eksperymentować z nowymi materiałami, z których chcą budować elektronikę przyszłości. W obszarze ich zainteresowań jest na przykład grafen – dwuwymiarowy materiał składający się z pojedynczej warstwy atomów węgla – czy disiarczek molibdenu, czyli warstwa atomów molibdenu zamknięta między dwiema warstwami siarki.
      Teraz specjaliści z Chin wykorzystali te materiały do zbudowania rekordowo małego tranzystora. Długość jego bramki wynosi zaledwie 0,34 nanometra. To tyle, co średnica atomu węgla.
      Nowy tranzystor można porównać do dwóch schodów. Na górnym znajduje się źródło, na dolnym zaś dren. Oba zbudowane są z tytanu i palladu. Powierzchnia schodów działa jak łączący je kanał. Jest ona zbudowana w pojedynczej warstwy disiarczku molibdenu, pod którą znajduje się izolująca warstwa ditlenku hafnu. Wyższy stopień zbudowany jest z wielu warstw. Na samy dole znajduje sie warstwa grafenu, nad nią zaś aluminium pokryte tlenkiem aluminium. Jego zadaniem jest oddzielenie grafenu i disiarczku molibdenu. Jedynym miejscem ich połączenia jest widoczna na grafice niewielka szczelina w wyższym stopniu.
      Gdy bramka zostaje ustawiona w pozycji „on” jej długość wynosi zaledwie 0,34 nm. Autorzy nowego tranzystora twierdzą, że nie uda się tej odległości już bardziej zmniejszyć. Na pewno zaś próba zbudowania jeszcze mniejszych tranzystorów będzie wymagała nowatorskiego podejścia do materiałów dwuwymiarowych.
      Ze szczegółami pracy zespołu z Tsinghua University można zapoznać się na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jeszcze w bieżącym roku ma zadebiutować kolejna edycja systemu operacyjnego Microsoftu – Windows 11. Koncern z Redmond opublikował minimalną specyfikację sprzętową, jaka będzie koniczna, by zaktualizować komputer i okazało się, że wielu użytkowników nie będzie mogło tego zrobić. Windows 11 nie będzie bowiem wspierał wszystkich procesorów. Nie zainstalujemy go na procesorze starszym nią 4–5 lat.
      Microsoft opublikował dokładne listy układów Intela, AMD i Qualcommu, na których można będzie zainstalować najnowszy system operacyjny. Co ciekawe, na liście tej nie ma układu Intel Core i7-7820HQ, który używany jest w microsoftowym notebooku Surface Studio 2. Jak można się domyślać, użytkownicy tego sprzętu nie są zbytnio zadowoleni z faktu, że nie otrzymają najnowszego Windowsa.
      Jednak nie tylko oni. MiIiony osób korzystających obecnie z Windows 10 nie będzie mogło zaktualizować systemu do jego najnowszej edycji. Za pomocą aplikacji PC Health Check możemy sprawdzić, czy nasz komputer spełnia minimalne wymagania, by zainstalować na nim Windows 11.
      Nie do końca jest jasne, na ile ściśle zasady te będą jednak przestrzegane. Już wcześniej menedżerowie Microsoftu sugerowali, że – po wyświetleniu ostrzeżenia – Windows 11 zainstaluje się na części teoretycznie niewspieranych procesorów. Na stronie polskiego Microsoftu czytamy, że na urządzeniach, które nie spełniają minimalnych wymagań zainstalowanie Windows 11 może okazać się niemożliwe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona.
      O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali.
      CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU.
      Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych.
      Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych.
      Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s.
      Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy.
      Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci.
      Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp.
      Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych.
      Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego.
      Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potwierdziły się plotki mówiące o zamiarach porzucenia przez Apple'a architektury x86 i całkowitym przejściu na architekturę ARM. Wczoraj, podczas WWDC 2020, firma oficjalnie ogłosiła rozpoczęcie dwuletniego okresu przechodzenia na ARM. Koncern z Cupertino zaoferuje odpowiednie SDK producentom oprogramowania, a pierwszy komputer z procesorem ARM ma trafić do sprzedaży jeszcze przed końcem bieżącego roku.
      Dyrektor wykonawczy Apple'a, Tim Cook, poinformował, że firma wciąż będzie oferowała nowe modele komputerów z procesorami Intela, jednak w ciągu dwóch lat każdy nowy model będzie też sprzedawany w wersji z procesorem ARM. Ponadto wszystkie przyszłe systemy operacyjne, od edycji MacOS 11 Big Sur będą wspierały architekturę ARM i x86.
      Koncern poinformował też, że już całe jego oprogramowanie, włącznie z takimi programami jak Final Cut czy Logic Pro, ma swoje wersje dla ARM. Firma współpracuje też z Microsoftem i Adobe nad przygotowaniem odpowiednich wersji programów tych firm na komputery Mac z układami ARM. Trwają też prace nad emulatorem Rosetta 2, który pozwoli na uruchamianie programów dla x86 na komputerach z ARM. Pierwsze wersje demonstracyjne takiego oprogramowania jak Maya czy Shadow of the Tomb Raider, wyglądają bardzo obiecująco.
      Apple będzie samodzielnie przygotowywało swoje procesory ARM. Koncern informuje, że powodem podjęcia takiej decyzji była chęć zwiększenia wydajności w przeliczeniu na wat energii. Warto tutaj zauważyć, że samodzielny rozwój i produkcja procesorów pozwolą Apple'owi jeszcze bardziej zmniejszyć zależność od zewnętrznych dostawców i w jeszcze większym stopniu kontrolować sprzedawane przez siebie sprzęt i oprogramowanie.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...