Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Łamanie Bitcoina i symulowanie molekuł – jak duży musi być komputer kwantowy, by tego dokonać?

Rekomendowane odpowiedzi

Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.

Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.

Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.

Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.

Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.

Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.

To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.

Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.

Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Łamać Bitcoina" można po prostu wynajmując odpowiednią moc obliczeniową - tzw. ataki 51%, ok. $1.5M/h dla Bitcoin, Etherium i szybko spada dla kolejnych - lista: https://www.crypto51.app/

A co do rozwoju sprawnych komputerów kwantowych do 30-300M qubitów dla łamania Bitcoina, warto przypomnieć że rekordem algorytmu Shora jest dalej faktoryzacja 21 = 7*3 ... z 2012 roku: https://en.wikipedia.org/wiki/Shor's_algorithm (w 2019 próbowali 35=7*5 ale ich przerosło przez akumulację błędów).

Edytowane przez Jarek Duda

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie: 21 rozdzielone na 3 i 7.
O tym 35 nie wiedziałem :)
Komputery kwantowe to większa bańka niż większość krypto.
Może ktoś z nas dożyje jak sfaktoryzują coś w rodzaju 169. 

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe, gdy w końcu staną się rzeczywistością, mają poradzić sobie z obliczeniami niemożliwymi do wykonania przez komputery klasyczne w rozsądnym czasie. Powstaje pytanie, czy istnieje granica wydajności obliczeniowej komputerów kwantowych, a jeśli tak, to czy można ją będzie w przyszłości przesuwać czy też trzeba będzie wymyślić zupełnie nową technologię. Odpowiedzi na nie postanowili poszukać Einar Gabbassov, doktorant z Instytutu Obliczeń Kwantowych University of Waterloo i Perimeter Institute oraz profesor Achim Kempf z Wydziału Fizyki Informacji i Sztucznej Inteligencji University of Waterloo i Perimeter Institute. Ich praca na ten temat ukazała się na łamach Quantum Science and Technology.
      Okazuje się, że jeśli komputer kwantowy ma rozwiązać jakiś problem, to jego złożoność przekłada się na bardziej złożone splątanie kwantowe. To oznacza, że problem obliczeniowy staje się rzeczywistością fizyczną, w której kubity zachowują się różnie w zależności od stopnia splątania. To, co było matematyką, zamienia się w fizykę z głównym problemem w postaci splątania kwantowego.
      Najtrudniejsze z zadań obliczeniowych są klasyfikowane jako problemy NP-trudne. Nie mamy dowodów, że komputery kwantowe będą w stanie szybko poradzić sobie z każdym tego typu problemem, ale mamy wielkiej nadzieję, że tak się stanie. Żeby stworzyć algorytm kwantowy, który umożliwi przyspieszenie prac nad problemami NP-trudnymi, używa się klasyfikacji opisującej złożoność takich procesów w odniesieniu do rzeczywistości fizycznej. Często używa się analogii do krajobrazu. Profesor Kempf mówi, by wyobrazić sobie, że wyskakujemy z samolotu ze spadochronem i mamy za zadanie wylądować w najniższym punkcie okolicy. Tam znajdziemy skarb. W problemie łatwym mamy pod sobą krajobraz, w którym znajduje się jedna wyraźnie widoczna dolina z łagodnie opadającymi stokami. W problemie trudnym pod nami znajduje się teren poprzecinany wieloma dolinami, szczelinami i klifami. Ocena, gdzie należy się kierować jest niezwykle trudna. Komputer kwantowy pozwoliły na przeszukanie całego terenu jednocześnie i od razu wskazałby właściwy punkt lądowania. Jednak, by tego dokonać, splątanie między kubitami musi być tak złożone, jak krajobraz. To właśnie w splątaniu tkwi potęga obliczeń kwantowych.
      Odkryliśmy, że trudne problemy matematyczne są tak trudne dlatego, że wymagają od komputerów kwantowych, by manipulowały, tworzyły i rozprzestrzeniały wewnątrz systemu wysoce złożone układy splątań. W miarę ewolucji systemu, kubity zaczynają tworzyć złożoną sieć. Związki pomiędzy nimi zmieniają się, przemieszczają, tworzące kubity cząstki tracą splątanie i na nowo się splątują. Trudne problemy wymagają ciągłych zmian tego typu, a to właśnie determinuje, jak szybkie mogą być obliczenia, wyjaśnia Gabbassov.
      Obaj uczeni proponują w swoim artykule nowy sposób pomiaru prędkości rozwiązania dowolnego problemu w oparciu o wymagany stopień złożoności splątania kwantowego. Zaproponowana metoda została opracowana na potrzeby adiabatycznych maszyn kwantowych, jednak powinna działać też na innych typach maszy, więc można ją będzie szeroko stosować. Gabbassov i Kempf mają nadzieję, ze ich praca zainspiruje innych specjalistów, którzy wykorzystają ją na swoich polach specjalizacji. Myślę, że badania te przyspieszą pracę nad ekonomicznie opłacalnymi obliczeniami kwantowymi, stwierdził Kempf.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
      Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
      Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
      Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
      Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.

      Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
      Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
      Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
      Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
      Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
      To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
      Bramki zostały szczegółowo opisane na łamach Physical Review Applied.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
      W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
      Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
      Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
      Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
      Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa amerykańskich uczonych opracowała pierwszy materiał 2D z mechanicznie splecionych molekuł. Materiał przypomina strukturą kolczugę. Jest dzięki temu wyjątkowo elastyczny i wytrzymały. W przyszłości może posłużyć do stworzenia lekkich i wytrzymałych kamizelek kuloodpornych i znaleźć zastosowanie wszędzie tam, gdzie potrzebna jest elastyczność i wytrzymałość. Nowy materiał zawiera 100 bilionów splotów na cm2. To najgęstszy kiedykolwiek stworzony splot mechaniczny.
      Stworzyliśmy zupełnie nową strukturę polimerową. Jest ona podobna do kolczugi w tym, że nie rozdziera się łatwo, gdyż każde z mechanicznych połączeń ma pewien zakres swobody i może się przemieszczać. Jeśli ją zaczniesz rozciągać, siła zostanie rozproszona w różnych kierunkach. A gdy zechcesz ją podrzeć, musisz rozdzielić ją w wielu miejscach. Wciąż badamy właściwości tego polimeru i prawdopodobnie zajmie to nam całe lata, mówi William Dichtel z Northwestern University.
      Naukowcy od lat próbowali uzyskać polimer o mechanicznie zazębionych molekułach, ale nie potrafili spowodować, by molekuły polimeru łączyły się ze sobą mechanicznie. Zespół Dichtela zaczął pracę od ułożenia monomerów mających kształt X w uporządkowaną strukturę krystaliczną. Następnie przeprowadzili reakcję takich kryształów z inną molekułą, tworząc mechaniczne wiązania pomiędzy molekułami w krysztale. W ten sposób uzyskali kryształ składający się dwuwymiarowych mechanicznie splątanych warstw polimeru. W każdej z takich warstw monomery w kształcie X są zazębione z innymi monomerami w kształcie X. A w wolne miejsca pomiędzy nimi wplecione są kolejne monomery. Struktura taka jest zaskakująco elastyczna
      Gdy naukowcy umieścili swój kryształ w rozpuszczalniku okazało się, że poszczególne warstwy oddzielają się od siebie. Nie ma zbyt wielu elementów, które utrzymywałyby cały polimer razem. Gdy więc włożyliśmy go do rozpuszczalnika, kryształ się rozpadł, ale każda z dwuwymiarowych warstw trzymała się razem. Mogliśmy manipulować tymi warstwami, mówi Dichtel.
      Współpracujący z Dichtelem naukowcy z Duke University, zainspirowani wytrzymałością nowego polimeru, połączyli go z Ultemem. To bardzo wytrzymały polimer przemysłowy. Jest odporny na wysokie temperatury, działanie silnych kwasów i zasad. Stworzyli kompozyt składający się z 97,5% Ultemu i 2,5% nowego polimeru. Wystarczył tak niewielki odsetek nowego polimeru, by znacząco poprawić ogólną wytrzymałość Ultemu. Zdaniem Dichtela to wskazówka, że uzyskany właśnie materiał może znacząco poprawić właściwości innych materiałów. Przed nami jeszcze sporo analiz do przeprowadzenia, ale już teraz możemy powiedzieć, że poprawia on wytrzymałość kompozytów. Niemal każda jego właściwość, którą już zmierzyliśmy, była w jakiś sposób wyjątkowa, cieszy się uczony.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...