Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Unimon – nowy nadprzewodzący kubit zapewnia większą dokładność obliczeń kwantowych
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
Bramki zostały szczegółowo opisane na łamach Physical Review Applied.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dwie amerykańskie grupy badawcze stworzyły – niezależnie od siebie – pierwsze kwantowe procesory, w których rolę kubitów odgrywają atomy. To potencjalnie przełomowe wydarzenie, gdyż oparte na atomach komputery kwantowe mogą być łatwiej skalowalne niż dominujące obecnie urządzenia, w których kubitami są uwięzione jony lub nadprzewodzące obwody.
W 2020 roku firma Heoneywell pochwaliła się, że jej komputer na uwięzionych jonach osiągnął największą wartość „kwantowej objętości”. Tego typu maszyny, mają tę zaletę, że jony w próżni jest dość łatwo odizolować od zakłóceń termicznych, a poszczególne jony w chmurze są nieodróżnialne od siebie. Problemem jest jednak fakt, że jony wchodzą w silne interakcje, a do manipulowania nimi trzeba używać pól elektrycznych, co nie jest łatwym zadaniem.
Z drugiej zaś strony mamy kwantowe maszyny wykorzystujące obwody nadprzewodzące. Za najpotężniejszy obecnie procesor kwantowy z takimi obwodami uznaje się 127–kubitowy Eagle IBM-a. Jednak wraz ze zwiększaniem liczby kubitów, urządzenia tego typu napotykają coraz więcej problemów. Każdy z kubitów musi być w nich wytwarzany indywidualnie, co praktycznie uniemożliwia wytwarzanie identycznych kopii, a to z kolei – wraz z każdym dodanym kubitem – zmniejsza prawdopodobieństwo, że wynik obliczeń prowadzonych za pomocą takiego procesora będzie prawidłowy. Jakby jeszcze tego było mało, każdy z obwodów musi być schłodzony do niezwykle niskiej temperatury.
Już przed sześcioma laty zespoły z USA i Francji wykazały, że możliwe jest przechowywanie kwantowej informacji w atomach, którymi manipulowano za pomocą szczypiec optycznych. Od tamtego czasu Amerykanie rozwinęli swój pomysł i stworzyli 256-bitowy komputer kwantowy bazujący na tej platformie. Jednak nikt dotychczas nie zbudował pełnego obwodu kwantowego na atomach.
Teraz dwa niezależne zespoły zaprezentowały procesory bazujące na takich atomach. Na czele grupy z Uniwersytetu Harvarda i MTI stoi Mikhail Lukin, który w 2016 roku opracował ten oryginalny pomysł. Zespołem z University of Wisonsin-Madison, w pracach którego biorą też udział specjaliści z firm ColdQuant i Riverlane, kieruje zaś Mark Saffman. Zespół Lukina wykorzystał atomy rubidu, zespół Saffmana użył zaś cezu.
Jeśli mamy obok siebie dwa atomy w stanie nadsubtelnym, to nie wchodzą one w interakcje. Jeśli więc chcemy je splątać, jednocześnie wzbudzamy je do stanu Rydberga. W stanie Rydberga wchodzą one w silne interakcje, a to pozwala nam je szybko splątać. Później możemy z powrotem wprowadzić je w stan nadsubtelny, gdzie można nimi manipulować za pomocą szczypiec optycznych, wyjaśnia Dolev Bluvstein z Uniwersytetu Harvarda.
Grupa z Harvarda i MIT wykorzystała stan nadsubtelny do fizycznego oddzielenia splątanych atomów bez spowodowania dekoherencji, czyli utraty kwantowej informacji. Gdy każdy z atomów został przemieszczony na miejsce docelowe został za pomocą lasera splątany z pobliskim atomem. W ten sposób naukowcy byli w stanie przeprowadzać nielokalne operacje bez potrzeby ustanawiania specjalnego fotonicznego lub atomowego łącza do przemieszczania splątania w obwodzie.
W ten sposób uruchomiono różne programy. Przygotowano m.in. kubit logiczny, składający się z siedmiu kubitów fizycznych, w którym można było zakodować informacje w sposób odporny na pojawienie się błędów. Naukowcy zauważają, że splątanie wielu takich logicznych kubitów może być znacznie prostsze niż podobne operacje na innych platformach. Istnieje wiele różnych sztuczek, które są stosowane by splątać kubity logiczne. Jednak gdy można swobodnie przesuwać atomy, to jest to bardzo proste. Jedyne, co trzeba zrobić to stworzyć dwa niezależne kubity logiczne, przesunąć je i przemieszać z innymi grupami, wprowadzić za pomocą lasera w stan Rydberga i utworzyć pomiędzy nimi bramkę, stwierdza Dluvstein. Te technika, jak zapewnia uczony, pozwala na przeprowadzenie korekcji błędów i splątania pomiędzy kubitami logicznymi w sposób niemożliwy do uzyskania w obwodach nadprzewodzących czy z uwięzionymi jonami.
Grupa z Wisconsin wykorzystała inne podejście. Naukowcy nie przemieszczali fizycznie atomów, ale za pomocą lasera manipulowali stanem Rydberga i przemieszczali splątanie po macierzy atomów. Mark Saffman podaje przykład trzech kubitów ustawionych w jednej linii. Za pomocą laserów oświetlamy kubit po lewej i kubit centralny Zostają one wzbudzone do stanu Rydberga i splątane. Następnie oświetlamy atom centralny oraz ten po prawej. W ten sposób promienie laserów kontrolują operacje na bramkach, ale tym, co łączy kubity są interakcje zachodzące w stanach Rydberga.
Grupa Saffmana wykorzystała opracowaną przez siebie technikę do stworzenia składających się z sześciu atomów stanów Greenbergera-Horne'a-Zeilingera. Wykazali też, że ich system może działać jak kwantowy symulator służący np. do szacowania energii molekuły wodoru. Dzięki temu, że nie trzeba było przesuwać atomów, zespół z Wisconsin osiągnął kilkaset razy większe tempo pracy niż zespół z Harvarda i MIT, jednak ceną była pewna utrata elastyczności. Saffman uważa, że w przyszłości można będzie połączyć oba pomysły w jeden lepszy system.
Na razie oba systemy korzystają z niewielkiej liczby kubitów, konieczne jest też wykazanie wiarygodności obliczeń oraz możliwości ich skalowania. Chris Monroe, współtwórca pierwszego kwantowego kubita – który oparty był na uwięzionych jonach – uważa, że obie grupy idą w dobrym kierunku, a kubity na atomach mogą osiągnąć wiarygodność 99,9% i to bez korekcji błędów. Obecnie osiągamy taki wynik na uwięzionych jonach i – mimo że technologia wykorzystania atomów jest daleko z tyłu – nie mam wątpliwości, że w końcu osiągną ten sam poziom, stwierdza.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.