
Procesor Google'a osiągnął kwantową supremację?
By
KopalniaWiedzy.pl, in Technologia
-
Similar Content
-
By KopalniaWiedzy.pl
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.
« powrót do artykułu -
By KopalniaWiedzy.pl
Chińscy naukowcy ogłosili, że dotrzymali słowa danego w grudniu ubiegłego roku i ulepszyli swój układ optyczny tak, że przeprowadził kwantowe gaussowskie próbkowanie bozonu na macierzy 144x144. Tym samym potwierdzili, że ich komputer kwantowy osiągnął kwantową supremację, czyli jest w stanie wykonać obliczenia, których komputery klasyczne nie potrafią wykonać w rozsądnym czasie.
O osiągnięciu kwantowej supremacji słyszeliśmy już kilkukrotnie. Tak na przykład twierdził Google w 2019 roku. Za każdym jednak razem specjaliści wysuwali zastrzeżenia, co do wykorzystanych algorytmów. Tym razem, jak zapewniają Chińczycy, takich zastrzeżeń nie będzie.
Pracami uczonych z Narodowego Laboratorium Nauk Fizycznych na Chińskim Uniwersytecie Nauki i Technologii w Hefei kierował Jian-Wei Pan. Celem prac było zbudowanie komputera kwantowego, który obliczy prawdopodobieństwo wystąpienia danego wyniku na wyjściu w obwodzie kwantowym. Zadanie takie komputery klasyczne potrafią rozwiązać bez większych problemów, pod warunkiem jednak, że istnieje niewiele punktów wyjścia i wejścia takiego obwodu. Gdy jednak jest ich więcej, czas potrzebny do przeprowadzenia obliczeń za pomocą klasycznych komputerów staje się tak długi, że ich przeprowadzanie traci sens.
Zespół przeprowadził gaussowskie próbkowanie bozonu (GBS). Na czym ono polega? Wyobraźmy sobie w tym miejscu układ optyczny z wieloma wejściami i wyjściami. Następnie wpuszczamy do niego pojedyncze fotony, które na swojej drodze do wyjścia napotykają różne komponenty optyczne, jak dzielniki wiązki czy lustra. Nasze zadanie obliczeniowe polega na tym, by określić, jakie fotony pojawią się na wyjściu. Taki układ możemy więc postrzegać jako matrycę dokonującą transformacji konfiguracji fotonów wpuszczonych na wejściu w konfigurację wyjściową. Określenie konfiguracji wyjściowej jest bardzo trudne nawet dla niewielkiej matrycy z rozdzielaczy i lusterek.
Przy rosnącej liczbie punktów wejścia i wyjścia, określenie wyniku takiego eksperymentu jest niezwykle trudne. W grudniu ubiegłego roku Chińczycy wykorzystali GBS składający się ze 100 punktów wejścia i 100 punktów wyjścia. Informowali wówczas, że ich system przeprowadził obliczenia w ciągu około 200 sekund. Tymczasem chiński superkomputer Sunway TaihuLight, 4. najpotężniejszy wówczas komputer na świecie, potrzebowałby do wykonania takich obliczeń... około 2,5 miliarda lat.
Po udanym eksperymencie naukowcy zapowiedzieli, że udało im się udoskonalić GBS na tyle, że przeprowadzą eksperymenty na matrycy 144x144. W 2021 roku nasza maszyna GBS będzie łatwiejsza w dostrojeniu, mniejsza i bardziej stabilna. Zaczynamy zastanawiać się nad jej wdrożeniem do celów praktycznych, mówili wówczas.
Teraz dotrzymali złożonej obietnicy. Poinformowali, że przy matrycy 144x144 istnieje 1043 możliwych rozwiązań, a ich GBS dokonał obliczeń 1023 razy szybciej niż superkomputer. Tym samym, zapewniają, osiągnęli kwantową supremację.
« powrót do artykułu -
By KopalniaWiedzy.pl
Wiele współczesnych komputerów kwantowych zapisuje informacje w nietrwałych stanach kwantowych, które bardzo trudno jest utrzymać i skalować. Rozwiązaniem problemu może być trwały nanomechaniczny kubit.
Kwantowe bity zbudowane z wibrujących węglowych nanorurek i par kropek kwantowych mogą być bardzo odporne na zakłócenia zewnętrzne. Tak przynajmniej wynika z obliczeń wykonanych przez Fabio Pistolesiego z francuskiego Narodowego Centrum Badań Naukowych i jego kolegów z Hiszpanii i USA. Obliczenia wskazują bowiem, że czas dekoherencji takiego nanomechanicznego kubitu były bardzo długi, co czyni tę architekturę obiecującym elementem komputerów kwantowych.
Komputery kwantowe mogą, przynajmniej teoretycznie, dokonywać wielu obliczeń znacznie szybciej niż maszyny klasyczne. Wynika to z samych zasad fizyki kwantowej. Najmniejszą jednostką informacji, jaką posługują się komputery, jest bit, reprezentowany przez cyfrę „0” lub „1”. W 4 bitach możemy zapisać 16 (24) kombinacji zer i jedynek. W komputerze klasycznym w danym momencie możemy zapisać jedną z tych kombinacji – gdyż każdy z bitów może przyjąć pozycję albo „0” albo „1” – i wykonać na niej działania.
Jednak komputery kwantowe nie korzystają z bitów, a z kubitów (bitów kwantowych). Kubitem może być np. elektron. A z praw mechaniki kwantowej wiemy, że nie ma on jednej ustalonej wartości „0” lub „1”, ale przyjmuje obie jednocześnie. To tzw. superpozycja. Zatem w komputerze kwantowym w danym momencie zapiszemy wszystkie 16 kombinacji i wykonamy na nich działania. Innymi słowy, 4-bitowy komputer kwantowy powinien być – przynajmniej w teorii – aż 16-krotnie szybszy od swojego klasycznego odpowiednika. Obecnie zaś korzystamy z procesorów 64-bitowych, więc liczba możliwych kombinacji zer i jedynek wynosi w ich przypadku 264.
Problem jednak w tym, że stany kwantowe są bardzo nietrwałe i w wyniku interakcji z czynnikami zewnętrznymi kubit może ulec dekoherencji, czyli utracić swój stan kwantowy (superpozycję) i stać się „standardową” jedynką albo zerem. Widzimy więc, jak istotny jest czas dekoherencji. Im jest on dłuższy, tym więcej czasu zostaje na przeprowadzenie obliczeń.
Obiecującymi kandydatami na kubity są obwody nadprzewodzące, jony uwięzione w pułapkach magnetycznych czy kropki kwantowe. Teraz międzynarodowa grupa uczonych przekonuje, że możliwe jest też zbudowanie stabilnego nanomechanicznego kubitu.
Kubit taki miały się składać z wiszącej węglowej nanorurki działającej jak rezonator, której wibracje zależą od stanów elektronicznych dwóch kropek kwantowych znajdujących się w samej nanorurce. Sprzężenie pomiędzy kropkami a nanorurką powoduje, że rezonator staje się silnie anharmoniczny. To oznacza, że okres drgań jest zależny od jego amplitudy. W takim rezonatorze bardzo łatwo wykryć nawet najmniejsze zmiany amplitudy. Pistolesi uważa, że właśnie amplitudę można wykorzystać do przechowywania kwantowej informacji.
Innymi słowy, najmniejsza możliwa amplituda drgań (kwantowy stan podstawowy) odpowiada „0”, a kolejna najmniejsza amplituda (pierwszy stan wzbudzenia) odpowiada „1”. Stany te można z łatwością odczytać za pomocą mikrofal. Fakt, że częstotliwość pracy oscylatora zmienia się, gdy zmienia się jego amplituda, pozwala nam na odczytywanie kubitu i manipulowanie nim, wyjaśnia swoją koncepcję Pistolesi. Uczony przekonuje, że taki kubit byłby bardzo trwały. Zanim pojawi się dekoherencja, dojdzie w nim do milionów oscylacji.
Wyniki badań, chociaż obiecujące, nie rozwiązują wszystkich problemów. Naukowcy wciąż nie wiedzą, w jaki sposób wprowadzić do takiego systemu na tyle silną anharmoniczność, by całość poddawała się kontroli.
Być może zaproponowana przez Pistolesiego architektura nigdy nie trafi do komputerów kwantowych. Jednak może się ona przydać do budowy niezwykle czułych detektorów kwantowych, gdyż oscylatory takie byłyby podatne na działanie klasycznych sił. Można by je więc wykorzystać do wykrywania niewielkich zmian przyspieszenia, pola elektrycznego czy magnetycznego.
Teraz badacze chcą zbudować zaproponowany przez siebie kubit i przetestować jego działanie.
« powrót do artykułu -
By KopalniaWiedzy.pl
Po raz pierwszy udało się dwukrotnie wykryć poruszający się pojedynczy foton, nie niszcząc go przy tym. To ważna osiągnięcie, gdyż dotychczas foton ulegał zwykle zniszczeniu podczas jego rejestrowania. Najnowsze osiągnięcie może przyczynić się do powstania szybszych i bardziej odpornych na zakłócenia sieci optycznych i komputerów kwantowych.
Zwykle wykrycie fotonu wiąże się z jego zaabsorbowaniem. Jednak foton może nieść ze sobą cenne informacje, a w takich przypadkach specjaliści woleliby mieć możliwość odczytania tych danych i przepuszczenia fotonu dalej, do miejsca docelowego. Żadna metoda detekcji nie jest w 100% skuteczna, zawsze istnieje ryzyko, że coś się prześliźnie niewykryte, mówi jeden z autorów badań, Stephan Welte, fizyk kwantowy z Instytutu Optyki Kwantowej im. Maxa Plancka w niemieckim Garching. Dlatego też możliwość niedestrukcyjnego wykrywania fotonów jest tak ważna – ustawienie detektorów jeden za drugim zwiększa szanse, że wykryjemy wszystkie interesujące nas fotony.
Dotychczas opracowano różne sposoby wykrywania fotonu bez jego niszczenia. Często polegają one na interakcji fotonu z jonem, nadprzewodzącym kubitem lub innymi systemami kwantowymi. Jednak w ten sposób możemy albo wykonać pojedynczą niedestrukcyjną rejestrację poruszającego się fotonu, albo liczne niedestrukcyjne odczyty stacjonarnego fotonu uwięzionego we wnęce.
Teraz naukowcy z Niemiec dwukrotnie wykryli pojedynczy foton wędrujący światłowodem. Wykorzystali w tym celu skonstruowany przez siebie niedestrukcyjny detektor zbudowany z pojedynczego atomu rubidu uwięzionego w odbijającej wnęce. Foton, wpadając do wnęki, odbija się od jej ścian, zmieniając stan kwantowy atomu, co można wykryć za pomocą lasera. Uczeni umieścili dwa takie detektory w odległości 60 metrów od siebie. Wykryły one ten sam foton, nie absorbując go. Welte mówi, że teoretycznie można w ten sposób wykryć pojedynczy foton nieskończoną liczbę razy, jednak w praktyce istnienie 33-procentowe ryzyko, że użycie detektora spowoduje utratę fotonu.
Nowa technologia może w przyszłości pozwolić na śledzenie trasy fotonów. Pozwoli to na przyspieszenie pracy systemów kwantowych, gdyż będziemy w stanie upewniać się, że zakodowane w fotonach informacje dotrą tam, gdzie powinny.
Powiedzmy, że chcesz wysłać kwantową informację z Monachium do Nowego Jorku. Możesz w międzyczasie wielokrotnie sprawdzać, czy foton nie został po drodze utracony, np. sprawdzając, czy dotarł do Paryża. Jeśli okaże się, że foton zgubił się po drodze, można będzie natychmiast wysłać go ponownie. Nie trzeba będzie czekać na zakończenie całej transmisji, by upewnić się, że wszystko poszło tak, jak powinno, wyjaśnia główny autor badań, Emanuele Distante.
Twórcy nowych detektorów uważają, że nie można ich będzie wykorzystać do podsłuchania kwantowej komunikacji. To jak śledzenie przesyłek. Możesz dowiedzieć się, gdzie jest paczka, ale nic nie wiesz o jej zawartości. Foton zawiera w sobie pewną kwantową informację. Możesz w sposób niedestrukcyjny go wykryć, ale nie odczytać, stwierdza Welte.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.