Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Jeden, by wszystkimi rządzić. Fizycy uprościli architekturę fotonicznego komputera kwantowego

Rekomendowane odpowiedzi

Współczesne komputery kwantowe to bardzo skomplikowane urządzenia, które trudno jest budować, skalować, a do pracy wymagają niezwykle niskich temperatur. Dlatego naukowcy od dłuższego czasu interesują się optycznymi komputerami kwantowymi. Fotony łatwo przenoszą informację, a fotoniczny komputer kwantowy mógłby pracować w temperaturze pokojowej. Problem jednak w tym, że o ile wiadomo, jak budować pojedyncze kwantowe bramki logiczne dla fotonów, to olbrzymim wyzwaniem jest stworzenie dużej liczby bramek i połączenie ich tak, by możliwe było przeprowadzanie złożonych obliczeń.

Jednak optyczny komputer kwantowy może mieć prostszą architekturę, przekonują na łamach Optics naukowcy z Uniwersytetu Stanforda. Proponują oni wykorzystanie lasera do manipulowania pojedynczym atomem, który z kolei – za pomocą zjawiska teleportacji kwantowej – zmieni stan fotonu. Atom taki może być resetowany i wykorzystywany w wielu bramkach kwantowych, dzięki czemu nie ma potrzeby budowania różnych fizycznych bramek, co z kolei znakomicie uprości architekturę komputera kwantowego.

Jeśli chciałbyś zbudować komputer kwantowy tego typu, musiałbyś stworzyć tysiące kwantowych źródeł emisji, spowodować, by były nie do odróżnienia od siebie i zintegrować je w wielki obwód fotoniczny. Tymczasem nasza architektura zakłada wykorzystanie niewielkiej liczby dość prostych podzespołów, a wielkość naszej maszyny nie rośnie wraz z wielkością programu kwantowego, który jest na niej uruchamiany, wyjaśnia doktorant Ben Bartlett, główny autor artykułu opisującego prace fizyków ze Stanforda.

Nowatorska architektura składa się z dwóch głównych elementów. Pierścień przechowujący dane to po prostu pętla ze światłowodu, w której krążą fotony. Pełni on rolę układu pamięci, a każdy foton reprezentuje kubit. Badacze mogą manipulować fotonem kierując go z pierścienia do jednostki rozpraszania. Składa się ona z wnęki optycznej, w której znajduje się pojedynczy atom. Foton wchodzi w interakcję z atomem i dochodzi do ich splątania. Następnie foton wraca do pierścienia, a laser zmienia stan atomu. Jako, że jest on splątany z fotonem, zmiana stanu atomu skutkuje też zmianą stanu fotonu. Poprzez pomiar stanu atomu możesz badać stan fotonu. W ten sposób potrzebujemy tylko 1 atomowego kubitu, za pomocą którego manipulujemy wszystkimi fotonicznymi kubitami, dodaje Bartlett.

Jako że każda kwantowa bramka logiczna może zostać skompilowana w szereg operacji przeprowadzonych na atomie, teoretycznie można by w ten sposób uruchomić dowolny program kwantowy dysponując jednym atomowym kubitem. Działanie takiego programu polegałoby na całym ciągu operacji, w wyniku których fotony wchodziłyby w interakcje z atomowym kubitem.
W wielu fotonicznych komputerach kwantowych bramki są fizycznymi urządzeniami, przez które przechodzą fotony, zatem jeśli chcesz zmienić sposób działania swojego programu zwykle musisz zmienić konfigurację sprzętową komputera. W przypadku naszej architektury nie musisz zmieniać sprzętu. Wystarczy, że wyślesz do maszyny inny zestaw instrukcji, stwierdza Bartlett.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe, gdy w końcu staną się rzeczywistością, mają poradzić sobie z obliczeniami niemożliwymi do wykonania przez komputery klasyczne w rozsądnym czasie. Powstaje pytanie, czy istnieje granica wydajności obliczeniowej komputerów kwantowych, a jeśli tak, to czy można ją będzie w przyszłości przesuwać czy też trzeba będzie wymyślić zupełnie nową technologię. Odpowiedzi na nie postanowili poszukać Einar Gabbassov, doktorant z Instytutu Obliczeń Kwantowych University of Waterloo i Perimeter Institute oraz profesor Achim Kempf z Wydziału Fizyki Informacji i Sztucznej Inteligencji University of Waterloo i Perimeter Institute. Ich praca na ten temat ukazała się na łamach Quantum Science and Technology.
      Okazuje się, że jeśli komputer kwantowy ma rozwiązać jakiś problem, to jego złożoność przekłada się na bardziej złożone splątanie kwantowe. To oznacza, że problem obliczeniowy staje się rzeczywistością fizyczną, w której kubity zachowują się różnie w zależności od stopnia splątania. To, co było matematyką, zamienia się w fizykę z głównym problemem w postaci splątania kwantowego.
      Najtrudniejsze z zadań obliczeniowych są klasyfikowane jako problemy NP-trudne. Nie mamy dowodów, że komputery kwantowe będą w stanie szybko poradzić sobie z każdym tego typu problemem, ale mamy wielkiej nadzieję, że tak się stanie. Żeby stworzyć algorytm kwantowy, który umożliwi przyspieszenie prac nad problemami NP-trudnymi, używa się klasyfikacji opisującej złożoność takich procesów w odniesieniu do rzeczywistości fizycznej. Często używa się analogii do krajobrazu. Profesor Kempf mówi, by wyobrazić sobie, że wyskakujemy z samolotu ze spadochronem i mamy za zadanie wylądować w najniższym punkcie okolicy. Tam znajdziemy skarb. W problemie łatwym mamy pod sobą krajobraz, w którym znajduje się jedna wyraźnie widoczna dolina z łagodnie opadającymi stokami. W problemie trudnym pod nami znajduje się teren poprzecinany wieloma dolinami, szczelinami i klifami. Ocena, gdzie należy się kierować jest niezwykle trudna. Komputer kwantowy pozwoliły na przeszukanie całego terenu jednocześnie i od razu wskazałby właściwy punkt lądowania. Jednak, by tego dokonać, splątanie między kubitami musi być tak złożone, jak krajobraz. To właśnie w splątaniu tkwi potęga obliczeń kwantowych.
      Odkryliśmy, że trudne problemy matematyczne są tak trudne dlatego, że wymagają od komputerów kwantowych, by manipulowały, tworzyły i rozprzestrzeniały wewnątrz systemu wysoce złożone układy splątań. W miarę ewolucji systemu, kubity zaczynają tworzyć złożoną sieć. Związki pomiędzy nimi zmieniają się, przemieszczają, tworzące kubity cząstki tracą splątanie i na nowo się splątują. Trudne problemy wymagają ciągłych zmian tego typu, a to właśnie determinuje, jak szybkie mogą być obliczenia, wyjaśnia Gabbassov.
      Obaj uczeni proponują w swoim artykule nowy sposób pomiaru prędkości rozwiązania dowolnego problemu w oparciu o wymagany stopień złożoności splątania kwantowego. Zaproponowana metoda została opracowana na potrzeby adiabatycznych maszyn kwantowych, jednak powinna działać też na innych typach maszy, więc można ją będzie szeroko stosować. Gabbassov i Kempf mają nadzieję, ze ich praca zainspiruje innych specjalistów, którzy wykorzystają ją na swoich polach specjalizacji. Myślę, że badania te przyspieszą pracę nad ekonomicznie opłacalnymi obliczeniami kwantowymi, stwierdził Kempf.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
      Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
      Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
      Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
      Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.

      Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Thomas Jefferson National Accelerator Facility dokonano pierwszych w historii pomiarów gluonów wewnątrz jądra atomowego. To duży krok w kierunku poznania rozkładu pola gluonowego (pola Yanga-Millsa) wewnątrz protonu, cieszy się jeden z członków zespołu badawczego, profesor Axel Schmidt z George Washington University. Jesteśmy na pograniczu wiedzy o „kleju atomowym”. W zasadzie nic o tym nie wiemy, więc przydatna jest każda nowa informacja. To jednocześnie niezwykle ekscytujące i bardzo trudne, dodaje profesor Or Hen z MIT.
      Gluony to cząstki elementarne pośredniczące w oddziaływaniach silnych. Są „klejem” zlepiającym kwarki, z których powstają protony i neutrony. Z wcześniejszych badań wiemy, jaki jest rozkład gluonów w swobodnych – niezwiązanych w jądrze atomowym – protonach i neutronach. Nie wiemy jednak, jak wygląda on, gdy protony i neutrony znajdują się wewnątrz jądra. Tymczasem na początku lat 80. XX wieku zauważono, że kwarki wewnątrz protonów i neutronów znajdujących się w jądrze atomowym poruszają się wolniej, niż kwarki w swobodnych nukleonach. To zdumiewające zjawisko, nazwane efektem EMC, nie zostało dotychczas wyjaśnione. Naukowcy, którzy chcą się o nim więcej dowiedzieć, badają gluony podobnie, jak badają kwarki. Jednak pomiar rozkładu elektrycznie obojętnych gluonów jest daleko trudniejszy, niż posiadających ładunek kwarków.
      Naukowcy z Jefferson Lab przyjrzeli się gluonom i kwarkom, wykorzystując w tym celu mezon J/ψ, czyli czarmonium. Cząstkę tę można uzyskać ostrzeliwując protony i neutrony fotonami. Czarmonium szybko rozpada się na elektron i pozyton. Wykrywanie par elektron-pozyton pozwala obliczyć, ile mezonów J/ψ powstało. Jako że w skład czarmonium wchodzi kwark powabny, którego nie ma w żadnym z nukleonów, wiadomo, że czarmonium powstaje w wyniku interakcji fotonu z gluonem.
      Żeby uzyskać czarmonium w wyniku ostrzeliwania swobodnych protonów fotonami – co wcześniej robiono już w Jefferson Lab – trzeba wykorzystać strumień fotonów o dużej energii, co najmniej 8,2 GeV (gigaelektronowoltów). Jednak autorzy najnowszych badań otrzymali czarmonium korzystając z fotonów o mniejszych energiach.
      Było to możliwe dzięki temu, że jako cel wykorzystali jądra deuteru, helu i węgla. Nukleony w jądrach atomowych, w przeciwieństwie do swobodnych nukleonów używanych jako cel stacjonarny w badaniach, poruszają się. Doszło więc do połączenia energii kinetycznej poruszającego się nukleonu z energią kinetyczną fotonu, która była poniżej wymaganego minimum, co w rezultacie dało energię powyżej minimum, wystarczającą do powstania czarmonium.
      Dzięki takiemu rozwiązaniu uczeni z USA stali się pierwszymi, którzy zbadali fotoprodukcję mezonu J/ψ poniżej minimalnej energii fotonów wymaganej przy stacjonarnym protonie. A ponieważ ich celem były atomy, mierzyli w ten sposób gluony w protonach i neutronach znajdujących się w jądrze atomowym.
      Podstawowa trudność w przeprowadzeniu takiego eksperymentu polegała na tym, że nikt wcześniej nie próbował czegoś podobnego, nie wiadomo więc było, w jaki sposób eksperyment przygotować, ani czy w ogóle jest on możliwy. Udało się w olbrzymiej mierze dzięki doktorowi Jacksonowi Pybusowi z Los Alamos National Laboratory. W ramach swojej pracy magisterskiej na MIT wykonał analizę teoretyczną, która zaowocowała zaprojektowaniem odpowiedniego badania. To unikatowe badania zarówno z punktu widzenia z fizyki, jak i techniki eksperymentalnej opracowanej przez magistranta. Nikt z nas, z wyjątkiem Jacksona, nie byłby w stanie tego zrobić, przyznają autorzy badań.
      Gdy naukowcy porównali wyniki pomiarów z teoretycznymi obliczeniami, okazało się, że podczas eksperymentu powstało więcej czarmonium, niż przewiduje teoria. To dowodzi, że gluony w związanych nukleonach zachowują się inaczej, niż w nukleonach swobodnych. Potrzeba jednak znacznie więcej badań, by stwierdzić, na czym polegają te różnice. Jednak teraz, gdy wiadomo, w jaki sposób należy przygotować odpowiednie eksperymenty, prowadzenie takich pomiarów będzie łatwiejsze.
      Źródło: First Measurement of Near-Threshold and Subthreshold J/ψ Photoproduction off Nuclei

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ciemna materia, hipotetyczna materia, która ma stanowić 85% masy kosmosu, wciąż nie została znaleziona. Nie wiemy, z czego się składa, a przekonanie o jej istnieniu pochodzi z obserwacji efektów grawitacyjnych, których obecności nie można wyjaśnić zwykłą materią. Dlatego też co jakiś czas pojawiają się hipotezy opisujące, z czego może składać się ciemna materia. Jedną z nich przedstawili właśnie na lamach Physical Review Letters dwaj uczeni z Dartmouth College. Ich zdaniem ciemna materia może być zbudowana z niemal bezmasowych relatywistycznych cząstek, podobnych do światła, które w wyniku zderzeń utworzyły pary, straciły energię, a zyskały olbrzymią masę.
      Ciemna materia rozpoczęła istnienie jako niemal bezmasowe relatywistyczne cząstki, niemal jak światło. To całkowita antyteza tego, jak się obecnie postrzega ciemną materię – to zimne grudki nadające masę galaktykom. Nasza teoria próbuje wyjaśnić, jak przeszła ona ze światła do grudek, mówi profesor fizyki i astronomii Robert Caldwell. Jest on współautorem badań przeprowadzonych z magistrantem fizyki i matematyki Guanmingiem Liangiem.
      Po Wielkim Wybuchu wszechświat zdominowany był przez gorące szybko poruszające się cząstki podobne do fotonów. W tym chaosie olbrzymia liczba cząstek utworzyła pary. Zgodnie z ich hipotezą, cząstki były przyciągane do sobie dzięki temu, że ich spiny były zwrócone w przeciwnych kierunkach. Utworzone pary schładzały się, a nierównowaga ich spinów prowadziła do gwałtownej utraty energii. W wyniku tego procesu powstały zimne ciężkie cząstki, które utworzyły ciemną materię. Właśnie ten spadek energii, który wyjaśniał przejście z wysokoenergetycznych gorących cząstek do nierównomiernie rozłożonych zimnych grudek, jest najbardziej zaskakującym efektem działania zastosowanego przez uczonych modelu matematycznego.
      To przejście fazowe pozwala na wyjaśnienie olbrzymiej ilości ciemnej materii we wszechświecie. Autorzy badań wprowadzają w swojej teorii teoretyczną cząstkę, która miała zainicjować przejście do cząstek ciemnej materii. Jednak nie jest to zjawisko nieznane. Wiadomo, że cząstki subatomowe mogą przechodzić podobne zmiany. Na przykład w niskich temperaturach dwa elektrony mogą utworzyć pary Coopera. Zdaniem Caldwella i Lianga to dowód, że ich hipotetyczne cząstki również mogłyby zostać skondensowane do ciemnej materii.
      Poszukaliśmy w nadprzewodnictwie wskazówek, czy pewne interakcje mogą prowadzić do tak gwałtownego spadku energii. Pary Coopera to dowód, że taki mechanizm istnieje, mówi Caldwell. Liang zaś obrazowo porównuje takie przejścia jako zamianę od gorącego espresso do owsianki.
      Badacze zapewniają, że ich model matematyczny jest prosty. Na jego podstawie można przypuszczać, że wspomniane cząstki będzie widać w mikrofalowym promieniowaniu tła (CMB). Zdaniem naukowców, można go będzie przetestować już wkrótce, dzięki obecnie prowadzonym i przyszłym badaniom CMB.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
      Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
      Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
      Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
      Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
      To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
      Bramki zostały szczegółowo opisane na łamach Physical Review Applied.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...