Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Komputery kwantowe o krok bliżej. Przełomowe pomiary dokładności kwantowej bramki logicznej

Recommended Posts

Po raz pierwszy w historii zmierzono dokładność dwukubitowych operacji logicznych w krzemie. Dokonał tego zespół prof. Andrew Dzuraka z Uniwersytetu Nowej Południowej Walii (UNSW), który w 2015 jako pierwszy stworzył dwukubitową bramkę logiczną w krzemie.

Wszystkie obliczenia kwantowe mogą składać się z jedno- i dwukubitowych operacji. To podstawowe budulce obliczeń kwantowych. Gdy je mamy, możemy wykonać dowolne obliczenia kwantowe, jednak precyzja obu tych rodzajów obliczeń musi być bardzo wysoka, wyjaśnia profesor Dzurak.

Od czasu, gdy w 2015 roku zespół Dzuraka stworzył pierwszą dwukubitową bramkę logiczną umożliwiając w ten sposób prowadzenie obliczeń z użyciem dwóch kubitów, wiele zespołów naukowych zaprezentowało podobne konstrukcje. Jednak dotychczas nie była znana dokładność obliczeń dokonywanych za pomocą takich bramek

Precyzja obliczeń to kluczowy parametr, który decyduje o tym, na ile dana technologia kwantowa może zostać zastosowana w praktyce. Potęgę obliczeń kwantowych można wykorzystać tylko wtdy, jeśli operacja na kubitach są niemal idealne, dopuszczalne są minimalne błędy, mówi doktor Henry Yang, współpracownik Dzuraka.

Australijscy naukowcy opracowali test oparty na geometrii Clifforda i za jego pomocą ocenili wiarygodność dwukubitowej bramki logicznej na 98%. Osiągnęliśmy tak wysoką dokładność dzięki zidentyfikowaniu i wyeliminowaniu podstawowych źródeł błędów, poprawiając w ten sposób dokładność obliczeń do takiego stopnia, że zrandomizowany test o znaczącej dokładności – tutaj 50 operacji na bramce – może zostać przeprowadzony na naszym dwukubitowym urządzeniu, dodał doktorant Wister Huang, główny autor artykułu, który opublikowano na łamach Nature.

Komputery kwantowe będą mogły rozwiązać problemy, z którymi klasyczne komputery nigdy nie będą w stanie sobie poradzić. Jednak większość tych zastosowań będzie wymagała użycia milionów kubitów, więc będziemy musieli korygować błędy kwantowe, nawet jeśli będą one niewielkie. Aby korekcja tych błędów byla możliwa, same kubity muszą być niezwykle dokładne. Dlatego też podstawową rzeczą jest ocena ich dokładności. Im bardziej dokładne kubity, tym mniej będziemy ich potrzebowali, a zatem tym szybciej będziemy w stanie wyprodukować prawdziwy komputer kwantowy, dodaje profesor Dzurak.

Australijczycy zauważają jeszcze jedną świetną informację, która płynie z ich badań. Otóż krzem po raz kolejny dowiódł,; że jest świetną platformą obliczeniową. Jako, że materiał ten jest wykorzystywany w przemyśle elektronicznym od niemal 60 lat jego właściwości, ograniczenia i problemy z nim związane zostały dobrze poznane, zatem już istniejące fabryki będą w stanie przestawić się na nową technologię.

Jeśli okazałoby się, że dokładność kwantowych obliczeń na krzemie jest zbyt niska, to mielibyśmy poważny problem. Fakt, że wynosi ona blisko 99% to bardzo dobra wiadomość. Daje nam to możliwość dalszych udoskonaleń. To pokazuje, że krzem jest odpowiednia platformą dla prawdziwych komputerów kwantowych, cieszy się Dzurak. Myślę, że w najbliższej przyszłości osiągniemy znacznie większą dokładność i otworzymy w ten sposób drzwi do zbudowania prawdziwego odpornego na błędy komputera kwantowego. Obecnie jesteśmy bliscy granicy, poza którą w dwukubitowych systemach będzie można zastosować korekcję błędów, dodaje.

Warto w tym miejscu przypomnieć, że niedawno zespół Dzuraka poinformował na łamach Nature Electronics o osiągnięciu rekordowej dokładności jednokubitowej bramki logicznej. Wyniosła ona 99,96%.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Mam podobne wątpliwości. Niedawno słyszeliśmy że komputery kwantowe mające kilkadziesiąt kubitów już pokonają wszystko co możliwe na ziemi, a że są już niemal takie to lada moment czekają nas epokowe odkrycia. Teraz nagle słyszymy że potrzeba milionów kubitów żeby cokolwiek pożytecznego dokonać. Przy milionie kubitów z precyzją 99% każdy, potrzeba kwadrylionów operacji żeby jedna była prawidłowa. Nawet gdyby wydajność poprawić milion razy to i tak to jest to jakaś fantasmagoria. Jestem totalną laiczką w temacie, ale martwi mnie, że wizja odsuwa się coraz bardziej. Obawiam się że niedługo jakiś naukowiec udowodni, że zasada nieoznaczoności albo cokolwiek innego w ogóle zabrania uzyskania realnej przydatności komputerów kwantowych i całe badania szlag trafi.

Edited by Ergo Sum

Share this post


Link to post
Share on other sites

Po co te smutki i obawy. Zwykle komputery zanim postawiliśmy je na stole lub biurku w domu, były tworzone jakieś 40 lat. Tutaj też będzie podobnie. Jest wiele barier do przejścia i to powoli się udaje. Wydaje mi się że kwantowym nie będzie zarządzał człowiek a sztuczna inteligencja. Wtedy będzie przydatny. Tak będzie.

Share this post


Link to post
Share on other sites
W dniu 15.05.2019 o 09:34, Ergo Sum napisał:

Przy milionie kubitów z precyzją 99% każdy, potrzeba kwadrylionów operacji żeby jedna była prawidłowa.

Całkiem nie tak to wygląda. Na milionie kubitów 99% by można osiągnąć zupełnie abstrakcyjną precyzję pojedynczej operacji.

Share this post


Link to post
Share on other sites
12 godzin temu, Rowerowiec napisał:

Po co te smutki i obawy. Zwykle komputery zanim postawiliśmy je na stole lub biurku w domu, były tworzone jakieś 40 lat. Tutaj też będzie podobnie. Jest wiele barier do przejścia i to powoli się udaje. Wydaje mi się że kwantowym nie będzie zarządzał człowiek a sztuczna inteligencja. Wtedy będzie przydatny. Tak będzie.

Oduczmy się raz na zawsze używać argumentu typu "okrągła ziemia też była na początku wyśmiewana". Komputery kwantowe, nawet jeśli realne i skuteczne NIE SA ani okrągłą ziemią ani komputerami zwykłymi. Są miliony pomysłów które okazały się utopią. NIE WIEMY czy komputery kwantowe (czy cokolwiek innego) są utopią - a ja zaczynam sądzić że niestety  tak. Moje obawy wynikają z tego że nieoznaczoność chcemy zmusić do pracy w makroskali o czym możemy się przekonać że nie jest możliwe. Dużo lepsze było by stworzenie bramek logicznych w systemie nie zero-jedynkowym lecz np. z 5 możliwymi stanami. To jakby "pół drogi" do komputerów kwantowych a sprawa całkowicie kontrolowana - lub też stworzyć hardwarowy system neuronowy który oprócz 0 i 1 ma też zapamiętaną wagę tego stanu. Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję".

Share this post


Link to post
Share on other sites
14 minut temu, Ergo Sum napisał:

Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję".

hm..a jest jakaś różnica między wyborem hardwerowym a softwerowym? W kontekście tej "intuicji"? 

Share this post


Link to post
Share on other sites
14 minut temu, Afordancja napisał:

hm..a jest jakaś różnica między wyborem hardwerowym a softwerowym? W kontekście tej "intuicji"? 

jest - szybkość, energochłonność itp - która w przypadku wielkich symulacji przekracza jakiekolwiek możliwości obecnej techniki. Symulacja mózgu na systemach 0-1 jest obecnie i długo jeszcze będzie poza naszymi możliwościami. Tymczasem w przypadku logicznych bramek  z kilkoma pozycjami i  z pamięcią stanu było by to wielo-wielokrotnie łatwiejsze i skalowalne. IMHO

Share this post


Link to post
Share on other sites

hm...

 

26 minut temu, Ergo Sum napisał:

est - szybkość, energochłonność itp - która w przypadku wielkich symulacji przekracza jakiekolwiek możliwości obecnej techniki.

Rozumiem, czyli uważasz, że zmieniać klasycznego bita na komórkę pamięci zmiennoprzecinkową przyspieszy komputery. Bo w zasadzie chodzi o pamięć i manipulację na jej wartościach. Taki pewien tego akurat nie jestem, bo w sumie stworzenie stanów oprócz wysokiego i małego gdzieś po między nie jest technicznie problemem, jednak obliczenia na tym matematyczne w sumie nie muszą już być takie szybkie (binarnie naprawdę szybko i łatwo się liczy).

 

30 minut temu, Ergo Sum napisał:

Symulacja mózgu na systemach 0-1 jest obecnie i długo jeszcze będzie poza naszymi możliwościami.

No ale chodzi tyko o szybkość jak rozumiem, bo same stany pomiędzy nic nie dają bo osiągamy je teraz softwarowo. chociaż tak na boku mogę powiedzieć, że w sumie już są chipy które służą do symulacji sieci neuronowych i tam już hardwerowo mamy neurony (właśnie z pamięcią z przecinkami) jednak ich moc polega nie na tych przecinkach a własnie na równoległym przetwarzaniu tzn. taką samą operację matematyczną robimy równocześnie na N komórkach i dlatego właśnie karty graficzne w tej branży wygrywają ze zwykłym prockiem).

 

33 minuty temu, Ergo Sum napisał:

Tymczasem w przypadku logicznych bramek  z kilkoma pozycjami i  z pamięcią stanu było by to wielo-wielokrotnie łatwiejsze i skalowalne. IMHO

Mam pewne wątpliwości było b to łatwiejsze (no ale kwestia tego jak byś to widziała), lepszej skalowalności też nie widzę (ale znów nie wiem jak Ty to widzisz w praktyce).

 

Podsumowując, jeśli chodzi o "intuicję" przewagi  między systemami binarnymi a N-arnymi ;)  nie ma,

Tylko wg. Ciebie różnica jest w szybkości, energetyczności itd. której nam brakuje aby symulować mózg, 


To poruszając się w klasycznych komputerach uważam, że przyszłość jest w jakiejś zwykłej fizyce czy chemii i równoległej operacji na wielu komórkach pamięci, a nie wpowadzeniu N stanowych bitów bo to jest osiągalne w sumie już teraz (technicznie) 

Share this post


Link to post
Share on other sites
2 godziny temu, Ergo Sum napisał:

Oduczmy się raz na zawsze używać argumentu typu "okrągła ziemia też była na początku wyśmiewana". Komputery kwantowe, nawet jeśli realne i skuteczne NIE SA ani okrągłą ziemią ani komputerami zwykłymi. Są miliony pomysłów które okazały się utopią. NIE WIEMY czy komputery kwantowe (czy cokolwiek innego) są utopią - a ja zaczynam sądzić że niestety  tak. Moje obawy wynikają z tego że nieoznaczoność chcemy zmusić do pracy w makroskali o czym możemy się przekonać że nie jest możliwe. Dużo lepsze było by stworzenie bramek logicznych w systemie nie zero-jedynkowym lecz np. z 5 możliwymi stanami. To jakby "pół drogi" do komputerów kwantowych a sprawa całkowicie kontrolowana - lub też stworzyć hardwarowy system neuronowy który oprócz 0 i 1 ma też zapamiętaną wagę tego stanu. Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję".

Moim zdaniem powstaną raczej hybrydy niż "czyste" komputery kwantowe. Część kwantowa takiej hybrydy będzie odpowiedzialna za zawężenie zestawu możliwych wyników do jakichś rozsądnch granic, a część klasyczna określi dokładny wynik.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
W dniu 17.05.2019 o 12:27, Afordancja napisał:

Podsumowując, jeśli chodzi o "intuicję" przewagi  między systemami binarnymi a N-arnymi ;)  nie ma,

Nie udowodniłeś tego. Udowodniłeś jedynie dwa swoje założenia - oszczędność energii na bramkach typu 0-1 i ich szybkość.  Mówiąc o szybkości i energii miała w ogóle na myśli różnicę hard i soft.

Mózg pracuje inaczej niż komputer dlatego żeby go symulować musimy na symulacje jednej synapsy przeznaczać całe paczki tranzystorów, bramek i czego tam jeszcze. Po takim zadaniu problem rośnie wykładniczo w procesie ważenia, następnie kolejny wykładniczy przyrost w procesie utrwalania wyniku i kolejny w procesie ważenia tego utrwalania. A dochodzi jeszcze jeden stopień tworzenia sieci tych elementów. W przypadku miliardów neuronów to długo jeszcze będzie niewykonalne przez systemy 0-1

Symulując mózg musimy wprowadzić wagę operacji i wagę zapamiętywania tej operacji. Wprowadzenie jednego zespołu który ma te wszystkie parametry jednocześnie może na początku wymagało by znacznych energii, i działało by wolno ale przynajmniej było by wykonalne.

Share this post


Link to post
Share on other sites
16 godzin temu, Ergo Sum napisał:

Symulując mózg musimy wprowadzić wagę operacji i wagę zapamiętywania tej operacji. Wprowadzenie jednego zespołu który ma te wszystkie parametry jednocześnie może na początku wymagało by znacznych energii, i działało by wolno ale przynajmniej było by wykonalne.

Jest już coś takiego:

https://www.kurzweilai.net/ibm-scientists-emulate-neurons-with-phase-change-technology

Share this post


Link to post
Share on other sites
17 godzin temu, Ergo Sum napisał:

Nie udowodniłeś tego. Udowodniłeś jedynie dwa swoje założenia - oszczędność energii na bramkach typu 0-1 i ich szybkość.  Mówiąc o szybkości i energii miała w ogóle na myśli różnicę hard i soft.

Ja nie chciałem udowadniać. Tylko chciałem raczej dociec Twój tok rozumowania, bo pisałaś (w kontekście "intuicji" )

1) wprowadzić zamiast systemu binarnego N-arny,
2) pisałaś, że "Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję"." Tylko, że softwarowo też może wybierać co mu się "bardziej" podoba (ps. tak na prawdę to tak nie działa, że coś wybiera "bardziej"). 
3) Ostatecznie zrozumiałem, że chodzi tylko o energetyczność i szybkość a  nie o jakąś nową jakość.

 

No i teraz nie wiem :) (jaka jest przewaga systemu N-arnego nad binarnym w kontekście "intuicji" jak i nie wiem jaka jest przewaga  systemu hadrwerowego vs softwerowego, po za oczywiście wspomnianą po za szybkością i energochłonnością. (

 

17 godzin temu, Ergo Sum napisał:

Mózg pracuje inaczej niż komputer dlatego żeby go symulować musimy na symulacje jednej synapsy przeznaczać całe paczki tranzystorów, bramek i czego tam jeszcze. Po takim zadaniu problem rośnie wykładniczo w procesie ważenia, następnie kolejny wykładniczy przyrost w procesie utrwalania wyniku i kolejny w procesie ważenia tego utrwalania. A dochodzi jeszcze jeden stopień tworzenia sieci tych elementów. W przypadku miliardów neuronów to długo jeszcze będzie niewykonalne przez systemy 0-1

hm...rozumiem i nie rozumiem ;) 
otóż już takie systemy hardwerowe odnośnie symulacji neuronów istnieją i to różne, i jedne z nich używają systemu 0-1 bo to i tak wystarcz do prezentacji liczb prawie dowolnej precyzji.  Bo problemem jest tutaj nie sama liczba przecinkowa tylko szybkie mnożenie wielu liczb równolegle (w zasadzie mnożenie macierzy)  i binarne są naprawdę szybkie. Drugim ciekawym podejściem w branży hardwwarowego podejśćia nie jest N-stanowego (bo dalej nie widzę korzyści) jest budowanie układów nazwijmy to ciągłych które symulują bezpośrednio pewien model neuronu.

 


 

17 godzin temu, Ergo Sum napisał:

Symulując mózg musimy wprowadzić wagę operacji i wagę zapamiętywania tej operacji. Wprowadzenie jednego zespołu który ma te wszystkie parametry jednocześnie może na początku wymagało by znacznych energii, i działało by wolno ale przynajmniej było by wykonalne.

Nie rozumiem, co i czy to teraz jest niemożliwe? 

 

Edited by Afordancja

Share this post


Link to post
Share on other sites

Przecież kilkanaście lat temu powstał układ (nie pamiętam niestety dokładnej nazwy), który potrafił o rząd wielkości szybciej obliczać różne rozwiązania na bazie sieci neuronowej, tyle że miał niestety jak człowiek, pewien stały i wpisany w obliczenia gwarantowany procent błędu. Wydaje mi się, że jeśli nie dojdziemy jeszcze do opanowania korekcji błędów w komputerach kwantowych, gdzie margines błędu będzie duży, to chociaż przybliżymy się bardzo do wyników, które już na ostatnim etapie będą wymagały tylko małej mocy obliczeniowej konwencjonalnego komputera. 

Share this post


Link to post
Share on other sites
52 minuty temu, Rowerowiec napisał:

Przecież kilkanaście lat temu powstał układ (nie pamiętam niestety dokładnej nazwy), który potrafił o rząd wielkości szybciej obliczać różne rozwiązania na bazie sieci neuronowej, tyle że miał niestety jak człowiek, pewien stały i wpisany w obliczenia gwarantowany procent błędu.

Szybciej niż co? Jakie obliczenia? Chodzi o klasyfikację obiektów?

Edited by Afordancja

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      „Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery.
      Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan.
      Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową.
      Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny.
      Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga.
      Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dwie amerykańskie grupy badawcze stworzyły – niezależnie od siebie – pierwsze kwantowe procesory, w których rolę kubitów odgrywają atomy. To potencjalnie przełomowe wydarzenie, gdyż oparte na atomach komputery kwantowe mogą być łatwiej skalowalne niż dominujące obecnie urządzenia, w których kubitami są uwięzione jony lub nadprzewodzące obwody.
      W 2020 roku firma Heoneywell pochwaliła się, że jej komputer na uwięzionych jonach osiągnął największą wartość „kwantowej objętości”. Tego typu maszyny, mają tę zaletę, że jony w próżni jest dość łatwo odizolować od zakłóceń termicznych, a poszczególne jony w chmurze są nieodróżnialne od siebie. Problemem jest jednak fakt, że jony wchodzą w silne interakcje, a do manipulowania nimi trzeba używać pól elektrycznych, co nie jest łatwym zadaniem.
      Z drugiej zaś strony mamy kwantowe maszyny wykorzystujące obwody nadprzewodzące. Za najpotężniejszy obecnie procesor kwantowy z takimi obwodami uznaje się 127–kubitowy Eagle IBM-a. Jednak wraz ze zwiększaniem liczby kubitów, urządzenia tego typu napotykają coraz więcej problemów. Każdy z kubitów musi być w nich wytwarzany indywidualnie, co praktycznie uniemożliwia wytwarzanie identycznych kopii, a to z kolei – wraz z każdym dodanym kubitem – zmniejsza prawdopodobieństwo, że wynik obliczeń prowadzonych za pomocą takiego procesora będzie prawidłowy. Jakby jeszcze tego było mało, każdy z obwodów musi być schłodzony do niezwykle niskiej temperatury.
      Już przed sześcioma laty zespoły z USA i Francji wykazały, że możliwe jest przechowywanie kwantowej informacji w atomach, którymi manipulowano za pomocą szczypiec optycznych. Od tamtego czasu Amerykanie rozwinęli swój pomysł i stworzyli 256-bitowy komputer kwantowy bazujący na tej platformie. Jednak nikt dotychczas nie zbudował pełnego obwodu kwantowego na atomach.
      Teraz dwa niezależne zespoły zaprezentowały procesory bazujące na takich atomach. Na czele grupy z Uniwersytetu Harvarda i MTI stoi Mikhail Lukin, który w 2016 roku opracował ten oryginalny pomysł. Zespołem z University of Wisonsin-Madison, w pracach którego biorą też udział specjaliści z firm ColdQuant i Riverlane, kieruje zaś Mark Saffman. Zespół Lukina wykorzystał atomy rubidu, zespół Saffmana użył zaś cezu.
      Jeśli mamy obok siebie dwa atomy w stanie nadsubtelnym, to nie wchodzą one w interakcje. Jeśli więc chcemy je splątać, jednocześnie wzbudzamy je do stanu Rydberga. W stanie Rydberga wchodzą one w silne interakcje, a to pozwala nam je szybko splątać. Później możemy z powrotem wprowadzić je w stan nadsubtelny, gdzie można nimi manipulować za pomocą szczypiec optycznych, wyjaśnia Dolev Bluvstein z Uniwersytetu Harvarda.
      Grupa z Harvarda i MIT wykorzystała stan nadsubtelny do fizycznego oddzielenia splątanych atomów bez spowodowania dekoherencji, czyli utraty kwantowej informacji. Gdy każdy z atomów został przemieszczony na miejsce docelowe został za pomocą lasera splątany z pobliskim atomem. W ten sposób naukowcy byli w stanie przeprowadzać nielokalne operacje bez potrzeby ustanawiania specjalnego fotonicznego lub atomowego łącza do przemieszczania splątania w obwodzie.
      W ten sposób uruchomiono różne programy. Przygotowano m.in. kubit logiczny, składający się z siedmiu kubitów fizycznych, w którym można było zakodować informacje w sposób odporny na pojawienie się błędów. Naukowcy zauważają, że splątanie wielu takich logicznych kubitów może być znacznie prostsze niż podobne operacje na innych platformach. Istnieje wiele różnych sztuczek, które są stosowane by splątać kubity logiczne. Jednak gdy można swobodnie przesuwać atomy, to jest to bardzo proste. Jedyne, co trzeba zrobić to stworzyć dwa niezależne kubity logiczne, przesunąć je i przemieszać z innymi grupami, wprowadzić za pomocą lasera w stan Rydberga i utworzyć pomiędzy nimi bramkę, stwierdza Dluvstein. Te technika, jak zapewnia uczony, pozwala na przeprowadzenie korekcji błędów i splątania pomiędzy kubitami logicznymi w sposób niemożliwy do uzyskania w obwodach nadprzewodzących czy z uwięzionymi jonami.
      Grupa z Wisconsin wykorzystała inne podejście. Naukowcy nie przemieszczali fizycznie atomów, ale za pomocą lasera manipulowali stanem Rydberga i przemieszczali splątanie po macierzy atomów. Mark Saffman podaje przykład trzech kubitów ustawionych w jednej linii. Za pomocą laserów oświetlamy kubit po lewej i kubit centralny Zostają one wzbudzone do stanu Rydberga i splątane. Następnie oświetlamy atom centralny oraz ten po prawej. W ten sposób promienie laserów kontrolują operacje na bramkach, ale tym, co łączy kubity są interakcje zachodzące w stanach Rydberga.
      Grupa Saffmana wykorzystała opracowaną przez siebie technikę do stworzenia składających się z sześciu atomów stanów Greenbergera-Horne'a-Zeilingera. Wykazali też, że ich system może działać jak kwantowy symulator służący np. do szacowania energii molekuły wodoru. Dzięki temu, że nie trzeba było przesuwać atomów, zespół z Wisconsin osiągnął kilkaset razy większe tempo pracy niż zespół z Harvarda i MIT, jednak ceną była pewna utrata elastyczności. Saffman uważa, że w przyszłości można będzie połączyć oba pomysły w jeden lepszy system.
      Na razie oba systemy korzystają z niewielkiej liczby kubitów, konieczne jest też wykazanie wiarygodności obliczeń oraz możliwości ich skalowania. Chris Monroe, współtwórca pierwszego kwantowego kubita – który oparty był na uwięzionych jonach – uważa, że obie grupy idą w dobrym kierunku, a kubity na atomach mogą osiągnąć wiarygodność 99,9% i to bez korekcji błędów. Obecnie osiągamy taki wynik na uwięzionych jonach i – mimo że technologia wykorzystania atomów jest daleko z tyłu – nie mam wątpliwości, że w końcu osiągną ten sam poziom, stwierdza.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Najnowszy numer Nature przynosi przełomowe informacje na temat praktycznego wykorzystania komputerów kwantowych. Naukowcy z Uniwersytetu Nowej Południowej Walii (UNSW) wykazali, że możliwe jest stworzenie niemal wolnego od błędów krzemowego procesora kwantowego. Dzisiejsza publikacja pokazuje, że obliczenia przeprowadzane przez nasz procesor były w ponad 99% wolne od błędów. Gdy odsetek błędów jest tak mały, możliwym staje się ich wykrywanie i korygowanie w czasie rzeczywistym. A to oznacza, że można wybudować skalowalny komputer kwantowy wykonujący wiarygodne obliczenia, wyjaśnia profesor Andrea Morello z UNSW.
      Morello stoi na czele zespołu złożonego z naukowców z Australii, USA, Japonii i Egiptu. Ich celem jest zbudowanie uniwersalnego komputera kwantowego, czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań. Badania, których wyniki właśnie opublikowaliśmy, to bardzo ważny krok w tym kierunku, podkreśla uczony.
      Jednak, co niezwykle ważne, artykuł Morello i jego zespołu to jeden z trzech tekstów z Nature, których autorzy informują o niezależnym od siebie osiągnięciu niskiego odsetka błędów w opartych na krzemie procesorach kwantowych.
      Z najnowszego Nature, którego redakcja zdecydowała się na zilustrowanie kwantowego przełomu na okładce, dowiadujemy się, że wiarygodność operacji obliczeniowych na jednym kubicie osiągnięta przez Morello i jego zespół wyniosła 99,95%, a operacji na dwóch kubitach – 99,37%. Niezależnie od nich zespół z holenderskiego Uniwersytetu Technologicznego w Delft, prowadzony przez Lievena Vandersypena osiągnął wiarygodność rzędu 99,87% przy operacjach na jednym kubicie i 99,65% podczas operacji dwukubitowych. W trzecim z artykułów czytamy zaś o pracach naukowców z japońskiego RIKEN, w trakcie których grupa Seigo Taruchy mogła pochwalić się wiarygodnością 99,84% przy działaniach na jednym kubicie i 99,51% przy pracy z dwoma kubitami.
      Wydajność procesorów z UNSW i Delft została certyfikowana zaawansowaną metodą gate set tomography opracowaną przez amerykańskie Sandia National Laboratories, a wyniki certyfikacji zostały udostępnione innym grupom badawczym.
      Zespół profesora Morello już wcześniej wykazał, że jest w stanie utrzymać kwantową informację w krzemie przez 35 sekund. W świecie kwantowym 35 sekund to wieczność. Dla porównania, słynne nadprzewodzące komputery kwantowe Google'a i IBM-a są w stanie utrzymać taką informację przez około 100 mikrosekund, czyli niemal milion razy krócej, zauważa Morello. Osiągnięto to jednak izolując spiny (kubity) od otoczenia, co z kolei powodowało, że wydaje się niemożliwym, by kubity te mogły wejść ze sobą w interakcje, a więc nie mogły wykonywać obliczeń.
      Teraz z artykułu w Nature dowiadujemy się, że udało się pokonać problem izolacji wykorzystując elektron okrążający dwa jądra atomu fosforu.
      Gdy masz dwa jądra połączone z tym samym elektronem, może zmusić je do wykonywania operacji kwantowych, stwierdza doktor Mateusz Mądzik, jeden z głównych autorów eksperymentów. Gdy nie operujesz na elektronie, jądra te mogą bezpiecznie przechowywać kwantowe informacje. Teraz jednak mamy możliwość, by jądra wchodziły w interakcje za pośrednictwem elektronu i w ten sposób możemy wykonywać uniwersalne operacje kwantowe, które mogą rozwiązywać każdy rodzaj problemów obliczeniowych, wyjaśnia Mądzik.
      Gdy splączemy spiny z elektronem, a następnie możemy elektron ten przesunąć w inne miejsce i splątać go z kolejnymi kubitami, tworzymy w ten sposób duże macierze kubitów zdolnych do przeprowadzania solidnych użytecznych obliczeń, dodaje doktor Serwan Asaad.
      Jak podkreśla profesor David Jamieson z University of Melbourne, atomy fosforu zostały wprowadzone do krzemowego procesora za pomocą tej samej metody, jaka jest obecnie używana w przemyśle półprzewodnikowym. To pokazuje, że nasz kwantowy przełom jest kompatybilny z obecnie używanymi technologiami.
      Wszystkie obecnie używane komputery wykorzystują systemy korekcji błędów i redundancji danych. Jednak prawa mechaniki kwantowej narzucają ścisłe ograniczenia na sposób korekcji błędów w maszynach kwantowych. Konieczne jest osiągnięcie odsetka błędów poniżej 1%. Dopiero wtedy można zastosować kwantowe protokoły korekcji błędów. Teraz, gdy udało się ten cel osiągnąć, możemy zacząć projektować skalowalne krzemowe procesory kwantowe, zdolne do przeprowadzania użytecznych wiarygodnych obliczeń, wyjaśnia Morello.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
      Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
      Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
      Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
      Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
      Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
      W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...