Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Powstały procesory kwantowe niemal wolne od błędów. Polak współautorem przełomowych badań

Recommended Posts

Najnowszy numer Nature przynosi przełomowe informacje na temat praktycznego wykorzystania komputerów kwantowych. Naukowcy z Uniwersytetu Nowej Południowej Walii (UNSW) wykazali, że możliwe jest stworzenie niemal wolnego od błędów krzemowego procesora kwantowego. Dzisiejsza publikacja pokazuje, że obliczenia przeprowadzane przez nasz procesor były w ponad 99% wolne od błędów. Gdy odsetek błędów jest tak mały, możliwym staje się ich wykrywanie i korygowanie w czasie rzeczywistym. A to oznacza, że można wybudować skalowalny komputer kwantowy wykonujący wiarygodne obliczenia, wyjaśnia profesor Andrea Morello z UNSW.

Morello stoi na czele zespołu złożonego z naukowców z Australii, USA, Japonii i Egiptu. Ich celem jest zbudowanie uniwersalnego komputera kwantowego, czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań. Badania, których wyniki właśnie opublikowaliśmy, to bardzo ważny krok w tym kierunku, podkreśla uczony.

Jednak, co niezwykle ważne, artykuł Morello i jego zespołu to jeden z trzech tekstów z Nature, których autorzy informują o niezależnym od siebie osiągnięciu niskiego odsetka błędów w opartych na krzemie procesorach kwantowych.

Z najnowszego Nature, którego redakcja zdecydowała się na zilustrowanie kwantowego przełomu na okładce, dowiadujemy się, że wiarygodność operacji obliczeniowych na jednym kubicie osiągnięta przez Morello i jego zespół wyniosła 99,95%, a operacji na dwóch kubitach – 99,37%. Niezależnie od nich zespół z holenderskiego Uniwersytetu Technologicznego w Delft, prowadzony przez Lievena Vandersypena osiągnął wiarygodność rzędu 99,87% przy operacjach na jednym kubicie i 99,65% podczas operacji dwukubitowych. W trzecim z artykułów czytamy zaś o pracach naukowców z japońskiego RIKEN, w trakcie których grupa Seigo Taruchy mogła pochwalić się wiarygodnością 99,84% przy działaniach na jednym kubicie i 99,51% przy pracy z dwoma kubitami.

Wydajność procesorów z UNSW i Delft została certyfikowana zaawansowaną metodą gate set tomography opracowaną przez amerykańskie Sandia National Laboratories, a wyniki certyfikacji zostały udostępnione innym grupom badawczym.

Zespół profesora Morello już wcześniej wykazał, że jest w stanie utrzymać kwantową informację w krzemie przez 35 sekund. W świecie kwantowym 35 sekund to wieczność. Dla porównania, słynne nadprzewodzące komputery kwantowe Google'a i IBM-a są w stanie utrzymać taką informację przez około 100 mikrosekund, czyli niemal milion razy krócej, zauważa Morello. Osiągnięto to jednak izolując spiny (kubity) od otoczenia, co z kolei powodowało, że wydaje się niemożliwym, by kubity te mogły wejść ze sobą w interakcje, a więc nie mogły wykonywać obliczeń.

Teraz z artykułu w Nature dowiadujemy się, że udało się pokonać problem izolacji wykorzystując elektron okrążający dwa jądra atomu fosforu.

Gdy masz dwa jądra połączone z tym samym elektronem, może zmusić je do wykonywania operacji kwantowych, stwierdza doktor Mateusz Mądzik, jeden z głównych autorów eksperymentów. Gdy nie operujesz na elektronie, jądra te mogą bezpiecznie przechowywać kwantowe informacje. Teraz jednak mamy możliwość, by jądra wchodziły w interakcje za pośrednictwem elektronu i w ten sposób możemy wykonywać uniwersalne operacje kwantowe, które mogą rozwiązywać każdy rodzaj problemów obliczeniowych, wyjaśnia Mądzik.

Gdy splączemy spiny z elektronem, a następnie możemy elektron ten przesunąć w inne miejsce i splątać go z kolejnymi kubitami, tworzymy w ten sposób duże macierze kubitów zdolnych do przeprowadzania solidnych użytecznych obliczeń, dodaje doktor Serwan Asaad.

Jak podkreśla profesor David Jamieson z University of Melbourne, atomy fosforu zostały wprowadzone do krzemowego procesora za pomocą tej samej metody, jaka jest obecnie używana w przemyśle półprzewodnikowym. To pokazuje, że nasz kwantowy przełom jest kompatybilny z obecnie używanymi technologiami.

Wszystkie obecnie używane komputery wykorzystują systemy korekcji błędów i redundancji danych. Jednak prawa mechaniki kwantowej narzucają ścisłe ograniczenia na sposób korekcji błędów w maszynach kwantowych. Konieczne jest osiągnięcie odsetka błędów poniżej 1%. Dopiero wtedy można zastosować kwantowe protokoły korekcji błędów. Teraz, gdy udało się ten cel osiągnąć, możemy zacząć projektować skalowalne krzemowe procesory kwantowe, zdolne do przeprowadzania użytecznych wiarygodnych obliczeń, wyjaśnia Morello.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Jakiego wzrostu mocy obliczeniowej się spodziewamy? Ile to ma FLOPS/Wat?

Share this post


Link to post
Share on other sites

Ale co? To tak jakbyś zapytał: ile wyciska ten "błysk w oku listonosza" :)
To jest taki etap nie jak przy narodzinach ale przy tym słynnym błysku w oku listonosza. A Ty pytasz czy to dziecko zda na studia.
Zresztą przy komputerach kwantowych - jeśli powstaną to FLOPSy są bezsensowną jednostką.

W dniu 20.01.2022 o 11:44, KopalniaWiedzy.pl napisał:

możemy zacząć projektować skalowalne krzemowe procesory kwantowe

Oni dopiero poznali pewien proces i daleko ale to bardzo daleko mają do "procesorów kwantowych".
Zresztą pewnie głównym celem publikacji jest zainteresowanie tym Google czy Microsoft czy innego bogatego sponsora :)

Edited by thikim

Share this post


Link to post
Share on other sites
W dniu 20.01.2022 o 11:44, KopalniaWiedzy.pl napisał:

czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań.

 

9 godzin temu, thikim napisał:

Zresztą przy komputerach kwantowych - jeśli powstaną to FLOPSy są bezsensowną jednostką.

Nie. Jeśli będzie na nich układać pasjansa to FLOPS pozostaje sensowną miarą.

9 godzin temu, thikim napisał:

To jest taki etap nie jak przy narodzinach ale przy tym słynnym błysku w oku listonosza. A Ty pytasz czy to dziecko zda na studia.

Miałem nadzieję, że istnieją jakieś szacunki. Dla komputerów optycznych w 2020 miałem dostać 17 EFLOPS - według szacunków z ósmego sierpnia 2014 ;)

https://www.benchmark.pl/aktualnosci/optalysys-superkomputer-optyczny-maly-17-eflops.html ale chyba mamy poślizg.

 

Share this post


Link to post
Share on other sites
2 godziny temu, Jajcenty napisał:

Dla komputerów optycznych w 2020 miałem dostać 17 EFLOPS - według szacunków z ósmego sierpnia 2014

Coś trzeba ludziom sprzedawać. Zawsze dobrze zacząć od sprzedaży marzeń :) na przyszłość. Kasę się dostaje w teraźniejszości na tym :)
A pamiętasz takie reklamy: emerytura z OFE na egzotycznych wyspach? "Trzeba mieć fantazję i pieniądze synku" :D Tak sprzedano ludziom potrzębę finansowania OFE :D (jedna z niewielu rzeczy jakie Rudy dobrze zrobił to się dobrał w końcu tym oszustom do d... chociaż mocno delikatnie, na zasadzie: dobra, ukradliście dziesiątki miliardów, od dziś można kraść tylko miliony. PiS tu nic nie poprawił)

Cytat

Nie. Jeśli będzie na nich układać pasjansa to FLOPS pozostaje sensowną miarą.

FLOPSy są bezsensowne dla komputerów kwantowych ponieważ taki (właściwie nie komputer tylko podzespół) może swoje specyficzne obliczenia wykonać w czasie niewyobrażalnie szybszym niż zwykły komputer ... po czym dla układania pasjansa jego prędkość spadnie do standardowych maszyn biurkowych i będzie pracował na zwykłym procesorze. Upraszczam oczywiście bo nikt celerona nie upcha razem z podzespołem kwantowym, jak już to jakiś słaby superkomputer.
To trochę tak jakbyś raz jechał rowerem - po czym w przypadkowych momentach przyspieszał do c i chciał liczyć prędkość wypadkową - nie znając tych momentów.
A tu będą dwie prędkości: zwykła i nadświetlna. Przypadkowo przełączane.
Dziś się sprzedaje bajki o komputerach kwantowych oraz o syntezie termojądrowej :)

Edited by thikim

Share this post


Link to post
Share on other sites
4 minuty temu, thikim napisał:

po czym dla układania pasjansa jego prędkość spadnie do standardowych maszyn biurkowych.

Mowa jest o uniwersalnym komputerze kwantowym. Zamiast pasjansa może być problem komiwojażera - będzie szybciej? O ile? A może problem 3x+1? Jak daleko 3x+1 policzy komputer kwantowy w ciągu godziny? Prędzej czy później da się to sprowadzić do operacji na liczbach. Skoro kwantowe umieją tylko na liczbach naturalnych może być porównanie w INT64.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Dwie amerykańskie grupy badawcze stworzyły – niezależnie od siebie – pierwsze kwantowe procesory, w których rolę kubitów odgrywają atomy. To potencjalnie przełomowe wydarzenie, gdyż oparte na atomach komputery kwantowe mogą być łatwiej skalowalne niż dominujące obecnie urządzenia, w których kubitami są uwięzione jony lub nadprzewodzące obwody.
      W 2020 roku firma Heoneywell pochwaliła się, że jej komputer na uwięzionych jonach osiągnął największą wartość „kwantowej objętości”. Tego typu maszyny, mają tę zaletę, że jony w próżni jest dość łatwo odizolować od zakłóceń termicznych, a poszczególne jony w chmurze są nieodróżnialne od siebie. Problemem jest jednak fakt, że jony wchodzą w silne interakcje, a do manipulowania nimi trzeba używać pól elektrycznych, co nie jest łatwym zadaniem.
      Z drugiej zaś strony mamy kwantowe maszyny wykorzystujące obwody nadprzewodzące. Za najpotężniejszy obecnie procesor kwantowy z takimi obwodami uznaje się 127–kubitowy Eagle IBM-a. Jednak wraz ze zwiększaniem liczby kubitów, urządzenia tego typu napotykają coraz więcej problemów. Każdy z kubitów musi być w nich wytwarzany indywidualnie, co praktycznie uniemożliwia wytwarzanie identycznych kopii, a to z kolei – wraz z każdym dodanym kubitem – zmniejsza prawdopodobieństwo, że wynik obliczeń prowadzonych za pomocą takiego procesora będzie prawidłowy. Jakby jeszcze tego było mało, każdy z obwodów musi być schłodzony do niezwykle niskiej temperatury.
      Już przed sześcioma laty zespoły z USA i Francji wykazały, że możliwe jest przechowywanie kwantowej informacji w atomach, którymi manipulowano za pomocą szczypiec optycznych. Od tamtego czasu Amerykanie rozwinęli swój pomysł i stworzyli 256-bitowy komputer kwantowy bazujący na tej platformie. Jednak nikt dotychczas nie zbudował pełnego obwodu kwantowego na atomach.
      Teraz dwa niezależne zespoły zaprezentowały procesory bazujące na takich atomach. Na czele grupy z Uniwersytetu Harvarda i MTI stoi Mikhail Lukin, który w 2016 roku opracował ten oryginalny pomysł. Zespołem z University of Wisonsin-Madison, w pracach którego biorą też udział specjaliści z firm ColdQuant i Riverlane, kieruje zaś Mark Saffman. Zespół Lukina wykorzystał atomy rubidu, zespół Saffmana użył zaś cezu.
      Jeśli mamy obok siebie dwa atomy w stanie nadsubtelnym, to nie wchodzą one w interakcje. Jeśli więc chcemy je splątać, jednocześnie wzbudzamy je do stanu Rydberga. W stanie Rydberga wchodzą one w silne interakcje, a to pozwala nam je szybko splątać. Później możemy z powrotem wprowadzić je w stan nadsubtelny, gdzie można nimi manipulować za pomocą szczypiec optycznych, wyjaśnia Dolev Bluvstein z Uniwersytetu Harvarda.
      Grupa z Harvarda i MIT wykorzystała stan nadsubtelny do fizycznego oddzielenia splątanych atomów bez spowodowania dekoherencji, czyli utraty kwantowej informacji. Gdy każdy z atomów został przemieszczony na miejsce docelowe został za pomocą lasera splątany z pobliskim atomem. W ten sposób naukowcy byli w stanie przeprowadzać nielokalne operacje bez potrzeby ustanawiania specjalnego fotonicznego lub atomowego łącza do przemieszczania splątania w obwodzie.
      W ten sposób uruchomiono różne programy. Przygotowano m.in. kubit logiczny, składający się z siedmiu kubitów fizycznych, w którym można było zakodować informacje w sposób odporny na pojawienie się błędów. Naukowcy zauważają, że splątanie wielu takich logicznych kubitów może być znacznie prostsze niż podobne operacje na innych platformach. Istnieje wiele różnych sztuczek, które są stosowane by splątać kubity logiczne. Jednak gdy można swobodnie przesuwać atomy, to jest to bardzo proste. Jedyne, co trzeba zrobić to stworzyć dwa niezależne kubity logiczne, przesunąć je i przemieszać z innymi grupami, wprowadzić za pomocą lasera w stan Rydberga i utworzyć pomiędzy nimi bramkę, stwierdza Dluvstein. Te technika, jak zapewnia uczony, pozwala na przeprowadzenie korekcji błędów i splątania pomiędzy kubitami logicznymi w sposób niemożliwy do uzyskania w obwodach nadprzewodzących czy z uwięzionymi jonami.
      Grupa z Wisconsin wykorzystała inne podejście. Naukowcy nie przemieszczali fizycznie atomów, ale za pomocą lasera manipulowali stanem Rydberga i przemieszczali splątanie po macierzy atomów. Mark Saffman podaje przykład trzech kubitów ustawionych w jednej linii. Za pomocą laserów oświetlamy kubit po lewej i kubit centralny Zostają one wzbudzone do stanu Rydberga i splątane. Następnie oświetlamy atom centralny oraz ten po prawej. W ten sposób promienie laserów kontrolują operacje na bramkach, ale tym, co łączy kubity są interakcje zachodzące w stanach Rydberga.
      Grupa Saffmana wykorzystała opracowaną przez siebie technikę do stworzenia składających się z sześciu atomów stanów Greenbergera-Horne'a-Zeilingera. Wykazali też, że ich system może działać jak kwantowy symulator służący np. do szacowania energii molekuły wodoru. Dzięki temu, że nie trzeba było przesuwać atomów, zespół z Wisconsin osiągnął kilkaset razy większe tempo pracy niż zespół z Harvarda i MIT, jednak ceną była pewna utrata elastyczności. Saffman uważa, że w przyszłości można będzie połączyć oba pomysły w jeden lepszy system.
      Na razie oba systemy korzystają z niewielkiej liczby kubitów, konieczne jest też wykazanie wiarygodności obliczeń oraz możliwości ich skalowania. Chris Monroe, współtwórca pierwszego kwantowego kubita – który oparty był na uwięzionych jonach – uważa, że obie grupy idą w dobrym kierunku, a kubity na atomach mogą osiągnąć wiarygodność 99,9% i to bez korekcji błędów. Obecnie osiągamy taki wynik na uwięzionych jonach i – mimo że technologia wykorzystania atomów jest daleko z tyłu – nie mam wątpliwości, że w końcu osiągną ten sam poziom, stwierdza.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
      Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
      Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
      Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
      Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
      Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
      W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Twórcy komputerów kwantowych będą musieli przeprojektować je tak, by maksymalnie chronić je przed promieniowaniem tła. Robert McDermott z University of Wisconsin-Madison, którego wcześniejsze badania wykazały, że promieniowanie kosmiczne może poważnie zakłócić pracę komputerów kwantowych, stwierdził teraz, że powszechnie używana metoda korekcji błędów nie poradzi sobie z tym problemem.
      Prowadzony przez McDermotta międzynarodowy zespół specjalistów sugeruje, że do utrzymania akceptowalnego poziomu błędów konieczne będzie nie tylko zastosowanie fizycznych barier chroniących komputery kwantowe przed promieniowaniem, ale również zmiana w samych projektach układów scalonych.
      Promieniowanie kosmiczne to znany problem, który trapi też klasyczne komputery, mogąc wywoływać w nich błędy. Jednak w przypadku komputerów kwantowych problem jest większy, gdyż promieniowanie może zmienić stan kubitu w dwóch kierunkach (reprezentowanych przez osie X i Z), a nie w jednym. Dlatego też stosuje się metodę korekcji błędów, w której informacje zapisywane są w jednowymiarowej macierzy kubitów, z których każdy jest połączony z sąsiadem. Przy niewielkiej liczbie błędów możliwe jest wykorzystanie kubitów sąsiednich do naprawienia stanu błędnego kubity. Pod warunkiem jednak, że w tym samym czasie nie przydarzy się błąd w kubitach ze sobą sąsiadujących.
      Badania zespołu McDermotta wskazują jednak, że błędy powodowane przez promieniowanie kosmiczne i promieniowanie gamma nie spełniają drugiego z warunków. Odkryliśmy istnienie wielu mechanizmów występowania skorelowanych błędów, mówi Chris Wilen, jeden z badaczy.
      Na potrzeby swoich badań zespół stworzył chip zawierający dwie pary kubitów. Odległość pomiędzy kubitami jednej z par wynosiła 340 µm, a między drugą parą – 640 µm. Podczas przeprowadzania operacji kwantowych na swoim systemie, naukowcy zaobserwowali liczne jednoczesne przeskoki ładunków w parach kubitów. Gdy przeprowadzili modelowanie tych przeskoków za pomocą standardowych narzędzi używanych w fizyce cząstek, odkryli, że ich źródłem są uderzenia promieni kosmicznych i promieni gamma w sam układ scalony.
      Prawdopodobieństwo skorelowanych przeskoków ładunku było większe w parze o mniejsze odległości pomiędzy kubitami, co wskazuje, że odsunięcie kubitów od siebie pozwoli na zmniejszenie liczby błędów.
      Odkryto jednak również inny poważny problem. Okazało się bowiem, że energia uderzeń promieni w chip była zamieniana z fonony, wibracje materiału, które mogą prowadzić do powstania kwazicząstek. Gdy fonony się rozprzestrzeniały w układzie, generowały kolejne skorelowane błędy, które pojawiały się w całym niewielkim układzie. I właśnie to „zatrucie kwazicząstkami” może być najpoważniejszym problemem dla systemów korekcji błędów.
      Autorzy badań proponują dwa rozwiązania problemu. Jeden z nich to zastosowanie ołowianej obudowy wokół kwantowych układów scalonych i umieszczenie ich pod ziemią, tak jak się robi np. z wykrywaczami neutrin. Druga z metod to zmniejszenie wrażliwości kubitów, co można by osiągnąć np. poprzez domieszkowanie chipa materiałami wiążącymi kwazicząstki lub wyprowadzającymi je poza układ.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rozwiązaniem problemu pomiędzy szybkością działania komputerów kwantowych a koherencją kubitów może być zastosowanie dziur, twierdzą australijscy naukowcy. To zaś może prowadzić do powstania kubitów nadających się do zastosowania w minikomputerach kwantowych.
      Jedną z metod stworzenia kubitu – kwantowego bitu – jest wykorzystanie spinu elektronu. Aby uczynić komputer kwantowy tak szybkim, jak to tylko możliwe, chcielibyśmy mieć możliwość manipulowania spinami wyłącznie za pomocą pola elektrycznego, dostarczanego za pomocą standardowych elektrod.
      Zwykle spiny nie reagują na pole elektryczne, jednak z niektórych materiałach spiny wchodzi w niebezpośrednie interakcje z polem elektrycznym. Mamy tutaj do czynienia z tzw. sprzężeniem spinowo-orbitalnym. Eksperci zajmujący się tym tematem obawiają się jednak, że gdy taka interakcja jest zbyt silna, wszelkie korzyści z tego zjawiska zostaną utracone, gdyż dojdzie do dekoherencji i utraty kwantowej informacji.
      Jeśli elektrony zaczynają wchodzić w interakcje z polami kwantowymi, które im aplikujemy w laboratorium, są też wystawione na niepożądane zmienne pola elektryczne, które istnieją w każdym materiale. Potocznie nazywamy to „szumem”. Ten szum może zniszczyć delikatną informację kwantową, mówi główny autor badań, profesor Dimi Culcer z Uniwersytetu Nowej Południowej Walii.
      Nasze badania pokazują jednak, że takie obawy są nieuzasadnione. Nasze teoretyczne badania wykazały, że problem można rozwiązać wykorzystując dziury – które można opisać jako brak elektronu – zachowujące się jak elektrony z ładunkiem dodatnim, wyjaśnia uczony.
      Dzięki wykorzystaniu dziur kwantowy bit może być odporny na fluktuacje pochodzące z tła. Co więcej, okazało się, że punkt, w którym kubit jest najmniej wrażliwy na taki szum, jest jednocześnie punktem, w którym działa on najszybciej. Z naszych badań wynika, że w każdym kwantowym bicie utworzonym z dziur istnieje taki punkt. Stanowi to podstawę do przeprowadzenia odpowiednich eksperymentów laboratoryjnych, dodaje profesor Culcer.
      Jeśli w laboratorium uda się osiągnąć te punkty, będzie można rozpocząć eksperymenty z utrzymywaniem kubitów najdłużej jak to możliwe. Będzie to też stanowiło punkt wyjścia do skalowania kubitów tak, by można było je stosować w minikomputerach.
      Wiele wskazuje na to, że takie eksperymenty mogą zakończyć się powodzeniem. Profesor Joe Salfi z University of British Columbia przypomina bowiem: Nasze niedawne eksperymenty z kubitami utworzonymi z dziur wykazały, że w ich wypadku czas koherencji jest dłuższy, niż się spodziewaliśmy. Teraz widzimy, że nasze obserwacje mają solidne podstawy teoretyczne. To bardzo dobry prognostyk na przyszłość.
      Praca Australijczyków została opublikowana na łamach npj Quantum Information.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze z Cavendish Laboratory na Uniwersytecie Cambridge opracowali metodę wykrywania pojedynczego kubitu (bitu kwantowego) w gęstej chmurze 100 000 kubitów utworzonych ze spinów kwantowych kropek. Uczeni najpierw wprowadzili informację kwantową w chmurę, a następnie wykorzystali pojedynczy elektron do kontroli zachowania chmury, co ułatwiło odnalezienie wprowadzonego wcześniej kubitu.
      Już teraz prymitywne komputery kwantowe jakimi dysponujemy są w stanie – w niektórych wysoce specjalistycznych zastosowaniach – przewyższyć wydajnością konwencjonalne superkomputery. Jednak kwantowe urządzenia pokażą swoją pełną moc, gdy zostaną połączone za pomocą kwantowego internetu. Problem jednak w tym, że stany kwantowe są niezwykle delikatne. Wszelka ingerencja, jak np. próba ich przesłania, może je zniszczyć. Jednym z pomysłów na poradzenie temu problemowi jest ukrycie kubitu z interesującą nas informacją wewnątrz chmury złożonej z innych kubitów. Stąd też badania, które przeprowadzono na Cambridge.
      Opracowana przez nich technika pozwala na przesłanie kwantowej informacji do układu, w którym ma być przechowywana oraz zweryfikowanie jej stabilności. Badania prowadzono w kropkach kwantowych, gdyż to światło jest najbardziej obiecującym kandydatem do przesyłania informacji w kwantowym internecie, a kropki kwantowe są obecnie najlepszym kwantowym źródłem światła. Kropki te to miniaturowe kryształy, sztuczne atomy.
      Gdy jednak będziemy przesyłać kwantową informację za pomocą sieci, musimy mieć możliwość jej tymczasowego przechowywania w różnych punktach sieci. Rozwiązaniem jest przechowanie delikatnego stanu kwantowego w chmurze 100 000 jąder atomowych, które zawiera każda z kropek kwantowych. To jak ukrycie igły w stogu siana. Problem w tym, że gdy próbujemy komunikować się z tymi jądrami, mają one tendencje do przypadkowej zmiany spinów, co generuje olbrzymie zakłócenia, szum, wyjaśnia główny autor badań, profesor Mete Atature.
      Chmura kubitów w kropce kwantowej zwykle nie działa jak jeden organizm, przez co trudno jest odczytać zawarte w niej informacje. Jednak w 2019 roku Atature i jego zespół wykazali, że schłodzenie do bardzo niskich temperatur i wykorzystanie światła powoduje, że chmura taka zaczyna wykonywać „skoordynowany kwantowy taniec”, co znakomicie redukuje szum.
      Teraz ta sama grupa wykazała, że możliwa jest kontrola takiego kolektywnego stanu 100 000 atomów, dzięki czemu byli w stanie wykryć informację zapisaną w „odwróconym kwantowym bicie” ukrytym w chmurze. Czułość wykorzystanej metody wynosi 1,9 części na milion, czyli jest wystarczająca, by zauważyć pojedynczy odwrócony bit w chmurze składającej się ze 100 000 elementów.
      Z technicznego punktu widzenia jest to bardzo wymagające. Nie mamy możliwości skomunikowania się z chmurą, a ona nie ma możliwości skontaktowania się z nami. Możemy jednak użyć elektronu jako pośrednika. Działa on jak pies pasterski, wyjaśnia Atature.
      Ze wspomnianym elektronem można komunikować się za pomocą lasera. Z kolei elektron komunikuje się ze spinami atomów. W wyniku tego procesu, chaotycznie dotychczas zachowujące się spiny zaczynają organizować się wokół elektronu. W ten sposób powstają skoordynowane fale spinowe.
      Jeśli wyobrazimy sobie naszą chmurę spinów jako stado 100 000 poruszających się chaotycznie owiec, to trudno jest zauważyć 1 owcę, która nagle zmieniła kierunek. Jeśli jednak całe stado porusza się jak skoordynowana fala, to taka owca zmieniająca kierunek staje się dobrze widoczna, mówi uczony.
      Kolejnym krokiem naszych badań będzie pokazanie, że tę technikę można wykorzystać do przechowania i odczytania dowolnego kwantowego bitu z całego rejestru spinów, zapowiada doktorant Daniel Jackson z Cavendish Laboratory. W ten sposób zakończymy tworzenie układu pamięci połączonego ze źródłem światła, ważnego elementu kwantowego internetu, dodaje Dorian Gangloff.
      Tę samą technikę można wykorzystać w budowie komputerów kwantowych. Więcej na jej temat przeczytamy w artykule Quantum sensing of a coherent single spin excitation in a nuclear ensemble.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...