Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Jak znaleźć „kwantową igłę” w stogu spinów? Ważny krok ku kwantowemu internetowi

Rekomendowane odpowiedzi

Badacze z Cavendish Laboratory na Uniwersytecie Cambridge opracowali metodę wykrywania pojedynczego kubitu (bitu kwantowego) w gęstej chmurze 100 000 kubitów utworzonych ze spinów kwantowych kropek. Uczeni najpierw wprowadzili informację kwantową w chmurę, a następnie wykorzystali pojedynczy elektron do kontroli zachowania chmury, co ułatwiło odnalezienie wprowadzonego wcześniej kubitu.

Już teraz prymitywne komputery kwantowe jakimi dysponujemy są w stanie – w niektórych wysoce specjalistycznych zastosowaniach – przewyższyć wydajnością konwencjonalne superkomputery. Jednak kwantowe urządzenia pokażą swoją pełną moc, gdy zostaną połączone za pomocą kwantowego internetu. Problem jednak w tym, że stany kwantowe są niezwykle delikatne. Wszelka ingerencja, jak np. próba ich przesłania, może je zniszczyć. Jednym z pomysłów na poradzenie temu problemowi jest ukrycie kubitu z interesującą nas informacją wewnątrz chmury złożonej z innych kubitów. Stąd też badania, które przeprowadzono na Cambridge.

Opracowana przez nich technika pozwala na przesłanie kwantowej informacji do układu, w którym ma być przechowywana oraz zweryfikowanie jej stabilności. Badania prowadzono w kropkach kwantowych, gdyż to światło jest najbardziej obiecującym kandydatem do przesyłania informacji w kwantowym internecie, a kropki kwantowe są obecnie najlepszym kwantowym źródłem światła. Kropki te to miniaturowe kryształy, sztuczne atomy.

Gdy jednak będziemy przesyłać kwantową informację za pomocą sieci, musimy mieć możliwość jej tymczasowego przechowywania w różnych punktach sieci. Rozwiązaniem jest przechowanie delikatnego stanu kwantowego w chmurze 100 000 jąder atomowych, które zawiera każda z kropek kwantowych. To jak ukrycie igły w stogu siana. Problem w tym, że gdy próbujemy komunikować się z tymi jądrami, mają one tendencje do przypadkowej zmiany spinów, co generuje olbrzymie zakłócenia, szum, wyjaśnia główny autor badań, profesor Mete Atature.

Chmura kubitów w kropce kwantowej zwykle nie działa jak jeden organizm, przez co trudno jest odczytać zawarte w niej informacje. Jednak w 2019 roku Atature i jego zespół wykazali, że schłodzenie do bardzo niskich temperatur i wykorzystanie światła powoduje, że chmura taka zaczyna wykonywać „skoordynowany kwantowy taniec”, co znakomicie redukuje szum.
Teraz ta sama grupa wykazała, że możliwa jest kontrola takiego kolektywnego stanu 100 000 atomów, dzięki czemu byli w stanie wykryć informację zapisaną w „odwróconym kwantowym bicie” ukrytym w chmurze. Czułość wykorzystanej metody wynosi 1,9 części na milion, czyli jest wystarczająca, by zauważyć pojedynczy odwrócony bit w chmurze składającej się ze 100 000 elementów.

Z technicznego punktu widzenia jest to bardzo wymagające. Nie mamy możliwości skomunikowania się z chmurą, a ona nie ma możliwości skontaktowania się z nami. Możemy jednak użyć elektronu jako pośrednika. Działa on jak pies pasterski, wyjaśnia Atature.

Ze wspomnianym elektronem można komunikować się za pomocą lasera. Z kolei elektron komunikuje się ze spinami atomów. W wyniku tego procesu, chaotycznie dotychczas zachowujące się spiny zaczynają organizować się wokół elektronu. W ten sposób powstają skoordynowane fale spinowe.

Jeśli wyobrazimy sobie naszą chmurę spinów jako stado 100 000 poruszających się chaotycznie owiec, to trudno jest zauważyć 1 owcę, która nagle zmieniła kierunek. Jeśli jednak całe stado porusza się jak skoordynowana fala, to taka owca zmieniająca kierunek staje się dobrze widoczna, mówi uczony.

Kolejnym krokiem naszych badań będzie pokazanie, że tę technikę można wykorzystać do przechowania i odczytania dowolnego kwantowego bitu z całego rejestru spinów, zapowiada doktorant Daniel Jackson z Cavendish Laboratory. W ten sposób zakończymy tworzenie układu pamięci połączonego ze źródłem światła, ważnego elementu kwantowego internetu, dodaje Dorian Gangloff.

Tę samą technikę można wykorzystać w budowie komputerów kwantowych. Więcej na jej temat przeczytamy w artykule Quantum sensing of a coherent single spin excitation in a nuclear ensemble.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe, gdy w końcu staną się rzeczywistością, mają poradzić sobie z obliczeniami niemożliwymi do wykonania przez komputery klasyczne w rozsądnym czasie. Powstaje pytanie, czy istnieje granica wydajności obliczeniowej komputerów kwantowych, a jeśli tak, to czy można ją będzie w przyszłości przesuwać czy też trzeba będzie wymyślić zupełnie nową technologię. Odpowiedzi na nie postanowili poszukać Einar Gabbassov, doktorant z Instytutu Obliczeń Kwantowych University of Waterloo i Perimeter Institute oraz profesor Achim Kempf z Wydziału Fizyki Informacji i Sztucznej Inteligencji University of Waterloo i Perimeter Institute. Ich praca na ten temat ukazała się na łamach Quantum Science and Technology.
      Okazuje się, że jeśli komputer kwantowy ma rozwiązać jakiś problem, to jego złożoność przekłada się na bardziej złożone splątanie kwantowe. To oznacza, że problem obliczeniowy staje się rzeczywistością fizyczną, w której kubity zachowują się różnie w zależności od stopnia splątania. To, co było matematyką, zamienia się w fizykę z głównym problemem w postaci splątania kwantowego.
      Najtrudniejsze z zadań obliczeniowych są klasyfikowane jako problemy NP-trudne. Nie mamy dowodów, że komputery kwantowe będą w stanie szybko poradzić sobie z każdym tego typu problemem, ale mamy wielkiej nadzieję, że tak się stanie. Żeby stworzyć algorytm kwantowy, który umożliwi przyspieszenie prac nad problemami NP-trudnymi, używa się klasyfikacji opisującej złożoność takich procesów w odniesieniu do rzeczywistości fizycznej. Często używa się analogii do krajobrazu. Profesor Kempf mówi, by wyobrazić sobie, że wyskakujemy z samolotu ze spadochronem i mamy za zadanie wylądować w najniższym punkcie okolicy. Tam znajdziemy skarb. W problemie łatwym mamy pod sobą krajobraz, w którym znajduje się jedna wyraźnie widoczna dolina z łagodnie opadającymi stokami. W problemie trudnym pod nami znajduje się teren poprzecinany wieloma dolinami, szczelinami i klifami. Ocena, gdzie należy się kierować jest niezwykle trudna. Komputer kwantowy pozwoliły na przeszukanie całego terenu jednocześnie i od razu wskazałby właściwy punkt lądowania. Jednak, by tego dokonać, splątanie między kubitami musi być tak złożone, jak krajobraz. To właśnie w splątaniu tkwi potęga obliczeń kwantowych.
      Odkryliśmy, że trudne problemy matematyczne są tak trudne dlatego, że wymagają od komputerów kwantowych, by manipulowały, tworzyły i rozprzestrzeniały wewnątrz systemu wysoce złożone układy splątań. W miarę ewolucji systemu, kubity zaczynają tworzyć złożoną sieć. Związki pomiędzy nimi zmieniają się, przemieszczają, tworzące kubity cząstki tracą splątanie i na nowo się splątują. Trudne problemy wymagają ciągłych zmian tego typu, a to właśnie determinuje, jak szybkie mogą być obliczenia, wyjaśnia Gabbassov.
      Obaj uczeni proponują w swoim artykule nowy sposób pomiaru prędkości rozwiązania dowolnego problemu w oparciu o wymagany stopień złożoności splątania kwantowego. Zaproponowana metoda została opracowana na potrzeby adiabatycznych maszyn kwantowych, jednak powinna działać też na innych typach maszy, więc można ją będzie szeroko stosować. Gabbassov i Kempf mają nadzieję, ze ich praca zainspiruje innych specjalistów, którzy wykorzystają ją na swoich polach specjalizacji. Myślę, że badania te przyspieszą pracę nad ekonomicznie opłacalnymi obliczeniami kwantowymi, stwierdził Kempf.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wczesna diagnoza jest często kluczem do wyleczenia wielu chorób. Jednak wiele osób nie korzysta z możliwości badań przesiewowych, nie idzie do lekarza gdy zauważy niepokojące objawy, nie bada się pod kątem ewentualnego nawrotu choroby czy pogorszenia stanu zdrowia. W bardzo wielu krajach takiego postępowania nie można tłumaczyć brakiem informacji czy wysokimi kosztami, gdyż informacje są powszechnie dostępne, a koszty pokrywane przez publiczne systemy opieki zdrowotnej. Z badań Instytutu Rozwoju Człowieka im. Maxa Plancka wynika, że aż 33% ludzi wybiera coś, co badacze nazwali „świadomą ignorancją”, ludzie ci nie chcą wiedzieć o poważnej chorobie, nawet jeśli mogą być chorzy.
      Naukowcy przeprowadzili metaanalizę 92 badań, w których wzięło udział w sumie 564 497 osób z 25 krajów. Chcieli wiedzieć, jak szeroko rozpowszechniona jest chęć unikania informacji o swoim stanie zdrowia i jakie są tego przyczyny.
      Analizowane badania dotyczyły postaw pacjentów w obliczu poważnych schorzeń, m.in. choroby Alzheimera, pląsawicy Huntingtona, AIDS, nowotworów i cukrzycy. Autorzy metaanalizy zdefiniowali unikanie jako każde zachowanie, którego celem jest uniknięcie lub odwleczenie pozyskania dostępnej, ale potencjalnie niechcianej informacji. Zachowania takie to np. unikanie umówionych wizyt u lekarza, odmawianie poddaniu się badaniom, nieodebranie wyników badań czy ignorowanie informacji dotyczących stanu zdrowia.
      Analiza wykazała, że niemal 33% osób cierpiących na poważne choroby unika informacji na temat swojego stanu zdrowia. Największy odsetek występuje wśród cierpiących na alzheimera (41%) i pląsawicy Huntingtona (40%). Dla chorób poddających się leczeniu odsetek unikających był niższy i wynosił 32% w przypadku zarażenia HIV, 29% w przypadku nowotworów i 24% w przypadku cukrzycy.
      Gdy naukowcy postanowili zbadać przyczyny, dla których ludzie chorzy unikają informacji, okazało się, że najważniejszymi z nich były przeciążenie poznawcze (diagnoza takich chorób jak nowotwory może być bardzo stresująca), zbyt mała wiara w siebie (chory nie wierzy, że sobie poradzi w trakcie leczenia z podejmowaniem właściwych decyzji), strach przed stygmatyzacją (dotyczy to np. HIV) oraz brak zaufania do systemu opieki zdrowotnej w połączeniu z niską wiarą w powodzenie leczenia. Niestety, badacze nie dysponowali danymi, które pozwoliłyby na stwierdzenie, jak unikanie informacji wpłynęło na rezultaty leczenia badanych osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Polska fizyk, Barbara Latacz, jest główną autorką badań, w ramach których naukowcy skupieni w projekcie BASE w CERN zaprezentowali pierwszy w historii kubit z antymaterii. Na łamach pisma Nature Latacz i jej koledzy opisali, jak przez niemal minutę utrzymywali w pułapce antyproton oscylujący pomiędzy dwoma stanami kwantowymi. Badania te pozwolą na znaczne udoskonalenie metod badania różnic między materią i antymaterią.
      Proton i antyproton mogą przyjmować dwie wartości spinu. Pomiary zmiany tej wartości pozwalają na precyzyjne testowanie podstawowych praw przyrody, na przykład takich jak symetria CPT (ładunku, parzystości i czasu). Wskazuje ona, że materia i antymateria zachowują się identycznie, jednak jest to sprzeczne z obserwacjami, zgodnie z którymi materii we wszechświecie jest znacznie więcej niż antymaterii.
      Spójne kontrolowane zmiany stanu kwantowego obserwowano dotychczas albo w dużych grupach cząstek, albo w przypadku pojedynczych uwięzionych jonów. Nie udało się tego jednak zrobić dla pojedynczego swobodnego momentu magnetycznego jądra, czyli np. spinu pojedynczego protonu. Teraz dokonali tego naukowcy z projektu BASE.
      W ramach eksperymentu BASE badane są antyprotony dostarczane przez fabrykę antymaterii w CERN-ie. To jedyne miejsce na Ziemi, gdzie produkuje się niskoenergetyczne antyprotony. Są one przechowywane w elektromagnetycznych pułapkach Penninga i pojedynczo przesyłane do systemu pułapek, w których bada się m.in. ich spin.
      Już wcześniej zespół BASE dowiódł, że wartości momentów magnetycznych protonów i antyprotonów są identyczne z dokładnością do kilku części na miliard. Najmniejsza różnica wskazywałaby na naruszenie symetrii CPT, a to oznaczałoby istnienie fizyki poza Modelem Standardowym. Dotychczas jednak badania były zakłócane przez fluktuacje pola magnetycznego. W ostatnim czasie naukowcom udało się znakomicie ulepszyć eksperyment i zapobiec utracie stanu kwantowego, dzięki czemu przez 50 sekund można było badać spin antyprotonu.
      To pierwszy kubit zbudowany z antymaterii. Daje nam to możliwość zastosowania całego zestawu metod do precyzyjnego badania pojedynczych układów materii i antymaterii, mówi Stefan Ulmer z BASE. Uczony dodaje, że nowe osiągnięcie pozwoli na badanie momentu pędu antyprotonu nawet ze 100-krotnie większą precyzją, niż dotychczas.
      Jeszcze bardziej precyzyjne pomiary będą możliwe dzięki projektowi BASE-STEP, o którego pierwszym udanym teście poinformowano w maju bieżącego roku. Umożliwia on bezpieczne transportowanie antyprotonów uzyskanych w CERN-ie do spokojniejszych środowisk i bardziej precyzyjnych laboratoriów. Gdy już system będzie w pełni działał, nasz nowy przenośny układ pułapek Penninga, napełniony antyprotonami z fabryki, będzie transportowany za pomocą BASE-STEP, co pozwoli na nawet 10-krotne wydłużenie czasu koherencji antyprotonu. To będzie przełom w badaniach nad materią barionową, mówi Barbara Latacz.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
      Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
      Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
      Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
      Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.

      Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      We Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej uruchomiono pierwszy w Polsce i Europie Środkowo-Wschodniej komputer kwantowy, który wykorzystuje kubity nadprzewodzące w niskiej temperaturze. Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers. Posłuży do badań w dziedzinie informatyki, dzięki niej powstaną nowe specjalizacje, a docelowo program studiów w dziedzinie informatyki kwantowej.
      Odra 5 korzysta z 5 kubitów. Waży 1,5 tony i ma 3 metry wysokości. Zwisający w sufitu metalowy walec otacza kriostat, który utrzymuje temperaturę roboczą procesora wynoszącą 10 milikelwinów (-273,14 stopnia Celsjusza).
      Rektor Politechniki Wrocławskiej, profesor Arkadiusz Wójs przypomniał, że sam jest fizykiem kwantowym i zajmował się teoretycznymi obliczeniami na tym polu. Idea, żeby w ten sposób prowadzić obliczenia, nie jest taka stara, bo to lata 80. XX w., a teraz minęło kilka dekad i na Politechnice Wrocławskiej mamy pierwszy komputer kwantowy nie tylko w Polsce, ale też
      w tej części Europy. Oby się po latach okazało, że to start nowej ery obliczeń kwantowych, stwierdził rektor podczas uroczystego uruchomienia Odry 5.
      Uruchomienie komputera kwantowego to ważna chwila dla Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Jego dziekan, profesor Andrzej Kucharski, zauważył, że maszyna otwiera nowe możliwości badawcze, a w przyszłości rozważamy również uruchomienie specjalnego kierunku poświęconego informatyce kwantowej. Powstało już nowe koło naukowe związane z kwestią obliczeń kwantowych, a jego utworzenie spotkało się z ogromnym zainteresowaniem ze strony studentów. Mamy niepowtarzalną okazję znalezienia się w awangardzie jeśli chodzi o badania i naukę w tym zakresie i mam nadzieję, że to wykorzystamy.
      Odra 5 będzie współpracowała z czołowymi ośrodkami obliczeń kwantowych. Dzięki niej Politechnika Wrocławska zyskała też dostęp do 20- i ponad 50-kubitowych komputerów kwantowych stojących w centrum firmy IQM w Finlandii.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...