Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Komputery kwantowe trzeba będzie zakopywać pod ziemią lub otaczać ołowiem?

Rekomendowane odpowiedzi

Amerykańscy fizycy ostrzegają, że w przyszłości komputery kwantowe będą musiały być chronione grubą warstwą ołowiu lub... przechowywane głęboko pod ziemią. Są bowiem niezwykle wrażliwe na zewnętrzne zakłócenia, w tym na promieniowanie jonizujące. Promieniowanie to może znacząco skracać czas koherencji kubitów (kwantowych bitów), a to z kolei niekorzystnie wpłynie na możliwość praktycznego wykorzystania technologii kwantowych.

William Oliver i jego koledzy z Massachusetts Institute of Technology (MIT) oraz Pacific Northwest National Laboratory zmierzyli i modelowali wpływ promieniowania jonizującego na aluminiowe kubity umieszczone na krzemowym podłożu. Podczas swoich eksperymentów naukowcy wykorzystali dwa kubity, które poddano działaniu dobrze znanego źródła promieniowania jonizującego, cienkiego dysku wykonanego z miedzi-64. Naukowcy mierzyli tempo dekoherencji kubitów. Badali też, jak łatwo w wyniku oddziaływania promieniowania w kubitach pojawiają się kwazicząsteczki. Uzyskane w ten sposób informacje połączyli z danymi dotyczącymi promieniowania jonizującego w laboratorium MIT, pochodzącego zarówno z promieniowania kosmicznego jak i z naturalnych izotopów radioaktywnych. W tym przypadku były to głównie izotopy obecne w betonowych ścianach laboratorium.

Okazało się, że w warunkach panujących w laboratorium górna granica czasu koherencji kubitów wynosi 3–4 milisekund. Po tym czasie następuje dekoherencja, zatem kubity stają się nieprzydatne do przeprowadzania obliczeń.

Uczeni zweryfikowali uzyskane wyniki za pomocą dodatkowego niezależnego eksperymentu sprawdzając, jak można kubity chronić przed promieniowaniem jonizującym. W tym eksperymencie siedem kubitów – a raczej pojemnik z chłodziwem, w którym je przechowywano – zostało otoczonych 10-centymetrową warstwą ołowiu. Podnosząc i opuszczając osłonę byli w stanie zbadać wpływ promieniowania jonizującego oraz osłony na te same kubity. Potwierdzili, że limit czasu koherencji wynosi około 4 ms. Jednocześnie odkryli, że 10-centymetrowa osłona wydłuża ten czas o około 10%.

Jednak biorąc pod uwagę fakt, że istnieją silniejsze od promieniowania jonizującego źródła dekoherencji kubitów, Oliver i jego zespół wyliczają, że 10-centymetrowa osłona wydłuża czas koherencji zaledwie o 0,2%. To niewiele, ale zdaniem naukowców stosowanie takich osłon będzie koniecznością. Zmniejszenie lub pozbycie się wpływu promieniowania jonizującego będzie krytycznym elementem praktycznego wykorzystania nadprzewodzących komputerów kwantowych, napisali na łamach Nature.

Jedną z opcji, przynajmniej na początku rozwoju informatyki kwantowej, mogłoby być umieszczenie komputerów pod ziemią. To jednak wymaga dalszych badań. Oliver mówi, że najlepszym rozwiązaniem będzie stworzenie kubitów, które są mniej podatne na zakłócenia.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
      Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
      Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
      Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
      Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
      Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
      Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
      Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
      Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
      Więcej o unimonie można przeczytać na łamach Nature Communications.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dwie amerykańskie grupy badawcze stworzyły – niezależnie od siebie – pierwsze kwantowe procesory, w których rolę kubitów odgrywają atomy. To potencjalnie przełomowe wydarzenie, gdyż oparte na atomach komputery kwantowe mogą być łatwiej skalowalne niż dominujące obecnie urządzenia, w których kubitami są uwięzione jony lub nadprzewodzące obwody.
      W 2020 roku firma Heoneywell pochwaliła się, że jej komputer na uwięzionych jonach osiągnął największą wartość „kwantowej objętości”. Tego typu maszyny, mają tę zaletę, że jony w próżni jest dość łatwo odizolować od zakłóceń termicznych, a poszczególne jony w chmurze są nieodróżnialne od siebie. Problemem jest jednak fakt, że jony wchodzą w silne interakcje, a do manipulowania nimi trzeba używać pól elektrycznych, co nie jest łatwym zadaniem.
      Z drugiej zaś strony mamy kwantowe maszyny wykorzystujące obwody nadprzewodzące. Za najpotężniejszy obecnie procesor kwantowy z takimi obwodami uznaje się 127–kubitowy Eagle IBM-a. Jednak wraz ze zwiększaniem liczby kubitów, urządzenia tego typu napotykają coraz więcej problemów. Każdy z kubitów musi być w nich wytwarzany indywidualnie, co praktycznie uniemożliwia wytwarzanie identycznych kopii, a to z kolei – wraz z każdym dodanym kubitem – zmniejsza prawdopodobieństwo, że wynik obliczeń prowadzonych za pomocą takiego procesora będzie prawidłowy. Jakby jeszcze tego było mało, każdy z obwodów musi być schłodzony do niezwykle niskiej temperatury.
      Już przed sześcioma laty zespoły z USA i Francji wykazały, że możliwe jest przechowywanie kwantowej informacji w atomach, którymi manipulowano za pomocą szczypiec optycznych. Od tamtego czasu Amerykanie rozwinęli swój pomysł i stworzyli 256-bitowy komputer kwantowy bazujący na tej platformie. Jednak nikt dotychczas nie zbudował pełnego obwodu kwantowego na atomach.
      Teraz dwa niezależne zespoły zaprezentowały procesory bazujące na takich atomach. Na czele grupy z Uniwersytetu Harvarda i MTI stoi Mikhail Lukin, który w 2016 roku opracował ten oryginalny pomysł. Zespołem z University of Wisonsin-Madison, w pracach którego biorą też udział specjaliści z firm ColdQuant i Riverlane, kieruje zaś Mark Saffman. Zespół Lukina wykorzystał atomy rubidu, zespół Saffmana użył zaś cezu.
      Jeśli mamy obok siebie dwa atomy w stanie nadsubtelnym, to nie wchodzą one w interakcje. Jeśli więc chcemy je splątać, jednocześnie wzbudzamy je do stanu Rydberga. W stanie Rydberga wchodzą one w silne interakcje, a to pozwala nam je szybko splątać. Później możemy z powrotem wprowadzić je w stan nadsubtelny, gdzie można nimi manipulować za pomocą szczypiec optycznych, wyjaśnia Dolev Bluvstein z Uniwersytetu Harvarda.
      Grupa z Harvarda i MIT wykorzystała stan nadsubtelny do fizycznego oddzielenia splątanych atomów bez spowodowania dekoherencji, czyli utraty kwantowej informacji. Gdy każdy z atomów został przemieszczony na miejsce docelowe został za pomocą lasera splątany z pobliskim atomem. W ten sposób naukowcy byli w stanie przeprowadzać nielokalne operacje bez potrzeby ustanawiania specjalnego fotonicznego lub atomowego łącza do przemieszczania splątania w obwodzie.
      W ten sposób uruchomiono różne programy. Przygotowano m.in. kubit logiczny, składający się z siedmiu kubitów fizycznych, w którym można było zakodować informacje w sposób odporny na pojawienie się błędów. Naukowcy zauważają, że splątanie wielu takich logicznych kubitów może być znacznie prostsze niż podobne operacje na innych platformach. Istnieje wiele różnych sztuczek, które są stosowane by splątać kubity logiczne. Jednak gdy można swobodnie przesuwać atomy, to jest to bardzo proste. Jedyne, co trzeba zrobić to stworzyć dwa niezależne kubity logiczne, przesunąć je i przemieszać z innymi grupami, wprowadzić za pomocą lasera w stan Rydberga i utworzyć pomiędzy nimi bramkę, stwierdza Dluvstein. Te technika, jak zapewnia uczony, pozwala na przeprowadzenie korekcji błędów i splątania pomiędzy kubitami logicznymi w sposób niemożliwy do uzyskania w obwodach nadprzewodzących czy z uwięzionymi jonami.
      Grupa z Wisconsin wykorzystała inne podejście. Naukowcy nie przemieszczali fizycznie atomów, ale za pomocą lasera manipulowali stanem Rydberga i przemieszczali splątanie po macierzy atomów. Mark Saffman podaje przykład trzech kubitów ustawionych w jednej linii. Za pomocą laserów oświetlamy kubit po lewej i kubit centralny Zostają one wzbudzone do stanu Rydberga i splątane. Następnie oświetlamy atom centralny oraz ten po prawej. W ten sposób promienie laserów kontrolują operacje na bramkach, ale tym, co łączy kubity są interakcje zachodzące w stanach Rydberga.
      Grupa Saffmana wykorzystała opracowaną przez siebie technikę do stworzenia składających się z sześciu atomów stanów Greenbergera-Horne'a-Zeilingera. Wykazali też, że ich system może działać jak kwantowy symulator służący np. do szacowania energii molekuły wodoru. Dzięki temu, że nie trzeba było przesuwać atomów, zespół z Wisconsin osiągnął kilkaset razy większe tempo pracy niż zespół z Harvarda i MIT, jednak ceną była pewna utrata elastyczności. Saffman uważa, że w przyszłości można będzie połączyć oba pomysły w jeden lepszy system.
      Na razie oba systemy korzystają z niewielkiej liczby kubitów, konieczne jest też wykazanie wiarygodności obliczeń oraz możliwości ich skalowania. Chris Monroe, współtwórca pierwszego kwantowego kubita – który oparty był na uwięzionych jonach – uważa, że obie grupy idą w dobrym kierunku, a kubity na atomach mogą osiągnąć wiarygodność 99,9% i to bez korekcji błędów. Obecnie osiągamy taki wynik na uwięzionych jonach i – mimo że technologia wykorzystania atomów jest daleko z tyłu – nie mam wątpliwości, że w końcu osiągną ten sam poziom, stwierdza.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
      Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
      Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
      Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
      Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
      Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
      To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
      Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
      Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...