Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Pierwsze kwantowe procesory na atomach
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.
Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
Więcej o unimonie można przeczytać na łamach Nature Communications.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Najnowszy numer Nature przynosi przełomowe informacje na temat praktycznego wykorzystania komputerów kwantowych. Naukowcy z Uniwersytetu Nowej Południowej Walii (UNSW) wykazali, że możliwe jest stworzenie niemal wolnego od błędów krzemowego procesora kwantowego. Dzisiejsza publikacja pokazuje, że obliczenia przeprowadzane przez nasz procesor były w ponad 99% wolne od błędów. Gdy odsetek błędów jest tak mały, możliwym staje się ich wykrywanie i korygowanie w czasie rzeczywistym. A to oznacza, że można wybudować skalowalny komputer kwantowy wykonujący wiarygodne obliczenia, wyjaśnia profesor Andrea Morello z UNSW.
Morello stoi na czele zespołu złożonego z naukowców z Australii, USA, Japonii i Egiptu. Ich celem jest zbudowanie uniwersalnego komputera kwantowego, czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań. Badania, których wyniki właśnie opublikowaliśmy, to bardzo ważny krok w tym kierunku, podkreśla uczony.
Jednak, co niezwykle ważne, artykuł Morello i jego zespołu to jeden z trzech tekstów z Nature, których autorzy informują o niezależnym od siebie osiągnięciu niskiego odsetka błędów w opartych na krzemie procesorach kwantowych.
Z najnowszego Nature, którego redakcja zdecydowała się na zilustrowanie kwantowego przełomu na okładce, dowiadujemy się, że wiarygodność operacji obliczeniowych na jednym kubicie osiągnięta przez Morello i jego zespół wyniosła 99,95%, a operacji na dwóch kubitach – 99,37%. Niezależnie od nich zespół z holenderskiego Uniwersytetu Technologicznego w Delft, prowadzony przez Lievena Vandersypena osiągnął wiarygodność rzędu 99,87% przy operacjach na jednym kubicie i 99,65% podczas operacji dwukubitowych. W trzecim z artykułów czytamy zaś o pracach naukowców z japońskiego RIKEN, w trakcie których grupa Seigo Taruchy mogła pochwalić się wiarygodnością 99,84% przy działaniach na jednym kubicie i 99,51% przy pracy z dwoma kubitami.
Wydajność procesorów z UNSW i Delft została certyfikowana zaawansowaną metodą gate set tomography opracowaną przez amerykańskie Sandia National Laboratories, a wyniki certyfikacji zostały udostępnione innym grupom badawczym.
Zespół profesora Morello już wcześniej wykazał, że jest w stanie utrzymać kwantową informację w krzemie przez 35 sekund. W świecie kwantowym 35 sekund to wieczność. Dla porównania, słynne nadprzewodzące komputery kwantowe Google'a i IBM-a są w stanie utrzymać taką informację przez około 100 mikrosekund, czyli niemal milion razy krócej, zauważa Morello. Osiągnięto to jednak izolując spiny (kubity) od otoczenia, co z kolei powodowało, że wydaje się niemożliwym, by kubity te mogły wejść ze sobą w interakcje, a więc nie mogły wykonywać obliczeń.
Teraz z artykułu w Nature dowiadujemy się, że udało się pokonać problem izolacji wykorzystując elektron okrążający dwa jądra atomu fosforu.
Gdy masz dwa jądra połączone z tym samym elektronem, może zmusić je do wykonywania operacji kwantowych, stwierdza doktor Mateusz Mądzik, jeden z głównych autorów eksperymentów. Gdy nie operujesz na elektronie, jądra te mogą bezpiecznie przechowywać kwantowe informacje. Teraz jednak mamy możliwość, by jądra wchodziły w interakcje za pośrednictwem elektronu i w ten sposób możemy wykonywać uniwersalne operacje kwantowe, które mogą rozwiązywać każdy rodzaj problemów obliczeniowych, wyjaśnia Mądzik.
Gdy splączemy spiny z elektronem, a następnie możemy elektron ten przesunąć w inne miejsce i splątać go z kolejnymi kubitami, tworzymy w ten sposób duże macierze kubitów zdolnych do przeprowadzania solidnych użytecznych obliczeń, dodaje doktor Serwan Asaad.
Jak podkreśla profesor David Jamieson z University of Melbourne, atomy fosforu zostały wprowadzone do krzemowego procesora za pomocą tej samej metody, jaka jest obecnie używana w przemyśle półprzewodnikowym. To pokazuje, że nasz kwantowy przełom jest kompatybilny z obecnie używanymi technologiami.
Wszystkie obecnie używane komputery wykorzystują systemy korekcji błędów i redundancji danych. Jednak prawa mechaniki kwantowej narzucają ścisłe ograniczenia na sposób korekcji błędów w maszynach kwantowych. Konieczne jest osiągnięcie odsetka błędów poniżej 1%. Dopiero wtedy można zastosować kwantowe protokoły korekcji błędów. Teraz, gdy udało się ten cel osiągnąć, możemy zacząć projektować skalowalne krzemowe procesory kwantowe, zdolne do przeprowadzania użytecznych wiarygodnych obliczeń, wyjaśnia Morello.
« powrót do artykułu -
przez KopalniaWiedzy.pl
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Fizycy z Thomas Jefferson National Accelerator Facility (TJNAF – Jefferson Lab) zmierzyli z niezwykłą dokładnością grubość neutronowej „skórki” tworzącej otoczkę jądra ołowiu. Na łamach Physical Review Letters poinformowali, że grubość ta wynosi 0,28 milionowych części nanometra. A ich pomiary mają duże znaczenie dla określenia struktury i rozmiarów... gwiazd neutronowych.
Jądro każdego pierwiastka składa się z protonów i neutronów. To m.in. one określają właściwości pierwiastków i pozwalają nam je od siebie odróżnić. Fizycy od dawna badają jądra atomowe, by dowiedzieć się, w jaki sposób protony i neutrony oddziałują ze sobą. W Jefferson Lab prowadzony jest Lead Radius Experiment (PREx), którego celem jest dokładne zbadanie rozkładu protonów i neutronów w jądrze ołowiu.
Pytanie brzmi, gdzie w jądrze znajdują się neutrony. Ołów to ciężki pierwiastek. Posiada dodatkowe neutrony. Jeśli jednak bierzemy pod uwagę wyłącznie oddziaływanie sił jądrowych, które wiążą protony i neutrony w jądrze, to lepiej sprawdza się model, w którym jądro ołowiu posiada równą liczbę protonów i neutronów, mówi profesor Kent Paschke z University of Virginia, rzecznik prasowy PREx.
W lekkich jądrach, zawierających niewiele protonów, zwykle rzeczywiście liczba protonów i neutronów jest równa. Jednak im cięższe jądro, tym potrzebuje więcej neutronów niż protonów, by pozostać stabilnym. Wszystkie stabilne jądra pierwiastków, które zawierają ponad 20 protonów, mają więcej neutronów niż protonów. Ołów zaś to najcięższy pierwiastek o stabilnych izotopach. Jego jądro zawiera 82 protony i 126 neutronów. A do zrozumienia, jak to wszystko trzyma się razem, musimy wiedzieć, w jaki sposób w jądrze rozłożone są dodatkowe neutrony.
Protony w jądrze ołowiu ułożone są w kształt sfery. Neutrony tworzą większą sferę otaczającą mniejszą. Tę większą sferę nazwaliśmy skórką neutronową, wyjaśnia Paschke. Tę skórkę po raz pierwszy zauważono właśnie w Jefferson Lab w 2012 roku. Od tamtej pory naukowcy starają się mierzyć jej grubość z coraz większą precyzją.
Neutrony trudno jest badać, gdyż wiele narzędzi, które mają do dyspozycji fizycy, rejestruje oddziaływania elektromagnetyczne, które są jednymi z czterech podstawowych sił natury. Eksperyment PREx do pomiarów wykorzystuje inną z podstawowych sił – oddziaływania słabe. Protony posiadają ładunek elektryczny, który możemy badań za pomocą oddziaływań elektromagnetycznych. Neutrony nie posiadają ładunku elektrycznego, ale – w porównaniu z protonami – generują potężne oddziaływania słabe. Jeśli więc jesteś w stanie to wykorzystać, możesz określić, gdzie znajdują się neutrony, dodaje Paschke.
Autorzy nowych badań wykorzystali precyzyjnie kontrolowany strumień elektronów, który został wystrzelony w stronę cienkiej warstwy ołowiu schłodzonej do temperatur kriogenicznych. Elektrony obracały się w kierunku ruchu wiązki i wchodziły w interakcje z protonami i neutronami w atomach ołowiu. Oddziaływania elektromagnetyczne zachowują symetrię odbicia, a oddziaływania słabe nie. to oznacza, że elektron, który wchodzi w interakcję za pomocą sił elektromagnetycznych, robi to niezależnie od kierunku swojego spinu. Natomiast jeśli chodzi o interakcje za pomocą oddziaływań słabych, to widoczna jest tutaj wyraźna preferencja jednego kierunku spinu. Możemy więc wykorzystać tę asymetrię do badania siły oddziaływań, a to pozwala nam określić obszar zajmowany przez neutrony. Zdradza nam zatem, gdzie w odniesieniu do protonów, znajdują się neutrony, mówi profesor Krishna Kumar z University of Massachusetts Amherst.
Przeprowadzenie eksperymentów wymagało dużej precyzji. Dość wspomnieć, że kierunek spinu elektronów w strumieniu był zmieniany 240 razy na sekundę, a elektrony, zanim dotarły do badanej próbki ołowiu, odbywały ponad kilometrową podróż przez akcelerator. Badacze znali relatywną pozycję względem siebie strumieni elektronów o różnych spinach z dokładnością do szerokości 10 atomów.
Dzięki tak wielkiej precyzji naukowcy stwierdzili, że średnica sfery tworzonej przez protony wynosi około 5,5 femtometrów. A sfera neutronów jest nieco większa, ma około 5,8 femtometrów. Skórka neutronowa ma więc 0,28 femtometra grubości. To około 0,28 milionowych części nanometra, informuje Paschke.
Jak jednak te pomiary przekładają się na naszą wiedzę o gwiazdach neutronowych? Wyniki uzyskane w Jefferson Lab wskazują, że skórka neutronowa jest grubsza, niż sugerowały niektóre teorie. To zaś oznacza, że do ściśnięcia jądra potrzebne jest większe ciśnienie niż sądzono, zatem samo jądro jest nieco mniej gęste. A jako, że nie możemy bezpośrednio badać wnętrza gwiazd neutronowych, musimy opierać się na obliczeniach, do których używamy znanych właściwości składowych tych gwiazd.
Nowe odkrycie ma też znaczenie dla danych z wykrywaczy fal grawitacyjnych. Krążące wokół siebie gwiazdy neutronowe emitują fale grawitacyjne, wykrywane przez LIGO. Gdy już są bardzo blisko, w ostatnim ułamku sekundy oddziaływanie jednej gwiazdy powoduje, że druga staje się owalna. Jeśli skórka neutronowa jest większa, gwiazda przybierze inny kształt niż wówczas, gdy skórka ta jest mniejsza. A LIGO potrafi zmierzyć ten kształt. LIGO i PREx badają całkowicie różne rzeczy, ale łączy je podstawowe równanie – równanie stanu materii jądrowej.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.