Powstały procesory kwantowe niemal wolne od błędów. Polak współautorem przełomowych badań
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
Więcej o unimonie można przeczytać na łamach Nature Communications.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Grupa japońskich naukowców z Kyoto University wykorzystała eksplozje do wyprodukowania... najmniejszych diamentowych termometrów, które można będzie wykorzystać do bezpiecznych pomiarów różnic temperatury w pojedynczej żywej komórce.
Gdy w sieci krystalicznej diamentu dwa sąsiadujące atomy węgla zostaną zastąpione pojedynczym atomem krzemu, pojawia się optycznie aktywne miejsce, zwane centrum krzem-wakancja (silicon-vacancy center, SiV). Od niedawna wiemy, że takie miejsca są obiecującym narzędziem do pomiaru temperatur w skali nanometrów. Atom krzemu, gdy zostanie wzbudzony laserem, zaczyna jasno świecić w wąskim zakresie światła widzialnego lub bliskiej podczerwieni, a kolor tego światła zmienia się liniowo w zależności od temperatury otoczenia diamentu.
Zjawisko to jest bezpieczne dla żywych organizmów, nawet dla bardzo delikatnych struktur. To zaś oznacza, że można je wykorzystać podczas bardzo złożonych badań nad strukturami biologicznymi, np. podczas badania procesów biochemicznych wewnątrz komórki. Problem stanowi jednak sam rozmiar nanodiamentów. Uzyskuje się je obecnie różnymi technikami, w tym za pomocą osadzania z fazy gazowej, jednak dotychczas potrafiliśmy uzyskać nanodiamenty o wielkości około 200 nm. Są one na tyle duże, że mogą uszkadzać struktury wewnątrzkomórkowe.
Norikazu Mizuochi i jego zespół opracowali technikę pozyskiwania 10-krotnie mniejszych niż dotychczas nanodiamentów SiV. Japońscy naukowcy najpierw wymieszali krzem ze starannie dobraną mieszaniną materiałów wybuchowych. Następnie, w atmosferze wypełnionej CO2, dokonali eksplozji. Później zaś przystąpili do wieloetapowej pracy z materiałem, który pozostał po eksplozji. Najpierw za pomocą kwasu usunęli sadzę i metaliczne zanieczyszczenia, następnie rozcieńczyli i wypłukali uzyskany materiał w wodzie dejonizowanej, w końcu zaś pokryli uzyskane nanodiamenty biokompatybilnym polimerem. Na końcu za pomocą wirówki usunęli wszystkie większe nanodiamenty. W ten sposób uzyskali jednorodny zbiór sferycznych nanodiamentów SiV o średniej średnicy 20 nm. To najmniejsze wyprodukowane nanodiamenty SiV.
Mizouchi wraz z kolegami przeprowadzili serię eksperymentów, podczas których wykazali, że ich nanodiamenty pozwalają na precyzyjne pomiary temperatury w zakresie od 22 do 40,5 stopnia Celsjusza. Zakres ten obejmuje temperatury wewnątrz większości organizmów żywych. To zaś otwiera nowe możliwości badań struktur wewnątrzkomórkowych. Japończycy zapowiadają, że rozpoczynają prace nad zwiększeniem liczby SiV w pojedynczym nanodiamencie, co ma pozwolić na uzyskanie jeszcze większej precyzji pomiaru. Dzięki temu – mają nadzieję – w przyszłości można będzie badać poszczególne organelle.
Szczegóły badań zostały opisane na łamach Carbon.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Krzem, jeden z najbardziej rozpowszechnionych pierwiastków na Ziemi, stanowi podstawę nowoczesnego świata. Bez niego nie mielibyśmy ani paneli fotowoltaicznych ani układów scalonych. Jednak właściwości krzemu jako półprzewodnika są dalekie od ideału. Elektrony w krzemie mogą przemieszczać się z dużymi prędkościami, ale tego samego nie można już powiedzieć o dziurach, towarzyszkach elektronów. Ponadto krzem słabo przewodzi ciepło, przez co konieczne jest stosowanie kosztownych systemów chłodzenia.
Badacze z MIT, Uniwersytetu w Houston i innych instytucji wykazali właśnie, że krystaliczny sześcienny arsenek boru jest pozbawiony tych wad. Zapewnia dużą mobilność elektronom i dziurom oraz charakteryzuje się świetnym przewodnictwem cieplnym. Badacze twierdzą, że to najlepszy ze znanych nam półprzewodników, a może i najlepszy z możliwych półprzewodników.
Dotychczas jednak arsenek boru był wytwarzany i testowany w niewielkich ilościach wytwarzanych na potrzeby badań naukowych. Takie próbki były niejednorodne. Opracowanie metod ekonomicznej produkcji tego związku na skalę przemysłową będzie wymagało dużo pracy.
Już w 2018 roku David Broido, który jest współautorem najnowszych badań, teoretycznie przewidział, że arsenek boru powinien charakteryzować się świetnym przewodnictwem cieplnym. Później przewidywania te zostały dowiedzione eksperymentalnie. Wykazano m.in., że chłodzi on układy scalone lepiej niż diament. Okazało się równie, że materiał ten ma bardzo dobre pasmo wzbronione, którego istnienie jest niezbędną cechą półprzewodnika. Obecne badania dodały zaś do tego obrazu możliwość szybkiego transportu elektronów i dziur, zatem arsenek boru wydaje się mieć wszystkie cechy półprzewodnika idealnego.
To bardzo ważna cecha, gdyż w półprzewodnikach mamy jednocześnie ładunki dodatnie i ujemne. Jeśli więc budujemy z nich urządzenie elektroniczne, chcemy, by zarówno elektrony jak i dziury napotykały jak najmniejszy opór, mówi profesor Gang Chen z MIT.
Krzem i inne półprzewodniki, jak np. używany do budowy laserów arsenek galu, charakteryzuje się dobrą mobilnością elektronów, ale nie dziur. Poważnym problemem jest też rozpraszanie ciepła. Ciepło to poważny problem w elektronice. W samochodach elektrycznych stosuje się z tego powodu węglik krzemu. Ma on co prawda mniejszą mobilność elektronów niż krzem, ale za to jego przewodnictwo cieplne jest 3-krotnie lepsze. Wyobraźmy sobie więc, co moglibyśmy osiągnąć stosując arsenek boru, który ma 10-krotnie lepsze przewodnictwo cieplne i większość mobilność dziur oraz elektronów niż krzem. To by wszystko zmieniło, dodaje doktor Jungwoo Shin z MIT.
Wyzwaniem jest obecnie opracowanie metod produkcji arsenku boru w ilościach, które można by praktycznie wykorzystać. Obecne metody produkcyjne pozwalają na uzyskanie bardzo niejednorodnego materiału, z którego naukowcy wydzielają niewielkie jak najbardziej jednorodne fragmenty, by badać je w laboratoriach.
Wiele wskazuje na to, że arsenek boru jest półprzewodnikiem (niemal) idealnym, ale nie wiemy, czy będziemy w stanie go wykorzystać, dodaje Chen. Krzem stanowi podstawę całego przemysłu półprzewodnikowego, zatem od opracowania metod masowej produkcji jednorodnego arsenku boru zależy, czy trafi on pod strzechy. Badania nad krzemem trwały całe dziesięciolecia, zanim dowiedzieliśmy się, jak uzyskiwać ten materiał o czystości dochodzącej do 99,99999999%. Arsenek boru ma jeszcze przed nami wiele tajemnic. Zanim wyprodukujemy z niego elektronikę musimy np. poznać jego długookresową stabilność.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dwie amerykańskie grupy badawcze stworzyły – niezależnie od siebie – pierwsze kwantowe procesory, w których rolę kubitów odgrywają atomy. To potencjalnie przełomowe wydarzenie, gdyż oparte na atomach komputery kwantowe mogą być łatwiej skalowalne niż dominujące obecnie urządzenia, w których kubitami są uwięzione jony lub nadprzewodzące obwody.
W 2020 roku firma Heoneywell pochwaliła się, że jej komputer na uwięzionych jonach osiągnął największą wartość „kwantowej objętości”. Tego typu maszyny, mają tę zaletę, że jony w próżni jest dość łatwo odizolować od zakłóceń termicznych, a poszczególne jony w chmurze są nieodróżnialne od siebie. Problemem jest jednak fakt, że jony wchodzą w silne interakcje, a do manipulowania nimi trzeba używać pól elektrycznych, co nie jest łatwym zadaniem.
Z drugiej zaś strony mamy kwantowe maszyny wykorzystujące obwody nadprzewodzące. Za najpotężniejszy obecnie procesor kwantowy z takimi obwodami uznaje się 127–kubitowy Eagle IBM-a. Jednak wraz ze zwiększaniem liczby kubitów, urządzenia tego typu napotykają coraz więcej problemów. Każdy z kubitów musi być w nich wytwarzany indywidualnie, co praktycznie uniemożliwia wytwarzanie identycznych kopii, a to z kolei – wraz z każdym dodanym kubitem – zmniejsza prawdopodobieństwo, że wynik obliczeń prowadzonych za pomocą takiego procesora będzie prawidłowy. Jakby jeszcze tego było mało, każdy z obwodów musi być schłodzony do niezwykle niskiej temperatury.
Już przed sześcioma laty zespoły z USA i Francji wykazały, że możliwe jest przechowywanie kwantowej informacji w atomach, którymi manipulowano za pomocą szczypiec optycznych. Od tamtego czasu Amerykanie rozwinęli swój pomysł i stworzyli 256-bitowy komputer kwantowy bazujący na tej platformie. Jednak nikt dotychczas nie zbudował pełnego obwodu kwantowego na atomach.
Teraz dwa niezależne zespoły zaprezentowały procesory bazujące na takich atomach. Na czele grupy z Uniwersytetu Harvarda i MTI stoi Mikhail Lukin, który w 2016 roku opracował ten oryginalny pomysł. Zespołem z University of Wisonsin-Madison, w pracach którego biorą też udział specjaliści z firm ColdQuant i Riverlane, kieruje zaś Mark Saffman. Zespół Lukina wykorzystał atomy rubidu, zespół Saffmana użył zaś cezu.
Jeśli mamy obok siebie dwa atomy w stanie nadsubtelnym, to nie wchodzą one w interakcje. Jeśli więc chcemy je splątać, jednocześnie wzbudzamy je do stanu Rydberga. W stanie Rydberga wchodzą one w silne interakcje, a to pozwala nam je szybko splątać. Później możemy z powrotem wprowadzić je w stan nadsubtelny, gdzie można nimi manipulować za pomocą szczypiec optycznych, wyjaśnia Dolev Bluvstein z Uniwersytetu Harvarda.
Grupa z Harvarda i MIT wykorzystała stan nadsubtelny do fizycznego oddzielenia splątanych atomów bez spowodowania dekoherencji, czyli utraty kwantowej informacji. Gdy każdy z atomów został przemieszczony na miejsce docelowe został za pomocą lasera splątany z pobliskim atomem. W ten sposób naukowcy byli w stanie przeprowadzać nielokalne operacje bez potrzeby ustanawiania specjalnego fotonicznego lub atomowego łącza do przemieszczania splątania w obwodzie.
W ten sposób uruchomiono różne programy. Przygotowano m.in. kubit logiczny, składający się z siedmiu kubitów fizycznych, w którym można było zakodować informacje w sposób odporny na pojawienie się błędów. Naukowcy zauważają, że splątanie wielu takich logicznych kubitów może być znacznie prostsze niż podobne operacje na innych platformach. Istnieje wiele różnych sztuczek, które są stosowane by splątać kubity logiczne. Jednak gdy można swobodnie przesuwać atomy, to jest to bardzo proste. Jedyne, co trzeba zrobić to stworzyć dwa niezależne kubity logiczne, przesunąć je i przemieszać z innymi grupami, wprowadzić za pomocą lasera w stan Rydberga i utworzyć pomiędzy nimi bramkę, stwierdza Dluvstein. Te technika, jak zapewnia uczony, pozwala na przeprowadzenie korekcji błędów i splątania pomiędzy kubitami logicznymi w sposób niemożliwy do uzyskania w obwodach nadprzewodzących czy z uwięzionymi jonami.
Grupa z Wisconsin wykorzystała inne podejście. Naukowcy nie przemieszczali fizycznie atomów, ale za pomocą lasera manipulowali stanem Rydberga i przemieszczali splątanie po macierzy atomów. Mark Saffman podaje przykład trzech kubitów ustawionych w jednej linii. Za pomocą laserów oświetlamy kubit po lewej i kubit centralny Zostają one wzbudzone do stanu Rydberga i splątane. Następnie oświetlamy atom centralny oraz ten po prawej. W ten sposób promienie laserów kontrolują operacje na bramkach, ale tym, co łączy kubity są interakcje zachodzące w stanach Rydberga.
Grupa Saffmana wykorzystała opracowaną przez siebie technikę do stworzenia składających się z sześciu atomów stanów Greenbergera-Horne'a-Zeilingera. Wykazali też, że ich system może działać jak kwantowy symulator służący np. do szacowania energii molekuły wodoru. Dzięki temu, że nie trzeba było przesuwać atomów, zespół z Wisconsin osiągnął kilkaset razy większe tempo pracy niż zespół z Harvarda i MIT, jednak ceną była pewna utrata elastyczności. Saffman uważa, że w przyszłości można będzie połączyć oba pomysły w jeden lepszy system.
Na razie oba systemy korzystają z niewielkiej liczby kubitów, konieczne jest też wykazanie wiarygodności obliczeń oraz możliwości ich skalowania. Chris Monroe, współtwórca pierwszego kwantowego kubita – który oparty był na uwięzionych jonach – uważa, że obie grupy idą w dobrym kierunku, a kubity na atomach mogą osiągnąć wiarygodność 99,9% i to bez korekcji błędów. Obecnie osiągamy taki wynik na uwięzionych jonach i – mimo że technologia wykorzystania atomów jest daleko z tyłu – nie mam wątpliwości, że w końcu osiągną ten sam poziom, stwierdza.
« powrót do artykułu -
przez KopalniaWiedzy.pl
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.