Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

D Wave sprzedała pierwszy komputer kwantowy?

Rekomendowane odpowiedzi

Kanadyjska firma D-Wave Systems sprzedała swój pierwszy komputer kwantowy. Urządzenie wartości 10 milionów dolarów kupił Lockheed Martin.

O komputerze D-Wave One tak naprawdę niewiele wiadomo. Firma twierdzi, że wykorzystuje 128-kubitowy procesor umieszczony w kriogenicznej komorze znajdującej się w pomieszczeniu o powierzchni 10 metrów kwadratowych. Mózgiem systemu jest proceso Rainier wykorzystujący technikę „kwantowego wyżarzania" (quantum annealing). Polega ona na znalezieniu najmniejszego elementu z grupy możliwych rozwiązań. Procesor został zaprogramowany za pomocą języka Python.

Jednak krytycy zauważają, że w artykule, który ukazał się w Nature zaprezentowano jedynie „nieklasyczne zjawiska" (a zatem takie, które mogą być zjawiskami kwantowymi) na systemie składającym się z 8 kubitów.

Profesor Scott Aaronson z MIT-u, znany krytyk firmy D-Wave, mówi: „W swojej nowej pracy zastosowali wyżarzanie kwantowe na ośmiu kubitach połączonych w łańcuch, później wykreślili prawdopodobieństwo konkretnego stanu wyjściowego jako funkcję w czasie poprzez wielokrotne uruchamianie obliczeń i zatrzymywanie ich w wyznaczonych punktach pośrednich. Później sprawdzili jak wygląda w czasie wykres prawdopodobieństwa w stosunku do trzeciego parametru, czyli temperatury i ogłosili, że krzywa temperatury jest zależna od przeprowadzanych operacji numerycznych, co wskazuje na zjawiska z dziedziny mechaniki kwantowej, ale nie wskazuje to jednoznacznie na kwantowe wyżarzanie".

Kwantowe wyżarzanie prawdopodobnie zachodzi w procesorze Rainier, ale nie jest jasne, na ile jest ono użyteczne. Wiadomo też, że w systemie D Wave nie dochodzi do splątania kwantowego.

Lockheed Martin kupując D Wave One chce prawdopodobnie zostać partnerem kanadyjskiej firmy. Koncern ma duże doświadczenie z najbardziej wydajnymi platformami obliczeniowymi, a jego inwestycję należy traktować bardziej jako wydatek naukowo-badawczy niż inwestycję w produkcję.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komputer który nie wiadomo co robi i nie wiadomo jak to robi... to chyba zaprzeczenie komputera? Może lepiej znaleźć mu jakąś nową nazwę, bo nazywanie tego "komputerem" mija się z definicją precyzyjnej elektronicznej maszyny do obliczeń matematycznych.

 

Może jakiś Qbiter? Kwantyfikator czy coś...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli programuje się to w Pythonie, to jak dla mnie może to być nazywane komputerem.

Poza tym jest kanciasty i w czarnej obudowie. Zupełnie jak mój :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poza tym jest kanciasty i w czarnej obudowie.

 

Dokładnie tak. Co jeszcze jest kanciastego i w czarnej obudowie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Skoro jest kanciaste i w czarnej obudowie i dodatkowo nie wiadomo co robi to na pewno nie robi tego bez powodu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To wszystko zaczyna przypominać newsy o zimnej fuzji. Niby jest, niby działa, tylko nikt nie wie/nie chce powiedziec jak. Myśle że postac czarnej skrzynki dobrze oddaje idee tego urządzenia (http://en.wikipedia.org/wiki/Black_box ).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje mi się że stwierdzenie że program na ten "komputer" został napisany w Pythonie jest błędne. Może do analizy wyników z "tego czegoś" użyto klasycznego komputera, na którym zastosowano język Python (do analizy wyników - strumienia danych), jednak żeby napisać kompilator Pythona na komputer kwantowy, należało by użyć jakiegoś języka wyższego poziomu, typu ASM... kod maszynowy.

 

No chyba że programy napisano na zwykłych komputerach, stosując symulator/emulator komputera kwantowego, następnie kod maszynowy przeniesiono i uruchomiono na komputerze kwantowym. Ale jak przeniesiono? Jakich nośników użyto? Jaki był bios? Jaki interfejs wprowadzania danych itd.. Cały czas uważam że to jest "jakaś maszyna stanów kwantowych" której działanie analizuje się na zwykłych komputerach, ale komputerem ona bynajmniej nie jest.

 

 

Działanie na tej maszynie kwantowej polega na odczycie jej stanów i analizie przy pomocy zwykłych urządzeń - komputerów. ale to tak samo można nazwać termometr - komputerem, przecież termometr nic nie liczy tylko odbiera dane z otoczenia (temperaturę) i podaje ją na jakiejś skali którą można odczytać optycznie/mechanicznie/elektrycznie.

 

Żeby było jasne, chodzi mi o mylenie pojęć i ich nadużywanie. Komputer to maszyna licząca, którą się programuje, a nie "coś z czego odczytujemy dane". Komputer kwantowy super brzmi w marketingowej papce podnoszącej wartość akcji firmy, ale nie ma wiele wspólnego z realnym/prawdziwym komputerem....

 

żeby "to coś" mogło by zostać nazwane komputerem, musiało by mieć interfejs wprowadzania danych, procesor do implementacji danych przy użyciu zdefiniowanego przez użytkownika programu, a następnie powinno na jakiś interfejs/nośnik przesłać wyniki dokonanych obliczeń. Te warunki nie są spełnione i tyle..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Firma twierdzi, że wykorzystuje 128-kubitowy procesor umieszczony w kriogenicznej komorze znajdującej się w pomieszczeniu o powierzchni 10 metrów kwadratowych

No i mamy powtórkę z historii, ciekawe kiedy trafi do sprzedaży pierwszy smartphone'a na bazie komputera kwantowego (miło będzie wtedy wspomnieć jego 'wielkie' początki)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę, że skoro napisano dla tego czegoś strasznego program i to coś działa to można się tylko cieszyć z postępu technologii.

Odnośnie programowania - osobiście zaczynam pisanie programu od kartki papieru. Oczywiście trzeba to skompilować, przetestować i uruchomić. Jednak czy uruchomimy program na smartfonie czy komputerze kwantowym jest sprawą drugorzędną ( pod warunkiem, że jest to np gra w kółko i krzyżyk).

Żeby nieco utrudnić to napiszę trochę z doświadczenia. Piszę programy na jednoukładowce i jest regułą, że przy przetwarzaniu analogowo cyfrowym różne procesory podają rożne wyniki przy tym samym programie. Różnie też dokonują zaokrągleń i trzeba robić korektę programu aby osiągnąć zamierzony rezultat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę, że skoro napisano dla tego czegoś strasznego program i to coś działa to można się tylko cieszyć z postępu technologii.

Odnośnie programowania - osobiście zaczynam pisanie programu od kartki papieru. Oczywiście trzeba to skompilować, przetestować i uruchomić. Jednak czy uruchomimy program na smartfonie czy komputerze kwantowym jest sprawą drugorzędną ( pod warunkiem, że jest to np gra w kółko i krzyżyk).

Bo smartfon jest komputerem (mini komputem specjalizowanym), nawet współczesne mikrofalówki są "mini komputerami" Może z "kółko i krzyżyk" byłby problem, bo wyświetlacz nie dał by rady, ale spokojnie można przeprogramować microfalę żeby migała wyświetlaczem czy działała jak kalkulator.

 

Piszę programy na jednoukładowce i jest regułą, że przy przetwarzaniu analogowo cyfrowym różne procesory podają rożne wyniki przy tym samym programie. Różnie też dokonują zaokrągleń i trzeba robić korektę programu aby osiągnąć zamierzony rezultat.

 

Owszem, ale nie uruchamiasz tego samego kodu maszynowego na różnych układach, tylko na każdy z nich robisz osobną kompilację np. programu pisanego w C++ czy czymkolwiek, a różnice opisane przez ciebie wynikają np. z ilości bitów przeznaczonych na zmienne np. integer czy float, double float.. Stąd różnice w zaokrągleniach przy przetwarzaniu strumienia danych. Jednak cały czas proces wyglada tak: pisanie kodu - kompilowanie - uruchomienie - wprowadzenie danych - przetwarzanie przez KOMPUTER - odczyt wyników. Na tym sprzęcie kwantowym brakło tych kroków  wykonywanych na każdym innym kompie - dużym czy małym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jednak cały czas proces wyglada tak: pisanie kodu - kompilowanie - uruchomienie - wprowadzenie danych - przetwarzanie przez KOMPUTER - odczyt wyników. Na tym sprzęcie kwantowym brakło tych kroków  wykonywanych na każdym innym kompie - dużym czy małym.

 

Ale w artykule nic na ten temat nie jest napisane, chyba, że nie doczytałem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie najważniejszą informacją jest ta, że kupcem jest Lockheed Martin. To poważna firma z dużym doświadczeniem w pracy z superkomputerami, a to oznacza, że przynajmniej coś jest na rzeczy z tą czarną kanciastą skrzynką.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie tak. Co jeszcze jest kanciastego i w czarnej obudowie?

Czarne lamborghini countach ?  :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A tak jeszcze a'propos tematu - wyżarzanie kwantowe jest algorytmem i ze stanami kwantowymi pokrywa się tylko w nazwie. Procesor z kolei to bardzo wydajny procesor sieciowy prod. ibm.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podejrzewam że ten komputer kwantowy to zwykły komputer z jednym podzespołem wykonującym obliczenia w sposób kwantowy. Dlatego całość może działać jak zwykły komputer bazując na zwykłych językach programowania. Zwykły procesor decyduje jakie obliczenia przekazać do podzespołu kwantowego i jak zinterpretować wyniki, tłumacząc je na postać zjadalną dla znanych języków programowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
      Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
      Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
      Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
      Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.

      Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
      Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
      Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
      Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
      Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
      To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
      Bramki zostały szczegółowo opisane na łamach Physical Review Applied.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
      W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
      Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
      Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
      Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
      Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
      Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
      Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
      Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
      Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
      Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
      Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
      Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
      Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
      Więcej o unimonie można przeczytać na łamach Nature Communications.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...