Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Przeprowadzono testy pierwszego uniwersalnego, programowalnego komputera kwantowego. Odbyły się one w warunkach laboratoryjnych i ujawniły sporo problemów, które muszą zostać rozwiązane, zanim tego typu komputer pojawi się poza laboratorium.

Podczas testów prowadzonych przez zespół Davida Hanneke użyto urządzenia skonstruowanego przez amerykański Narodowy Instytut Standardów i Technologii (NIST). Maszyna wykonuje obliczenia na dwóch kubitach (kwantowych bitach).

Obliczenia kwantowe były wykonywane już wcześniej, jednak dotychczas udawało się je przeprowadzać tylko dla pewnych specyficznych algorytmów. Teraz amerykańscy naukowcy pokazali, w jaki sposób wykonywać każdy rodzaj kwantowych obliczeń za pomocą tego samego urządzenia.

Jego sercem jest pokryta złotem płytka aluminium. Umieszczono na niej elektromagnetyczną pułapkę o średnicy 200 nanometrów, w której uwięziono dwa jony magnezu i dwa berylu. Magnez działa jak rodzaj "zamrażarki", eliminując niepożądane wibracje i utrzymując stabilność systemu jonów.

Całość uzupełniały lasery, w których świetle zakodowano kwantowe bramki logiczne. Seria impulsów z zakodowanymi bramkami trafia w jony, a wyniki są odczytywane przez inny laser.

Spośród nieskończonej liczby operacji, które można przeprowadzić na dwóch kubitach, wybrano 160 przypadkowych, by sprawdzić uniwersalny charakter komputera. Podczas każdej z operacji oba jony berylu były ostrzeliwane impulsami lasera, w których zakodowano 31 różnych bramek logicznych. Każdy ze 160 programów został uruchomiony 900 razy. Uzyskane wyniki porównano z teoretycznymi wyliczeniami i okazało się, że maszyna pracuje tak, jak to przewidziano. Stwierdzono, że każda bramka logiczna pracuje z ponad 90-procentową dokładnością, jednak po ich połączeniu system osiągnął dokładność około 79%. Działo się tak dlatego, że istnieją niewielkie różnice w intensywności impulsów z różnymi zakodowanymi bramkami. Ponadto impulsy muszą być rozdzielane, odbijane i przechodzą wiele innych operacji, przez co wprowadzane są kolejne błędy.

Mimo osiągnięcia dobrych rezultatów, system musi być znacznie poprawiony. Naukowcy z NIST mówią, że musi on osiągnąć dokładność rzędu 99,99% zanim trafi do komputerów. By tego dokonać należy poprawić stabilność laserów i zmniejszyć liczbę błędów wynikających z interakcji światła z komponentami optycznymi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
      Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
      Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
      Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
      Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
      To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
      Bramki zostały szczegółowo opisane na łamach Physical Review Applied.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
      W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
      Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
      Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
      Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
      Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mają rozwiązywać problemy, z którymi nie radzą sobie komputery klasyczne. Maszyny, które udało się zbudować, bazują zwykle na superpozycji stanów elektronicznych, na przykład na dwóch różnych ładunkach. Problem w tym, że kubity elektromagnetyczne szybko ulegają dekoherencji, tracą swój stan kwantowy. Wówczas superpozycja ulega zniszczeniu i nie mamy już do czynienia z kubitem. To obecnie znacząco ogranicza możliwości komputerów kwantowych. Wkrótce jednak może się to zmienić, gdyż naukowcy z Federalnego Instytutu Technologii w Zurychu stworzyli długo działający mechaniczny kubit.
      Szwajcarski kubit to miniaturowa wersja membrany instrumentu perkusyjnego. Zachowuje się ona w sposób podobny do kota Schrödingera – jednocześnie wibruje i nie wibruje. Jest więc w superpozycji. Wykorzystanie mechanicznego kubitu mogłoby doprowadzić do powstania mechanicznych komputerów kwantowych, zdolnych do przeprowadzania długotrwałych, złożonych obliczeń.
      Specjaliści, próbujący stworzyć mechaniczny kubit, mierzyli się z olbrzymim problemem związanym ze stanami energetycznymi. Standardowe kubity elektromagnetyczne zachowują się anharmonicznie, co oznacza, że pomiędzy ich stanami elektronicznymi istnienie nierównowaga energii i to właśnie czyni je użytecznymi kubitami. Z mechanicznymi rezonatorami, takimi jak wspomniana powyżej membrana, problem polega na tym, że są one harmoniczne. Poziomy energii pomiędzy wibracjami są równe, więc wykorzystanie ich jako kubitów jest niemożliwe. Zaproponowano więc rozwiązanie problemu, które miało polegać na połączeniu takiego mechanicznego oscylatora z najlepiej działającym elektromagnetycznym kubitem. Jednak czas działania takiej hybrydy uzależniony był od czasu dekoherencji kubita elektromagnetycznego. Całość nie sprawdzała się dobrze.
      Naukowcy z Zurychu wpadli więc na inny pomysł. Ich kubit składa się z elementu piezoelektrycznego umieszczonego na szafirowej płytce – to część mechaniczna – połączonego z szafirowym anharmonicznym elementem.
      Prototypowy układ osiąga czas koherencji rzędu 200 mikrosekund, działa więc 2-krotnie dłużej niż przeciętny kubit nadprzewodzący. Co prawda obecnie najlepsze kubity osiągają czas koherencji około 1 milisekundy, jest to więc około 5-krotnie dłużej niż mechaniczny kubit z Zurychu, ale mowa tutaj o wyjątkowych kubitach, nad którymi prace trwają od wielu lat.
      Szwajcarscy naukowcy zapewniają, że eksperymentując z różnymi materiałami i architekturami będą w stanie znacząco wydłużyć czas koherencji ich kubitu.
      Twórcy mechanicznego kubitu pracują teraz nad stworzeniem kwantowej bramki logicznej, odpowiednika bramek logicznych w tradycyjnych komputerach, za pomocą których przeprowadzane są obliczenia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Misja Psyche jeszcze nie dotarła do celu, a już zapisała się w historii podboju kosmosu. Głównym jej celem jest zbadanie największej w Układzie Słonecznym asteroidy Psyche. Przy okazji NASA postanowiła przetestować technologię, z którą eksperci nie potrafili poradzić sobie od dziesięcioleci – przesyłanie w przestrzeni kosmicznej danych za pomocą lasera. Agencja poinformowała właśnie, że z Psyche na Ziemię trafił 15-sekudowy materiał wideo przesłany z odległości 31 milionów kilometrów z maksymalną prędkością 267 Mbps. To niemal 2-krotnie szybciej niż średnia prędkość szerokopasmowego internetu w Polsce.
      To, czego właśnie dokonała NASA jest nie zwykle ważnym osiągnięciem. Pozwoli bowiem na znacznie sprawniejsze zbieranie danych z instrumentów pracujących w przestrzeni kosmicznej i zapewni dobrą komunikację z misjami załogowymi odbywającymi się poza orbitą Ziemi.
      Sygnał z Psyche potrzebował około 101 sekund, by dotrzeć do Ziemi. Dane, przesyłane przez laser pracujący w bliskiej podczerwieni trafiły najpierw do Hale Teelscope w Palomar Observatory w Kalifornii. Następnie przesłano je do Jet Propulsion Laboratory w Południowej Kalifornii, gdzie były odtwarzane w czasie rzeczywistym podczas przesyłania. Jak zauważył Ryan Rogalin, odpowiedzialny za elektronikę odbiornika w JPL, wideo odebrane w Palomar zostało przesłane przez internet do JPL, a transfer danych odbywał się wolniej, niż przesyłanie danych z kosmosu. Podziwiając tempo transferu danych nie możemy zapomnieć też o niezwykłej precyzji, osiągniętej przez NASA. Znajdujący się na Psyche laser trafił z odległości 31 milionów kilometrów w 5-metrowe zwierciadło teleskopu. Sam teleskop to również cud techniki. Jego budowę ukończono w 1948 roku i przez 45 lat był najdoskonalszym teleskopem optycznym, a jego zwierciadło główne jest drugim największym zwierciadłem odlanym w całości.
      Po co jednak prowadzić próby z komunikacją laserową, skoro od dziesięcioleci w przestrzeni kosmicznej z powodzeniem przesyła się dane za pomocą fal radiowych? Otóż fale radiowe mają częstotliwość od 3 Hz do 3 Thz. Tymczasem częstotliwość pracy lasera podczerwonego sięga 300 THz. Zatem transmisja z jego użyciem może być nawet 100-krotnie szybsza. Ma to olbrzymie znaczenie. Chcemy bowiem wysyłać w przestrzeń kosmiczną coraz więcej coraz doskonalszych narzędzi. Dość wspomnieć, że Teleskop Webba, który zbiera do 57 GB danych na dobę, wysyła je na Ziemię z prędkością dochodzącą do 28 Mb/s. Zatem jego systemy łączności działają 10-krotnie wolniej, niż testowa komunikacja laserowa.
      Zainstalowany na Psyche Deep Space Optical Communication (DSOC) uruchomiono po raz pierwszy 14 listopada. Przez kolejne dni system sprawdzano i dostrajano, osiągając coraz szybszy transfer danych i coraz większą precyzję ustanawiania łącza z teleskopem. W tym testowym okresie przesłano na Ziemię łącznie 1,3 terabita danych. Dla porównania, misja Magellan, która w latach 1990–1994 badała Wenus, przesłała w tym czasie 1,2 Tb.
      Misja Psyche korzysta ze standardowego systemu komunikacji radiowej. DSOC jest systemem testowym, a jego funkcjonowanie nie będzie wpływało na powodzenie całej misji.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie.
      Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa.
      Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym.
      Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...