Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Fizykom z uniwersytetu w São Paulo, Erlangen-Nuremberg i Instytutu Maksa Plancka udało się doprowadzić do kwantowego splątania trzech wiązek światła o różnych długościach. Dotychczas udawało się to w przypadku dwóch wiązek, a autorzy badań mówią, że dopiero trzy splątane wiązki mogą służyć jako węzły przyszłych sieci kwantowych.

Nad komputerami i sieciami kwantowymi pracuje wiele grup badawczych. Prowadzą one bardzo różne projekty i już teraz możemy stwierdzić, że żadne pojedyncze rozwiązanie nie pozwoli na zbudowanie kwantowych sieci i maszyn. Każde z nich ma pewne zalety, ale i wady. Stąd też najprawdopodobniej systemy kwantowe będą systemami hybrydowymi, wykorzystującymi różne rozwiązania do osiągnięcia jednego celu.

Jak mówi Paulo Nussenzveig z uniwersytetu w São Paulo, wśród obiecujących kandydatów do budowy systemów kwantowych znajdują się techniki tworzenia pułapek jonowych, kropki kwantowe, polarytony. W badaniach wykorzystuje się też nadprzewodniki, pole magnetyczne czy mikrofale. To obrazuje stopień skomplikowania i pokazuje, iż prawdopodobnie będziemy mieli do czynienia z systemem, na który złoży się wiele rozwiązań. Jednak rozwiązania te będą charakteryzowały się różnymi właściwościami, a więc w różny sposób będzie przebiegała ich interakcja ze światłem. Stąd konieczność stworzenia systemu przesyłu informacji, który poradzi sobie z tym zadaniem i dlatego tak ważne są badania przeprowadzone przez niemiecko-brazylijski zespół.

By to zobrazować, Nussenzveig posługuje się następującym przykładem. Wyobraźmy sobie, że chcemy przesłać informację składowaną w atomach rubidu do odległego węzła sieci. Atomy drgają w odpowiedzi na światło o długości 780 nanometrów, ale fala taka słabo rozprzestrzenia się w sieciach optycznych. Musimy więc zmienić jej długość na 1550 nm. A na drugim końcu łącza mamy kropki kwantowe, w których chcemy zapisać przesłane informacje. Kropki reagują na światło o długości fali 800 nm. Dzięki splątaniu trzech fal możemy dokonać takiej operacji. Dodaje przy tym, że to, co zostało obecnie osiągnięte to jedynie dowód, że splątanie trzech długości fali jest możliwe. Na razie techniki tej nie da się wykorzystać w praktyce.

Splątania trzech fali dokonano za pomocą parametrycznego oscylatora optycznego. Naukowcom udało się dzięki niemu uzyskać fale o długości 532, 1062 i 1066 nanometrów. Podczas badania splątanych fali okazało się, że czasem może dość do nagłej utraty stanu splątania, co zaburzy komunikację. Kolejne eksperymenty dowiodły jednak, że nie zdarza się to przy każdych częstotliwościach, co oznacza, że stany splątane nie mają identycznej natury. Ta obserwacja będzie przydatna na innych polach, gdyż wskazuje, że jeszcze jest sporo do odkrycia na temat natury i dynamiki splątania kwantowego.

Większość ludzi sądzi, że wiemy już niemal wszystko o splątanych stanach Gaussa. My jednak zaobserwowaliśmy dwa stany Gaussa, oba ze splątaniem trzech elementów, które charakteryzowały się różną trwałością. Miały więc różne właściwości. Dlaczego tak się dzieje? Jak możemy przewidzieć, czy pewne splątane stany Gaussa będą trwałe czy też nie? Sądzimy, że ciągle czeka nas znalezienie odpowiedzi na podstawowe pytania - mówi Nussenzveig.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
      W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
      Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
      Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
      Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
      Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
      Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
      Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
      Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
      Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
      Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
      Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
      Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
      Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
      Więcej o unimonie można przeczytać na łamach Nature Communications.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
      Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
      Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
      Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
      Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
      Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
      To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
      Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
      Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizyk James Franson z University of Maryland opublikował w recenzowanym Journal of Physics artykuł, w którym twierdzi, że prędkość światła w próżni jest mniejsza niż sądzimy. Obecnie przyjmuje się, że w światło w próżni podróżuje ze stałą prędkością wynoszącą 299.792.458 metrów na sekundę. To niezwykle ważna wartość w nauce, gdyż odnosimy do niej wiele pomiarów dokonywanych w przestrzeni kosmicznej.
      Tymczasem Franson, opierając się na obserwacjach dotyczących supernowej SN 1987A uważa, że światło może podróżować wolniej.
      Jak wiadomo, z eksplozji SN 1987A dotarły do nas neutrina i fotony. Neutrina przybyły o kilka godzin wcześniej. Dotychczas wyjaśniano to faktem, że do emisji neutrin mogło dojść wcześniej, ponadto mają one ułatwione zadanie, gdyż cała przestrzeń jest praktycznie dla nich przezroczysta. Jednak Franson zastanawia się, czy światło nie przybyło później po prostu dlatego, że porusza się coraz wolniej. Do spowolnienia może, jego zdaniem, dochodzić wskutek zjawiska polaryzacji próżni. Wówczas to foton, na bardzo krótki czas, rozdziela się na pozyton i elektron, które ponownie łączą się w foton. Zmiana fotonu w parę cząstek i ich ponowna rekombinacja mogą, jak sądzi uczony, wywoływać zmiany w oddziaływaniu grawitacyjnym pomiędzy parami cząstek i przyczyniać się do spowolnienia ich ruchu. To spowolnienie jest niemal niezauważalne, jednak gdy w grę wchodzą olbrzymie odległości, liczone w setkach tysięcy lat świetlnych – a tak było w przypadku SN 1987A – do polaryzacji próżni może dojść wiele razy. Na tyle dużo, by opóźnić fotony o wspomniane kilka godzin.
      Jeśli Franson ma rację, to różnica taka będzie tym większa, im dalej od Ziemi położony jest badany obiekt. Na przykład w przypadku galaktyki Messier 81 znajdującej się od nas w odległości 12 milionów lat świetlnych światło może przybyć o 2 tygodnie później niż wynika z obecnych obliczeń.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...