Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' komputer kwantowy' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 25 wyników

  1. Rząd Niemiec zapowiedział, że przeznaczy 3 miliardy euro na zbudowanie do roku 2026 uniwersalnego komputera kwantowego. To część nowej strategii, w ramach której Niemcy chcą na polu informatyki kwantowej dorównać światowej czołówce – USA i Chinom – oraz stać się na tym polu liderem wśród krajów Unii Europejskiej. To kluczowe dla niemieckiej suwerenności technologicznej, stwierdziła Bettina Sark-Watzinger, minister ds. edukacji i badań. Ze wspomnianej kwoty 2,2 miliarda trafi do różnych ministerstw, które będą zajmowały się promocją i znalezieniem zastosowań dla komputerów kwantowych. Największa pulę, bo 1,37 miliarda otrzyma ministerstwo ds. edukacji i badań. Pozostałe 800 milionów euro otrzymają duże państwowe instytuty badawcze. Rząd w Berlinie zakłada, że kwota ta pozwoli na zbudowanie do roku 2026 komputera kwantowego o pojemności co najmniej 100 kubitów, którego możliwości w niedługim czasie zostaną p powiększone do 500 kubitów. Tutaj warto przypomnieć, że w ubiegłym roku IBM zaprezentował 433-kubitowy komputer kwantowy. W Unii Europejskiej nie powstały tak gigantyczne firmy IT jak Google czy IBM, które same są w stanie wydatkować miliardy dolarów na prace nad komputerami kwantowymi. Dlatego też przeznaczone nań będą pieniądze rządowe. Frank Wilhelm-Mauch, koordynator europejskiego projektu komputera kwantowego OpenSuperQPlus mówi, że i w USA finansowanie prac nad maszynami kwantowymi nie jest transparentne, bo wiele się dzieje w instytucjach wojskowych, a z Chin w ogóle brak jakichkolwiek wiarygodnych danych. Komputery kwantowe wciąż jeszcze nie są gotowe do większości praktycznych zastosowań, jednak związane z nimi nadzieje są olbrzymie. Mogą one zrewolucjonizować wiele dziedzin życia. Mają przeprowadzać w ciągu sekund obliczenia, które komputerom klasycznym zajmują lata. A to oznacza, że możliwe będzie przeprowadzanie obliczeń, których teraz się w ogóle nie wykonuje, gdyż nie można ich skończyć w rozsądnym czasie. Maszyny kwantowe mogą przynieść rewolucję na tak różnych polach jak opracowywanie nowych leków czy logistyka. Wiele niemieckich przedsiębiorstw działa już aktywnie na polu informatyki kwantowe. Na przykład firm Bosch, dostawca podzespołów dla przemysłu motoryzacyjnego, we współpracy z IBM-em wykorzystuje symulacje na komputerach kwantowych do zbadania czym można zastąpić metale ziem rzadkich w silnikach elektrycznych. Z kolei producent laserów Trumpf pracuje nad kwantowymi chipami i czujnikami, a działający na rynku półprzewodników Infineon rozwija układy scalone korzystające z szyfrowania kwantowego. Niemiecka Agencja Kosmiczna wystrzeliła zaś pierwsze satelity testujące systemy dystrybucji kwantowych kluczy szyfrujących. Bettina Stark-Watzinger chce, by do roku 2026 w Niemczech z komputerów kwantowych korzystało co najmniej 60 podmiotów. « powrót do artykułu
  2. Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie. Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa. Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym. Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics. « powrót do artykułu
  3. Naukowcy z Politechniki Wrocławskiej i Uniwersytetu w Würzburgu pochwalili się na łamach Nature Communications dokonaniem przełomu na polu badań kwantowych. Po raz pierwszy w historii udało się uzyskać ekscytony w izolatorze topologicznym. W skład zespołu naukowego weszli Marcin Syperek, Paweł Holewa, Paweł Wyborski i Łukasz Dusanowski z PWr., a obok naukowców z Würzburga wspomagali ich uczeni z Uniwersytetu w Bolonii i Oldenburgu. Izolatory topologiczne to jednorodne materiały, które są izolatorami, ale mogą przewodzić ładunki elektryczne na swojej powierzchni, a wystąpienie przewodnictwa nie jest związane ze zmianą fazy materiału, np. z jego utlenianiem się. Pojawienie się przewodnictwa związane jest ze zjawiskami kwantowymi występującymi na powierzchni takich izolatorów. Istnienie izolatorów topologicznych zostało teoretycznie przewidziane w 1985 roku, a eksperymentalnie dowiedzione w 2007 roku właśnie na Uniwersytecie w Würzburgu. Dotychczasowe prace nad wykorzystaniem izolatorów topologicznych koncentrowały się wokół prób kontroli przepływu ładunków elektrycznych za pomocą napięcia. Jeśli jednak izolator był wykonany z cząstek obojętnych elektrycznie, takie podejście nie działało. Naukowcy musieli więc wymyślić coś innego. W tym wypadku tym czymś okazało się światło. Po raz pierwszy udało się wygenerować kwazicząstki – tak zwane ekscytony – w izolatorze topologicznym i eksperymentalnie udowodnić ich istnienie. W ten sposób uzyskaliśmy nowe narzędzie, za pomocą którego możemy – metodami optycznymi – kontrolować elektrony. Otworzyliśmy nowy kierunek badań nad izolatorami topologicznymi, mówi profesor Ralph Claessen. Ekscyton to kwazicząstka, która stanowi parę elektron-dziura połączoną siłami elektrostatycznymi. Uzyskaliśmy ekscytony oddziałując krótkimi impulsami światła na jednoatomową warstwę materiału, mówi profesor Claessen. Przełomowy tutaj jest fakt, że materiałem tym był izolator topologiczny. Dotychczas nie udawało się w nim uzyskać ekscytonów. W tym przypadku izolator zbudowany był z bizmutu, którego atomy ułożono w strukturę plastra miodu. Całość badań optycznych przeprowadzono w Laboratorium Optycznej Spektroskopii Nanostruktur Politechniki Wrocławskiej. Osiągnięcie to jest o tyle istotne, że od około 10 lat specjaliści badają ekscytony w dwuwymiarowych półprzewodnikach, chcąc wykorzystać je w roli nośników informacji kontrolowanych światłem. Teraz za pomocą światła uzyskaliśmy ekscytony w izolatorze topologicznym. Reakcje zachodzące pomiędzy światłem a ekscytonami mogą prowadzić do pojawienia się nowych zjawisk w takich materiałach. To zaś można będzie wykorzystać, na przykład, do uzyskiwania kubitów, wyjaśnia Claessen. Kubity, czyli kwantowe bity, to podstawowe jednostki informacji w komputerach kwantowych. Badania polsko-niemieckiego zespołu mogą więc doprowadzić do powstania nowych kontrolowanych światłem podzespołów dla komputerów kwantowych. « powrót do artykułu
  4. „Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery. Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan. Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową. Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny. Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga. Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen. « powrót do artykułu
  5. IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a. Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a. Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona. Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor. Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości. Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym. W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny. « powrót do artykułu
  6. Wiele współczesnych komputerów kwantowych zapisuje informacje w nietrwałych stanach kwantowych, które bardzo trudno jest utrzymać i skalować. Rozwiązaniem problemu może być trwały nanomechaniczny kubit. Kwantowe bity zbudowane z wibrujących węglowych nanorurek i par kropek kwantowych mogą być bardzo odporne na zakłócenia zewnętrzne. Tak przynajmniej wynika z obliczeń wykonanych przez Fabio Pistolesiego z francuskiego Narodowego Centrum Badań Naukowych i jego kolegów z Hiszpanii i USA. Obliczenia wskazują bowiem, że czas dekoherencji takiego nanomechanicznego kubitu były bardzo długi, co czyni tę architekturę obiecującym elementem komputerów kwantowych. Komputery kwantowe mogą, przynajmniej teoretycznie, dokonywać wielu obliczeń znacznie szybciej niż maszyny klasyczne. Wynika to z samych zasad fizyki kwantowej. Najmniejszą jednostką informacji, jaką posługują się komputery, jest bit, reprezentowany przez cyfrę „0” lub „1”. W 4 bitach możemy zapisać 16 (24) kombinacji zer i jedynek. W komputerze klasycznym w danym momencie możemy zapisać jedną z tych kombinacji – gdyż każdy z bitów może przyjąć pozycję albo „0” albo „1” – i wykonać na niej działania. Jednak komputery kwantowe nie korzystają z bitów, a z kubitów (bitów kwantowych). Kubitem może być np. elektron. A z praw mechaniki kwantowej wiemy, że nie ma on jednej ustalonej wartości „0” lub „1”, ale przyjmuje obie jednocześnie. To tzw. superpozycja. Zatem w komputerze kwantowym w danym momencie zapiszemy wszystkie 16 kombinacji i wykonamy na nich działania. Innymi słowy, 4-bitowy komputer kwantowy powinien być – przynajmniej w teorii – aż 16-krotnie szybszy od swojego klasycznego odpowiednika. Obecnie zaś korzystamy z procesorów 64-bitowych, więc liczba możliwych kombinacji zer i jedynek wynosi w ich przypadku 264. Problem jednak w tym, że stany kwantowe są bardzo nietrwałe i w wyniku interakcji z czynnikami zewnętrznymi kubit może ulec dekoherencji, czyli utracić swój stan kwantowy (superpozycję) i stać się „standardową” jedynką albo zerem. Widzimy więc, jak istotny jest czas dekoherencji. Im jest on dłuższy, tym więcej czasu zostaje na przeprowadzenie obliczeń. Obiecującymi kandydatami na kubity są obwody nadprzewodzące, jony uwięzione w pułapkach magnetycznych czy kropki kwantowe. Teraz międzynarodowa grupa uczonych przekonuje, że możliwe jest też zbudowanie stabilnego nanomechanicznego kubitu. Kubit taki miały się składać z wiszącej węglowej nanorurki działającej jak rezonator, której wibracje zależą od stanów elektronicznych dwóch kropek kwantowych znajdujących się w samej nanorurce. Sprzężenie pomiędzy kropkami a nanorurką powoduje, że rezonator staje się silnie anharmoniczny. To oznacza, że okres drgań jest zależny od jego amplitudy. W takim rezonatorze bardzo łatwo wykryć nawet najmniejsze zmiany amplitudy. Pistolesi uważa, że właśnie amplitudę można wykorzystać do przechowywania kwantowej informacji. Innymi słowy, najmniejsza możliwa amplituda drgań (kwantowy stan podstawowy) odpowiada „0”, a kolejna najmniejsza amplituda (pierwszy stan wzbudzenia) odpowiada „1”. Stany te można z łatwością odczytać za pomocą mikrofal. Fakt, że częstotliwość pracy oscylatora zmienia się, gdy zmienia się jego amplituda, pozwala nam na odczytywanie kubitu i manipulowanie nim, wyjaśnia swoją koncepcję Pistolesi. Uczony przekonuje, że taki kubit byłby bardzo trwały. Zanim pojawi się dekoherencja, dojdzie w nim do milionów oscylacji. Wyniki badań, chociaż obiecujące, nie rozwiązują wszystkich problemów. Naukowcy wciąż nie wiedzą, w jaki sposób wprowadzić do takiego systemu na tyle silną anharmoniczność, by całość poddawała się kontroli. Być może zaproponowana przez Pistolesiego architektura nigdy nie trafi do komputerów kwantowych. Jednak może się ona przydać do budowy niezwykle czułych detektorów kwantowych, gdyż oscylatory takie byłyby podatne na działanie klasycznych sił. Można by je więc wykorzystać do wykrywania niewielkich zmian przyspieszenia, pola elektrycznego czy magnetycznego. Teraz badacze chcą zbudować zaproponowany przez siebie kubit i przetestować jego działanie. « powrót do artykułu
  7. Po raz pierwszy udało się dwukrotnie wykryć poruszający się pojedynczy foton, nie niszcząc go przy tym. To ważna osiągnięcie, gdyż dotychczas foton ulegał zwykle zniszczeniu podczas jego rejestrowania. Najnowsze osiągnięcie może przyczynić się do powstania szybszych i bardziej odpornych na zakłócenia sieci optycznych i komputerów kwantowych. Zwykle wykrycie fotonu wiąże się z jego zaabsorbowaniem. Jednak foton może nieść ze sobą cenne informacje, a w takich przypadkach specjaliści woleliby mieć możliwość odczytania tych danych i przepuszczenia fotonu dalej, do miejsca docelowego. Żadna metoda detekcji nie jest w 100% skuteczna, zawsze istnieje ryzyko, że coś się prześliźnie niewykryte, mówi jeden z autorów badań, Stephan Welte, fizyk kwantowy z Instytutu Optyki Kwantowej im. Maxa Plancka w niemieckim Garching. Dlatego też możliwość niedestrukcyjnego wykrywania fotonów jest tak ważna – ustawienie detektorów jeden za drugim zwiększa szanse, że wykryjemy wszystkie interesujące nas fotony. Dotychczas opracowano różne sposoby wykrywania fotonu bez jego niszczenia. Często polegają one na interakcji fotonu z jonem, nadprzewodzącym kubitem lub innymi systemami kwantowymi. Jednak w ten sposób możemy albo wykonać pojedynczą niedestrukcyjną rejestrację poruszającego się fotonu, albo liczne niedestrukcyjne odczyty stacjonarnego fotonu uwięzionego we wnęce. Teraz naukowcy z Niemiec dwukrotnie wykryli pojedynczy foton wędrujący światłowodem. Wykorzystali w tym celu skonstruowany przez siebie niedestrukcyjny detektor zbudowany z pojedynczego atomu rubidu uwięzionego w odbijającej wnęce. Foton, wpadając do wnęki, odbija się od jej ścian, zmieniając stan kwantowy atomu, co można wykryć za pomocą lasera. Uczeni umieścili dwa takie detektory w odległości 60 metrów od siebie. Wykryły one ten sam foton, nie absorbując go. Welte mówi, że teoretycznie można w ten sposób wykryć pojedynczy foton nieskończoną liczbę razy, jednak w praktyce istnienie 33-procentowe ryzyko, że użycie detektora spowoduje utratę fotonu. Nowa technologia może w przyszłości pozwolić na śledzenie trasy fotonów. Pozwoli to na przyspieszenie pracy systemów kwantowych, gdyż będziemy w stanie upewniać się, że zakodowane w fotonach informacje dotrą tam, gdzie powinny. Powiedzmy, że chcesz wysłać kwantową informację z Monachium do Nowego Jorku. Możesz w międzyczasie wielokrotnie sprawdzać, czy foton nie został po drodze utracony, np. sprawdzając, czy dotarł do Paryża. Jeśli okaże się, że foton zgubił się po drodze, można będzie natychmiast wysłać go ponownie. Nie trzeba będzie czekać na zakończenie całej transmisji, by upewnić się, że wszystko poszło tak, jak powinno, wyjaśnia główny autor badań, Emanuele Distante. Twórcy nowych detektorów uważają, że nie można ich będzie wykorzystać do podsłuchania kwantowej komunikacji. To jak śledzenie przesyłek. Możesz dowiedzieć się, gdzie jest paczka, ale nic nie wiesz o jej zawartości. Foton zawiera w sobie pewną kwantową informację. Możesz w sposób niedestrukcyjny go wykryć, ale nie odczytać, stwierdza Welte. « powrót do artykułu
  8. Holenderscy uczeni zaprezentowali elektroniczny kontroler kubitów, pracujący w temperaturach kriogenicznych. Urządzenie może pomóc w poradzeniu sobie z problemem wąskiego gardła połączeń w komputerach kwantowych korzystających z wielu kubitów. Do budowy komputerów kwantowych wykorzystuje się obecnie wiele różnych technologii. Wiele z nich zmaga się z poważnym problemem. Otóż elementy, w których przeprowadzane są obliczenia kwantowe pracują w bardzo niskich temperaturach, tymczasem kable i inne podzespoły łączące te elementy ze światem zewnętrznym mają temperaturę znacznie wyższą. Tak duża różnica temperatur może niekorzystnie wpływać na pracę komputerów kwantowych i możliwości ich projektowania. Naukowcy z Uniwersytetu Technologicznego w Delft we współpracy z ekspertami Intela zaprezentowali właśnie urządzenie elektroniczne, które pracuje w temperaturach kriogenicznych i może kontrolować kwantowy układ scalony. Kriokontroler Horse Ridge pracuje z kwantowymi układami scalonymi opartymi na krzemie równie dobrze, jak standardowe kontrolery z układami scalonymi działającymi w temperaturze pokojowej. Obecnie w procesorach kwantowych dla każdego kubita tworzy się osobne okablowanie, które łączą go z zewnętrznymi urządzeniami pracującymi w temperaturze pokojowej, wyjaśnia fizyk Lieven Vandersypen z TU Delft. Jednak w przyszłości, gdy kwantowe procesory będą korzystały z tysięcy lub milionów kubitów, zapewnienie każdemu kubitowi osobnego okablowanie nie będzie możliwe, dodaje uczony. Dlatego też wraz z zespołem pracuje nad rozwiązaniem, które poradzi sobie zarówno z problemem różnicy temperatur jak i okablowania. Problem integracji kubitów i elektroniki to problem termiczny, zgadza się Sorin Voinigescu, inżynier z University of Toronto, który nie był zaangażowany w opisywane badania. Kontrolery mikrofalowe, takie jak Horse Ridge, mają poważne problemy z pracą w niskich temperaturach. A w przyszłości, gdy będziemy dysponowali kwantowymi procesorami zawierającymi miliony kubitów, konieczne będzie upakowanie w nich dziesiątków tysięcy takich kontrolerów, zdolnych do pracy w bardzo niskich temperaturach. Nowe badania to kolejny krok w tym kierunku. Podczas prowadzonych eksperymentów Horse Ridge kontrolował parę kubitów zamkniętych w krzemowym systemie zwanym podwójną kropką kwantową. Kontroler wysyłał zaprogramowane wcześniej krótkie impulsy mikrofalowe, które pozwalały na manipulowanie spinem kubitów, czyli przeprowadzanie obliczeń. Zwykle tego typu kontrolery pracują w temperaturze pokojowej i są połączone z procesorem kwantowym za pomocą kabla koncentrycznego. Horse Ridge pracuje w temperaturach kriogenicznych, a jego wydajność jest taka sama, jak tradycyjnych kontrolerów. Horse Ridge powstał w dobrze znanej technologii CMOS. Połączenie 60 lat doświadczeń z CMOS z kubitami to zwycięskie rozwiązanie, mówi Edoardo Charbon z Delft. Holenderski zespół zapewnia, że technologię CMOS nie tylko można łatwo miniaturyzować i integrować z kwantowymi układami scalonymi, ale Horse Ridge może być programowany tak, by w różny sposób manipulował kubitami. Pozwala też na uruchamianie większej liczby algorytmów kwantowych, niż wcześniejsze kriokontrolery. Kontroler pracuje w niskich temperaturach, jednak jest on cieplejszy niż procesor kwantowy, więc różnica między nim a wychodzącym na zewnątrz okablowaniem jest mniejsza. Holenderski zespół będzie pracował nad dalszym zwiększeniem temperatury kubitów, by móc zmniejszać te różnice. Szczegóły opisano na łamach Nature. « powrót do artykułu
  9. Rozwiązaniem problemu pomiędzy szybkością działania komputerów kwantowych a koherencją kubitów może być zastosowanie dziur, twierdzą australijscy naukowcy. To zaś może prowadzić do powstania kubitów nadających się do zastosowania w minikomputerach kwantowych. Jedną z metod stworzenia kubitu – kwantowego bitu – jest wykorzystanie spinu elektronu. Aby uczynić komputer kwantowy tak szybkim, jak to tylko możliwe, chcielibyśmy mieć możliwość manipulowania spinami wyłącznie za pomocą pola elektrycznego, dostarczanego za pomocą standardowych elektrod. Zwykle spiny nie reagują na pole elektryczne, jednak z niektórych materiałach spiny wchodzi w niebezpośrednie interakcje z polem elektrycznym. Mamy tutaj do czynienia z tzw. sprzężeniem spinowo-orbitalnym. Eksperci zajmujący się tym tematem obawiają się jednak, że gdy taka interakcja jest zbyt silna, wszelkie korzyści z tego zjawiska zostaną utracone, gdyż dojdzie do dekoherencji i utraty kwantowej informacji. Jeśli elektrony zaczynają wchodzić w interakcje z polami kwantowymi, które im aplikujemy w laboratorium, są też wystawione na niepożądane zmienne pola elektryczne, które istnieją w każdym materiale. Potocznie nazywamy to „szumem”. Ten szum może zniszczyć delikatną informację kwantową, mówi główny autor badań, profesor Dimi Culcer z Uniwersytetu Nowej Południowej Walii. Nasze badania pokazują jednak, że takie obawy są nieuzasadnione. Nasze teoretyczne badania wykazały, że problem można rozwiązać wykorzystując dziury – które można opisać jako brak elektronu – zachowujące się jak elektrony z ładunkiem dodatnim, wyjaśnia uczony. Dzięki wykorzystaniu dziur kwantowy bit może być odporny na fluktuacje pochodzące z tła. Co więcej, okazało się, że punkt, w którym kubit jest najmniej wrażliwy na taki szum, jest jednocześnie punktem, w którym działa on najszybciej. Z naszych badań wynika, że w każdym kwantowym bicie utworzonym z dziur istnieje taki punkt. Stanowi to podstawę do przeprowadzenia odpowiednich eksperymentów laboratoryjnych, dodaje profesor Culcer. Jeśli w laboratorium uda się osiągnąć te punkty, będzie można rozpocząć eksperymenty z utrzymywaniem kubitów najdłużej jak to możliwe. Będzie to też stanowiło punkt wyjścia do skalowania kubitów tak, by można było je stosować w minikomputerach. Wiele wskazuje na to, że takie eksperymenty mogą zakończyć się powodzeniem. Profesor Joe Salfi z University of British Columbia przypomina bowiem: Nasze niedawne eksperymenty z kubitami utworzonymi z dziur wykazały, że w ich wypadku czas koherencji jest dłuższy, niż się spodziewaliśmy. Teraz widzimy, że nasze obserwacje mają solidne podstawy teoretyczne. To bardzo dobry prognostyk na przyszłość. Praca Australijczyków została opublikowana na łamach npj Quantum Information. « powrót do artykułu
  10. Na szwedzkim Uniwersytecie Technicznym Chalmersa opracowano nowatorski termometr, który pozwoli na udoskonalenie... komputerów kwantowych. Termometr ten dokonuje szybkich i niezwykle dokładnych pomiarów temperatury podczas obliczeń kwantowych. Głównymi elementami komputera kwantowego są kable koncentryczne i falowody. Mikrofale są przesyłane falowodami do kwantowego procesora, a po drodze są schładzane do bardzo niskich temperatur. Zadaniem falowodów jest tez osłabianie i filtrowanie impulsów tak, by niezwykle wrażliwy kwantowy procesor mógł pracować ze stabilnymi stanami kwantowymi. Jednak, by mieć jak największą kontrolę nad całym procesem, specjaliści muszą mieć pewność, że falowody nie przenoszą zakłóceń powodowanych ruchem cieplnym elektronów. Innymi słowy, muszą mierzyć temperaturę pól elektromagnetycznych na końcu falowodu, w miejscu, w którym do kubitów dostarczane są kontrolujące je impulsy. Praca z najniższymi możliwymi temperaturami zmniejsza ryzyko wprowadzenia błędów do kubitów. Dotychczas możliwe były jedynie pośrednie pomiary tych temperatur i do tego dokonywane były ze znaczącym opóźnieniem. Tymczasem opracowany w Szwecji termometr pozwala na bardzo szybkie i niezwykle precyzyjne bezpośrednie pomiary temperatur na końcu falowodu. Nasz termometr do obwód nadprzewodzący bezpośrednio podłączony do końca falowodu, którego temperaturę mierzy. To dość prosty i prawdopodobnie najszybszy i najbardziej precyzyjny termometr do tego typu pomiarów. Pracuje on w skali milikelwinów, mówi profesor Simone Gasparinetti. Specjaliści z Wallenberc Centre for Quantum Technology (WACQT) chcą do roku 2030 stworzyć kwantowy komputer korzystający z co najmniej 100 kubitów. Osiągnięcie tego celu będzie wymagało schłodzenia procesora do temperatury bliskiej zeru absolutnemu, mówi się o 10 milikelwinach. Nowy termometr będzie bardzo ważnym narzędziem na drodze do osiągnięcia tego celu. Dzięki niemu naukowcy sprawdzą, jak dobrze sprawuje się ich system i jakie ma niedociągnięcia. Konkretna temperatura jest związana z konkretną liczbą fotonów termicznych, a ich liczba spada wykładniczo wraz ze spadkiem temperatury. Jeśli uda nam się obniżyć temperaturę na końcu falowodu do 10 milikelwinów to drastycznie zredukujemy ryzyko wystąpienia błędów, mówi profesor Per Delsing, lider WACQT. Precyzyjne pomiary temperatury są też istotne dla producentów podzespołów dla komputerów kwantowych, gdyż dzięki nim będą wiedzieli, czy ich produkty spełniają odpowiednie standardy. Nowy termometr może mieć jednak znacznie szersze zastosowania. Może przyczynić się do dokonania znacznego postępu w nauce i technologii. Takie zjawiska jak superpozycja, splatanie czy dekoherencja mogą mieć bowiem znaczenie również w termodynamice. Nie można wykluczyć, że w nanoskali prawa termodynamiki ulegają zmianom. I być może zmiany te uda się wykorzystać np. do udoskonalenia silników, akumulatorów i innych urządzeń. Przez ostatnich 15–20 lat prowadzono badania, których celem było sprawdzenie, w jaki sposób zasady termodynamiki mogą ulegać modyfikacjom pod wpływem zjawisk kwantowych. Kwestia wykorzystania zjawisk kwantowych w termodynamice jest wciąż kwestią otwartą, stwierdza Gasparinetti. Nowy termometr mógłby np. posłużyć do pomiarów rozpraszania mikrofal w obwodzie, działającym jak kwantowy silnik cieplny lub kwantowa lodówka. Standardowe termometry były kluczowym narzędziem rozwoju klasycznej termodynamiki. Mamy nadzieję, że w przyszłości nasz termometr będzie fundamentem rozwoju termodynamiki kwantowej, wyjaśnia doktorant Marco Scigliuzzo. « powrót do artykułu
  11. Amerykański Departament Energii (DoE) udostępnił otwartoźródłową kwantową platformę testową Quantum Scientific Computing Open User Testbed (QSCOUNT). Z 3-kubitowego systemu znajdującego się w Sandia National Laboratories jako pierwsi skorzystali naukowcy z Indiana University. Komputery kwantowe to przyszłość informatyki, jednak do ich rozwoju potrzebna jest możliwość prowadzenia badań i eksperymentów na tego typu maszynach. Jednak obecnie komputerami kwantowymi dysponują nieliczne firmy i uczelnie na świecie. Dlatego też DoE zdecydował o udostępnieniu maszyny z SNL, by mogli z niej korzystać naukowcy, na których uczelniach nie ma tego typu maszyn. Dzięki QSCOUT mogą to zrobić bezpłatnie, a co więcej, mogą prowadzić prace, na które nie zezwalają firmy komercyjnie udostępniające komputery kwantowe. QSCOUT służy potrzebom specjalistów dając im możliwość kontroli i badania samej maszyny, co jeszcze nie jest dostępne w systemach komercyjnych. Ponadto oszczędza specjalistom wysiłku związanego z budową własnych maszyn kwantowych. Mamy nadzieję, że dzięki tej inicjatywie zyskamy nowe informacje na temat wydajności i architektury systemów kwantowych oraz dowiemy się, jak rozwiązywać różne problemy związane z obliczeniami kwantowymi, mówi fizyk Susan Clark, która kieruje projektem QSCOUT. Użytkownicy dostają do dyspozycji pierwszy opensource'owy system kwantowy. Wykorzystuje on technologię uwięzionych jonów i daje użytkownikowi bezprecedensową kontrolę nad prowadzonymi przez siebie badaniami. Jak już wspomnieliśmy, pierwszymi, którzy skorzystali z oferty byli naukowcy z Indiana University. Następni w kolejce są specjaliści z IBM-a, Oak Ridge National Laboratory, Univeristy of New Mexico i University of Carifolnia, Berkeley. Będą oni prowadzili szeroko zakrojone badania obejmujące zarówno rozwój benchmarków, czyli systemów oceny wydajności, dla komputerów kwantowych jak i prace nad algorytmami, rozwiązującym problemy z zakresu chemii, które są zbyt złożone dla komputerów klasycznych. O dostęp do platformy QSCOUT może zwrócić się każdy, a dostęp do maszyny finansuje DoE. Jeszcze wiosną zostanie wybrana kolejna grupa projektów, których pomysłodawcy będą mogli korzystać z kwantowej maszyny. Serce kwantowej maszyny Sandii stanowi pułapka jonowa z uwięzionymi trzema atomami iterbu. Są one uwięzione za pomocą fal radiowych i pola elektrycznego. Każdy z jonów stanowi pojedynczy kubit, w którym informacje kodowane są za pomocą laserów. W ciągu najbliższych 3 lat system zostanie rozbudowany do 32 kubitów. « powrót do artykułu
  12. Specjaliści z kanadyjskiej firmy D-Wave Systems, wykazali, że ich kwantowy procesor potrafi symulować zachowanie kwantowego magnesu znacznie szybciej, niż maszyna klasyczna. Okazało się też, że prędkość symulacji kwantowych znacznie lepiej od symulacji klasycznych skaluje się ze wzrostem trudności symulacji. Symulatory D-Wave to wyspecjalizowane komputery kwantowe wykorzystujące technikę „kwantowego wyżarzania” (quantum annealing). Polega ona na znalezieniu najmniejszego elementu z grupy możliwych rozwiązań. Andrew King, dyrektor ds. badań nad wydajnością w D-Wave, mówi, że symulowany kwantowy magnes podlegał fluktuacjom zarówno kwantowym jak i termicznym. Podczas symulacji Kanadyjczycy wykorzystali do 1440 kubitów. Teraz informują, że kwantowy symulator był ponad 3 miliony razy szybszy niż symulatory klasyczne wykorzystujące kwantowe algorytmy Monte Carlo. Przy okazji wykazano, że symulatory kwantowe lepiej skalują się wraz z rosnącą trudnością symulacji. Zauważono to zarówno podczas symulowania chłodniejszych systemów, gdzie efekty kwantowe są silniejsze, jak i podczas symulowania większych systemów. Innymi słowy, największa przewaga symulatorów kwantowych nad klasycznymi algorytmami ujawnia się w rozwiązywaniu najtrudniejszych problemów. Trzeba tutaj przypomnieć, że naukowcy z D-Wave wykonali podobne badania już w 2018 roku, jednak wówczas symulacja przebiegła tak szybko, że nie mogli dokładnie zmierzyć dynamiki swojego systemu. Teraz, by spowolnić przebieg symulacji, dodali do niej przeszkodę topologiczną. Przeszkody topologiczne mogą złapać w pułapkę klasyczne symulacje z wykorzystaniem kwantowych algorytmów Monte Carlo. Symulator kwantowy jest w stanie ominąć tę pułapkę dzięki tunelowaniu, wyjaśnia Daniel Lidar, dyrektor Centrum Kwantowej Informacji, Nauki i Technologii z University of Southern California, który nie był zaangażowany w badania Kanadyjczyków. Ich praca to pierwsza demonstracja przewagi uzyskiwanej dzięki temu zjawisku. To bardzo interesujące i pokazuje, że kwantowe wyżarzanie to obiecujące narzędzie do kwantowych symulacji, dodaje. Na osiągnięcie D-Wave warto zwrócić uwagę tym bardziej, że – w przeciwieństwie do wcześniejszych porównań algorytmów klasycznych i kwantowych – tym razem zajęto się rzeczywistym użytecznym problemem. Kwantowe magnesy są bowiem badane od jakiegoś czasu przez specjalistów pracujących nad nowymi materiałami. Kwantowe symulatory mogą znakomicie przyspieszyć te badania. Jednak D-Wave nie wyklucza, że możliwe jest opracowanie szybszych algorytmów klasycznych niż te obecnie używane. Przedstawiciele firmy uważają, że w najbliższym czasie największe korzyści uzyskamy dzięki połączeniu metod klasycznych i kwantowych. « powrót do artykułu
  13. Badacze z Cavendish Laboratory na Uniwersytecie Cambridge opracowali metodę wykrywania pojedynczego kubitu (bitu kwantowego) w gęstej chmurze 100 000 kubitów utworzonych ze spinów kwantowych kropek. Uczeni najpierw wprowadzili informację kwantową w chmurę, a następnie wykorzystali pojedynczy elektron do kontroli zachowania chmury, co ułatwiło odnalezienie wprowadzonego wcześniej kubitu. Już teraz prymitywne komputery kwantowe jakimi dysponujemy są w stanie – w niektórych wysoce specjalistycznych zastosowaniach – przewyższyć wydajnością konwencjonalne superkomputery. Jednak kwantowe urządzenia pokażą swoją pełną moc, gdy zostaną połączone za pomocą kwantowego internetu. Problem jednak w tym, że stany kwantowe są niezwykle delikatne. Wszelka ingerencja, jak np. próba ich przesłania, może je zniszczyć. Jednym z pomysłów na poradzenie temu problemowi jest ukrycie kubitu z interesującą nas informacją wewnątrz chmury złożonej z innych kubitów. Stąd też badania, które przeprowadzono na Cambridge. Opracowana przez nich technika pozwala na przesłanie kwantowej informacji do układu, w którym ma być przechowywana oraz zweryfikowanie jej stabilności. Badania prowadzono w kropkach kwantowych, gdyż to światło jest najbardziej obiecującym kandydatem do przesyłania informacji w kwantowym internecie, a kropki kwantowe są obecnie najlepszym kwantowym źródłem światła. Kropki te to miniaturowe kryształy, sztuczne atomy. Gdy jednak będziemy przesyłać kwantową informację za pomocą sieci, musimy mieć możliwość jej tymczasowego przechowywania w różnych punktach sieci. Rozwiązaniem jest przechowanie delikatnego stanu kwantowego w chmurze 100 000 jąder atomowych, które zawiera każda z kropek kwantowych. To jak ukrycie igły w stogu siana. Problem w tym, że gdy próbujemy komunikować się z tymi jądrami, mają one tendencje do przypadkowej zmiany spinów, co generuje olbrzymie zakłócenia, szum, wyjaśnia główny autor badań, profesor Mete Atature. Chmura kubitów w kropce kwantowej zwykle nie działa jak jeden organizm, przez co trudno jest odczytać zawarte w niej informacje. Jednak w 2019 roku Atature i jego zespół wykazali, że schłodzenie do bardzo niskich temperatur i wykorzystanie światła powoduje, że chmura taka zaczyna wykonywać „skoordynowany kwantowy taniec”, co znakomicie redukuje szum. Teraz ta sama grupa wykazała, że możliwa jest kontrola takiego kolektywnego stanu 100 000 atomów, dzięki czemu byli w stanie wykryć informację zapisaną w „odwróconym kwantowym bicie” ukrytym w chmurze. Czułość wykorzystanej metody wynosi 1,9 części na milion, czyli jest wystarczająca, by zauważyć pojedynczy odwrócony bit w chmurze składającej się ze 100 000 elementów. Z technicznego punktu widzenia jest to bardzo wymagające. Nie mamy możliwości skomunikowania się z chmurą, a ona nie ma możliwości skontaktowania się z nami. Możemy jednak użyć elektronu jako pośrednika. Działa on jak pies pasterski, wyjaśnia Atature. Ze wspomnianym elektronem można komunikować się za pomocą lasera. Z kolei elektron komunikuje się ze spinami atomów. W wyniku tego procesu, chaotycznie dotychczas zachowujące się spiny zaczynają organizować się wokół elektronu. W ten sposób powstają skoordynowane fale spinowe. Jeśli wyobrazimy sobie naszą chmurę spinów jako stado 100 000 poruszających się chaotycznie owiec, to trudno jest zauważyć 1 owcę, która nagle zmieniła kierunek. Jeśli jednak całe stado porusza się jak skoordynowana fala, to taka owca zmieniająca kierunek staje się dobrze widoczna, mówi uczony. Kolejnym krokiem naszych badań będzie pokazanie, że tę technikę można wykorzystać do przechowania i odczytania dowolnego kwantowego bitu z całego rejestru spinów, zapowiada doktorant Daniel Jackson z Cavendish Laboratory. W ten sposób zakończymy tworzenie układu pamięci połączonego ze źródłem światła, ważnego elementu kwantowego internetu, dodaje Dorian Gangloff. Tę samą technikę można wykorzystać w budowie komputerów kwantowych. Więcej na jej temat przeczytamy w artykule Quantum sensing of a coherent single spin excitation in a nuclear ensemble. « powrót do artykułu
  14. Po raz pierwszy w historii udało się przesłać splątane stany kwantowe przewodem łączącym dwa węzły. Specjaliści z Pritzker School of Molecular Engineering na University of Chicago jednocześnie wzmocnili stan kwantowy na tym samym przewodzie, najpierw wykorzystując przewód do splątania po jednym kubicie w każdym z węzłów, a następnie splątując te kubity z kolejnymi kubitami w węzłach. Opracowanie metod transferu stanów splątanych jest kluczowym elementem potrzebnym do skalowania kwantowych systemów komputerowych, mówi główny autor badań, profesor Andrew Cleland. Aby wysłać stan kwantowy naukowcy stworzyli w każdym z węzłów po trzy nadprzewodzące kubity. Następnie po jednym kubicie z każdego węzła połączyli z przewodem i wysłali stan kwantowy, w formie mikrofalowych fotonów. Dzięki temu, że cały proces trwał zaledwie kilkadziesiąt nanosekund, doszło jedynie do minimalnej utraty informacji. Taki system pozwolił im też na „wzmocnienie” splątania kubitów. Najpierw splątali ze sobą po jednym kubicie z obu węzłów, później rozszerzyli splątanie na kolejne kubity. Gdy skończyli, splątane były wszystkie kubity w obu węzłach, które utworzyły pojedynczy globalny stan splątany. W przyszłości komputery kwantowe mogą być zbudowane z modułów, w których obliczenia będą dokonywane przez grupy splątanych kubitów. Takie komputery mogą być stworzone z wielu połączonych węzłów. Podobnie zresztą jak dzisiaj buduje się superkomputery, które składa się z wielu węzłów obliczeniowych w jedną wydajną maszynę. Przesłanie stanu splątanego pomiędzy węzłami jest więc bardzo ważnym osiągnięciem na drodze do powstania takich modułowych komputerów kwantowych. Takie węzły muszą mieć możliwość przesyłania pomiędzy sobą złożonych stanów kwantowych, a nasza praca to ważny krok w tym kierunku, mówi Cleland i zaznacza, że z takiego podejścia mogą skorzystać też sieci kwantowe. Uczeni z Chicago mają nadzieję, że w przyszłości uda im się poszerzyć ich architekturę o kolejny węzeł i stworzą stan splątany z kubitów zgrupowanych w trzech modułach. Więcej na ten temat można przeczytać w Nature. « powrót do artykułu
  15. W ostatnim tygodniu stycznia 8 instytucji naukowych podpisało list intencyjny w sprawie koordynacji działań na rzecz rozwoju polskich badań kwantowych. Inicjatywa ma być parasolem nad aktywnościami, prowadzonymi w różnych ośrodkach naukowych w Polsce. Naukowcy liczą też na wsparcie władz publicznych i ustanowienie długofalowego programu rozwoju badań kwantowych, podobnego do tych, które funkcjonują w innych krajach. List intencyjny został podpisany przez przedstawicieli Uniwersytetu Warszawskiego, Uniwersytetu Gdańskiego, Centrum Fizyki Teoretycznej PAN (CFT PAN), Uniwersytetu Jagiellońskiego, Uniwersytetu Mikołaja Kopernika w Toruniu, Uniwersytetu im. Adama Mickiewicza w Poznaniu, Instytutu Fizyki PAN oraz Politechniki Wrocławskiej. Chcemy być głosem środowiska i partnerem do rozmów z władzami publicznymi o wykorzystaniu technologii kwantowych, m.in. dla wzmocnienia pozycji gospodarczej Polski – podkreślił prof. Konrad Banaszek z Uniwersytetu Warszawskiego. Prof. Marek Żukowski z Uniwersytetu Gdańskiego uważa, że podpisanie listu jest szansą na stworzenie silnej organizacji, która odegra ważną rolę w Europie. Konsorcjum będzie pomocne w działaniach na arenie krajowej i w kontaktach z kołami biznesowymi, coraz bardziej świadomymi korzyści z potencjału technologii kwantowych. Nasze środowisko powinno mówić jednym głosem w dialogu z instytucjami państwowymi. Naukowcy są zgodni co do tego, że zastosowanie technologii kwantowych może przynieść rewolucyjne zmiany w wielu dziedzinach życia, np. w symulacjach układów złożonych, bankowości, telekomunikacji i cyberbezpieczeństwie, metrologii, robotyce czy medycynie. Jak wyjaśniają, ośrodki naukowe i koroporacje technologiczne w USA skupiają się na m.in. na budowie komputera kwantowego, zaś w Europie prowadzone są zaawansowane badania nad sensorami kwantowymi i łącznością kwantową. Fizyka kwantowa, możliwość inżynierii pojedynczych układów fizycznych otwiera nowe perspektywy technologiczne, z czego zdają sobie sprawę wszystkie mocarstwa naukowe na świecie. Stawką tego wyścigu jest zdobycie przewagi i odniesienie jak największych korzyści społeczno-ekonomicznych – wyjaśnia prof. Marek Kuś z CFT PAN, członek Strategicznego Komitetu Doradczego Quantum Technologies Flagship. Quantum Technologies Flagship to 10-letni program, zapoczątkowany przez UE w listopadzie 2018 r. Ponadmiliardowy budżet ma pomóc zapewnić Europie rolę lidera w technologiach kwantowych. Potencjał technologii kwantowych chcą wykorzystać władze wielu krajów. W 2018 roku Kongres USA uchwalił National Quantum Initiative Act, a nadzorowaniem prac na poziomie federalnym zajmuje się specjalnie powołane do życia National Quantum Coordination Office przy Białym Domu. W ubiegłym roku Niemcy przeznaczyły 2 miliardy euro na prace nad komputerem kwantowym, a prezydent Macron zapowiedział właśnie, że w ciągu pięciu lat Francja zainwestuje 1,8 miliarda euro w rozwój technologii kwantowych. Nie możemy też zapominać o ostatnich osiągnięciach Chińczyków, którzy stworzyli pierwszą zintegrowaną sieć kwantową, przesłali splątane fotony pomiędzy dronami, a niebagatelną rolę w ich pracach odegrał Polak profesor Artur Ekert, jeden z pionierów kwantowej kryptografii. « powrót do artykułu
  16. Fizycy donoszą o zdobyciu pierwszego bezsprzecznego dowodu na istnienie anyonów, cząstek, których istnienie zostało zaproponowane przed ponad 40 laty. Anyony to kwazicząstki, które nie są ani fermionami, ani bozonami zatem podlegają statystyce innej niż statystyka Fermiego-Diraca i Bosego-Einsteina. Anyony mogą istnieć w przestrzeni dwuwymiarowej. Odkrycie, którego dokonano za pomocą elektronicznego urządzenia 2D, może być pierwszym krokiem na drodze wykorzystania anyonów w przyszłych komputerach kwantowych. Wszystkie cząstki elementarne są albo fermionami albo bozonami. Anyony nie należą do żadnej z tych kategorii. Fermiony są definiowane przez statystykę Fermiego-Diraca. Gdy dwa identyczne fermiony zamieniają się miejscem w przestrzeni ich funkcja falowa zmienia pozycję o 180 stopni. W przypadku zaś bozonów, definiowanych przez statystykę Bosego-Einsteina, nie dochodzi w takim przypadku do zmiany funkcji falowej. Innymi słowy, cząstki o spinach połówkowych (fermiony) dążą do pozostawania osobno od siebie, natomiast cząstki o spinach całkowitych (bozony) dążą do gromadzenia się. Anyony znajdują się gdzieś po środku. Zmiana pozycji anyonów powinna doprowadzić do zmiany funkcji falowej o kąt pośredni. Podlegają one statystyce cząstkowej. Jeśli jedna kwazicząstka wykona pełen obrót wokół drugiej, co jest odpowiednikiem dwukrotnej zamiany pozycji pomiędzy nimi, informacja o tym ruchu zostanie zachowana w stanie kwantowym cząstki. I to właśnie ten zapamiętany stan jest jedną z cech charakterystycznych statystyki cząstkowej, której poszukiwali obecnie naukowcy, by potwierdzić istnienie anyonów. Fizyk eksperymentalny Michael Manfra i jego zespół z Purdue University, stworzyli strukturę złożoną z cienkich warstw arsenku galu i arsenku aluminiowo-galowego. Struktura taka wymusza ruch elektronów w dwóch wymiarach. Urządzenie zostało schłodzone do 1/10 000 stopnia powyżej zera absolutnego i poddano je działaniu silnego pola magnetycznego. W ten sposób pojawił się tzw. izolator cząstkowego kwantowego efektu Halla. W izolatorze takim prąd elektryczny nie może przemieszczać się w wewnątrz urządzenia, a wyłącznie po jego krawędziach. Urządzenie może przechowywać kwazicząstki, których ładunek elektryczny nie jest wielokrotnością ładunku elektronów. Naukowcy podejrzewali, że kwazicząstki te to właśnie anyony. By udowodnić, że istotnie mają do czynienia z anyonami, uczeni połączyli swoje urządzenie do elektrod w ten sposób, że ładunki mogły przepływać tylko po krawędziach. Właściwości urządzenia były dobierane za pomocą pola magnetycznego i elektrycznego. Spodziewano się, że manipulacja tymi polami albo zniszczy ani utworzy anyony wewnątrz urządzenia i spowoduje, że anyony będą przemieszczały się pomiędzy elektrodami. Jako, że poruszające się anyony mogą poruszać się dwiema możliwymi ścieżkami, a każda z nich powoduje pojawienie się innego skrętu ich fal, gdy anyony docierają do celu dochodzi do interferencji i pojawienia się wzorca określanego jako paski na piżamie. Wzorzec ten pokazywał relatywną wartość skrętu fal anyonów pomiędzy obiema ścieżkami i był zależny od zmian napięcia i siły pola magnetycznego. Ostatecznym dowodem zaś były wyraźnie widoczne przeskoki, świadczące o znikaniu i pojawianiu się anyonów w urządzeniu. Zespół Manfry nie jest jedynym, który przedstawił dowody na istnienie statystyki cząstkowej, zatem na istnienie anyonów. Jednak w wielu poprzednich przypadkach uzyskane wyniki dawało się wytłumaczyć również w inny sposób, mówi Bernard Rosenow, fizyk-teoretyk z Uniwersytetu w Lipsku specjalizujący się w badaniu materii skontensowanej. Tymczasem, jak sam przyznaje, nie znam innego wyjaśnienia dla wyników uzyskanych przez Manfrę, jak interpretacji mówiącej o statystyce cząstkowej. Jeśli więc inny zespół potwierdzi obserwacje Manfry i jego kolegów, będziemy mogli mówić o odkryciu anyonów. Anyony zaś mogą posłużyć do budowy komputerów kwantowych. Już zresztą istnieją teorie opisujące takie maszyny. W parach kwazicząstek można zapisać informacje o tym, jak krążyły one wokół siebie. Jako, że statystyka cząstkowa jest topologiczna, zależy od liczby okrążeń, jakie jeden anyon wykonał wokół drugiego, a nie od niewielkich zmian trajektorii, jest odporna na niewielkie zakłócenia. Ta odporność zaś może spowodować, że topologiczne komputery kwantowe będą łatwiejsze do skalowania niż obecnie wykorzystywane technologie komputerów kwantowych, które są bardzo podatne na błędy. Microsoft, dla którego zresztą Manfra pracuje jako zewnętrzny konsultant, jest jedyną firmą pracującą obecnie nad topologicznymi komputerami kwantowymi. Inni giganci, jak IBM, Intel Google i Honeywell, udoskonalają inne technologie. Jednak do wykorzystania anyonów w komputerach kwantowych jest jeszcze daleka droga. Obecne odkrycie jest ważniejsze z punktu widzenia fizyki niż informatyki kwantowej. Dla mnie, jako teoretyka zajmującego się materią skondensowaną, kwazicząstki są równie fascynujące i egzotyczne jak bozon Higgsa, mówi Rosenow. Ze szczegółami pracy Manfry i jego zespołu można zapoznać się na łamach arXiv. « powrót do artykułu
  17. Inżynierowe z Uniwersytetu Nowej Południowej Walii (UNSW) w Sydney uzyskali sztuczne atomy w krzemowych kropkach kwantowych. Były one bardziej stabilne niż atomy naturalne, zatem poprawiały stabilność całego układ kwantowego. Profesor Andew Dzurak wyjaśnia, że sztuczne atomy nie posiadał y jądra, ale miały elektrony krążące wokół centrum urządzenia. Pomysł na stworzenie sztucznych atomów z elektronów nie jest niczym nowym. Teoretycznie zaproponowano je już w latach 30. ubiegłego wieku, a w latach 90. udało się je uzyskać, chociaż nie na krzemie. My po raz pierwszy wytworzyliśmy proste atomy na krzemie w roku 2013. Jednak naszym najważniejszym osiągnięciem jest uzyskanie sztucznych atomów z większą liczbą elektronów niż wcześniej było możliwe, co oznacza, że będzie można takie atomy wykorzystać do wiarygodnych obliczeń w komputerach kwantowych. To bardzo ważne, gdyż kubity bazujące na jednym elektronie są bardzo zawodne. Jak wyjaśnia profesor Dzurak okazało się, że gdy stworzymy sztuczne atomy w naszych kwantowych obwodach, one również mają dobrze zorganizowane w sposób przewidywalny powłoki elektronowe, podobnie jak naturalne atomy. Profesor Dzurak wraz z zespołem skonfigurowali kwantowe urządzenia tak, by przetestować stabilność elektronów w sztucznym atomie. Wykorzystali napięcie elektryczne, by przyciągnąć elektrony i stworzyć z nich kwantową kropkę o średnicy około 10 nanometrów. W miarę jak powoli zwiększaliśmy napięcie, przyciągaliśmy kolejne elektrony i tak, jeden po drugim, tworzyliśmy z nich sztuczny atom w kwantowej kropce, wyjaśnia doktor Andre Saraiva, który odpowiadał za teoretyczną stronę badań. W prawdziwym atomie w środku mamy ładunek dodatni, czyli jądro, wokół którego na trójwymiarowych orbitach krążą elektrony o ładunku ujemnym. W naszym przypadku nie mieliśmy dodatnio naładowanego jądra, a ładunek dodatni pochodził z elektrody oddzielonej od krzemu warstwą tlenku krzemu oraz elektrony zawieszone pod nią. Każdy z nich krąży wokół centrum kwantowej kropki. Nie tworzą tam sfery, ale raczej płaski dysk. Naukowców interesowało szczególnie, co się stanie, gdy do istniejących elektronów doda się kolejny, który zajmie najbardziej zewnętrzną powłokę. Okazało się, że taki elektron może zostać użyty w roli kubitu. Dotychczas niedoskonałości krzemu na poziomie atomowym zaburzały zachowania kubitów, prowadząc do niestabilności i błędów. Wydaje się jednak, że elektrony znajdujące się na wewnętrznych powłokach działają jak „podkład” na niedoskonałym podłożu, zapewniając stabilność elektronu na zewnętrznej powłoce, wyjaśniają. Profesor Dzurak dodaje, że wartość kubitu została zakodowana w spinie elektronu. Gdy elektrony, czy to w sztucznym czy w naturalnym atomie, utworzą powłokę, ustawiają swoje spiny w przeciwnych kierunkach, więc spin całości wynosi 0 i jest ona la nas nieprzydatna. gdy jednak dodamy nowy elektron na nowej powłoce, zyskujemy nową spin, który możemy wykorzystać jako kubit. Wykazaliśmy, ze jesteśmy w stanie kontrolować spin elektronów na zewnętrznych powłokach, zyskując w ten sposób stabilne wiarygodne kubity. To bardzo ważne, gdyż to oznacza, że możemy teraz pracować z mniej delikatnymi kubitami. Pojedynczy elektron jest niezwykle delikatny. Ale sztuczny atom z 5 czy 13 elektronami jest znacznie bardziej odporny. Zespół profesora Dzuraka był pierwszym, który już w 2015 roku zaprezentował kwantową bramkę logiczną na krzemie. Wcześniej, również jako pierwsi, uzyskali kubit na krzemie. W ubiegłym zaś roku jako pierwsi zmierzyli dokładność dwukubitowych operacji logicznych na krzemie. « powrót do artykułu
  18. Google twierdzi, że zbudowany przez tę firmę komputer osiągnął kwantową supremację, czyli wykonał obliczenia, których klasyczny komputer nie jest w stanie wykonać w rozsądnym casie. Jeśli to prawda, możemy mieć do czynienia z prawdziwym przełomem na polu informatyki kwantowej. Dotychczas bowiem komputery kwantowe nie dorównywały komputerom klasycznym. Cała sprawa jest jednak otoczona tajemnicą. Prace Google'a zostały bowiem opisane w dokumencie, który niedawno został umieszczony na serwerze NASA. Jednak dokument szybko stamtąd usunięto. Przedstawiciele Google'a odmawiają komentarza w tej sprawie. W dokumencie opisano procesor kwantowy o nazwie Sycamore, który ma zawierać 54 kubity. To właśnie on miał osiągnąć kwantową supremację. Wymieniony został też tylko jeden autor artykułu, John Martinias z Uniwersytetu Kalifornijskiego w Santa Barbara. Wiadomo, że pracuje on dla Google'a nad sprzętem dla komputerów kwantowych. Wiadomo też, że w 2018 roku Google i NASA zawarły porozumienie, w ramach którego agencja kosmiczna miała pomóc Google'owi w testach kwantowej maszyny. Wspomniany dokument opisuje, w jaki sposób procesor Sycamore rozwiązał problem prawdziwego rozkładu losowego liczb. Tego typu problemy są niezwykle trudne dla komputerów klasycznych. Ci, którzy czytali dokument mówią, że jeden z kubitów procesora nie działał, ale pozostałe 53 zostały splątane, wygenerowały przypadkowy zestaw liczb w systemie dwójkowym i sprawdziły, czy rzeczywiście ich rozkład jest przypadkowy. Autorzy artykułu obliczyli, że wykonanie takiego zadania zajęłoby Summitowi, najpotężniejszemu klasycznemu superkomputerowi na świecie aż 10 000 lat. Procesor Sycamore wykonał je w 200 sekund. Autorzy artykułu przyznają, że użyty algorytm nie przyda się do niczego więcej niż do generowania prawdziwych liczb losowych. Jednak w przyszłości podobny procesor może być przydatny w maszynowym uczeniu się, chemii czy naukach materiałowych. Osiągnięcie kwantowej supremacji przez Google'a to ważny krok w informatyce kwantowej, mówi Jim Clarke z Intel Labs. Ekspert dodaje, że wciąż jesteśmy na początku drogi. To, co osiągnął Google było jedynie demonstracją i to nie wolną od błędów. Jednak w przyszłości będą budowane większe potężniejsze procesory kwantowe, zdolne do wykonywania bardziej użytecznych obliczeń. « powrót do artykułu
  19. IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych. Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim. Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe. Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych. « powrót do artykułu
  20. Naukowcy z Narodowego Instytutu Standardów i Technologii (NIST) informują o materiale, który może stać się „krzemem komputerów kwantowych”. Nowo odkryte właściwości ditellurku uranu (UTe2) wskazują, że może być on wyjątkowo odporny na jeden z największych problemów trapiących informatykę przyszłości, problem zachowania kwantowej koherencji. Stany kwantowe są niezwykle delikatne i ulegają zniszczeniu pod wpływem czynników zewnętrznych. Dotychczas nikomu nie udało się w sposób praktyczny do masowego zastosowania rozwiązać problemu istnienia kubitów (kwantowych bitów) na tyle długo, by można było przeprowadzić obliczenia zanim ich stany kwantowe ulegną zniszczeniu. Materiałem, który może pomóc w przezwyciężeniu tych problemów jest nadprzewodzący UTe2. Okazało się bowiem, że jest on niezwykle odporny na działanie zewnętrznego pola magnetycznego, co jest ewenementem wśród nadprzewodników. Nick Butch, fizyk z NIST mówi, że ta właściwość czyni go atrakcyjnym przedmiotem badań dla specjalistów rozwijających komputery kwantowe. To potencjalny krzem wieku informatyki kwantowej. Można by użyć ditellurku uranu do uzyskania kubitów w wydajnym komputerze kwantowym, stwierdza uczony. W zwykłych przewodnikach elektrony podróżują jako indywidualne cząstki. Jednak w nadprzewodnikach tworzą one pary Coopera, czyli oddziałujące ze sobą pary elektronów. Mają one połówkowe spiny skierowane w przeciwne strony i ich spin całkowity wynosi 0. To właśnie istnienie par Coopera zapewnia nadprzewodnictwo. Istnieje jednak niewielka liczba nadprzewodników, i UTe2 wydaje się do nich należeć, gdzie spin par Coopera może przyjmować nie jedną, a trzy różne konfiguracje, w tym i taką, gdzie spiny obu elektronów są równoległe, a spin całkowity przyjmuje wartość -1, 0 i +1. Wówczas mówimy o nadprzewodniku topologicznym. Wykazuje on dużą odporność na działania czynników zewnętrznych. Taki równoległy spin może podtrzymać działanie komputera. W tym przypadku nie dochodzi do spontanicznego zaniku stanu z powodu fluktuacji kwantowych, mówi Butch. Potrzebujemy topologicznych przewodników, gdyż mogą nam one zapewnić bezbłędnie działające kubity. Mogą mieć one bardzo długie czasy życie. Topologiczne nadprzewodniki to alternatywny sposób na zbudowanie komputera kwantowego, gdyż chronią one stany kwantowe przed wpływami zewnętrznymi, wyjaśnia Butch. Wraz ze swoim zespołem prowadził on badania nad magnesami bazującymi na uranie i zainteresował się bliżej ditellurkiem uranu. UTe2 został po raz pierwszy pozyskany w latach 70. XX wieku i nawet dość niedawne artykuły naukowe opisywały to jako nieciekawy materiał. My uzyskaliśmy go jako materiał uboczny podczas syntezy innego materiału. Postanowiliśmy go jednak zbadać, by sprawdzić, czy nie ma on jakichś właściwości, które inni przeoczyli. Szybko zdaliśmy sobie sprawę, że mamy w rękach coś specjalnego, mówi Butch. Szczegółowe badania wykazały, że UTe2 jest w bardzo niskich temperaturach nadprzewodnikiem, a jego właściwości nadprzewodzące przypominają te rzadkie nadprzewodniki, które są jednocześnie ferromagnetykami. Jednak UTe2 nie jest ferromagnetykiem. Już samo to czyni go wyjątkowym, stwierdza Butch. Okazało się też, że jest wyjątkowo odporny na zewnętrzne pole magnetyczne. Zwykle pole magnetyczne niszczy nadprzewodnictwo. Jednak okazało się, że UTe2 wykazuje właściwości nadprzewodzące w polu magnetycznym o natężeniu do 35 tesli. To wielokrotnie więcej niż wytrzymuje większość niskotemperaturowych nadprzewodników topologicznych. Mimo, że jeszcze nie zdobyto jednoznacznego dowodu, iż UTe2 jest nadprzewodnikiem topologicznym, Butch mówi, że jego niezwykła odporność na działanie pola magnetycznego wskazuje, że jest nadprzewodnikiem, w którym pary Coopera przyjmują różne wartości spinu. Zdaniem naukowców z NIST dalsze badania nad tym materiałem pozwolą nam lepiej zrozumieć jego właściwości oraz, być może, samo zjawisko nadprzewodnictwa. Może zrozumiemy, co stabilizuje tego typu nadprzewodniki. Głównym celem prac nad nadprzewodnikami jest bowiem zrozumienie tego zjawiska na tyle, byśmy wiedzieli, gdzie szukać materiałów nadprzewodzących. Teraz tego nie potrafimy. Nie wiemy, co jest ich główną cechą. Mamy nadzieję, że ten materiał nam to zdradzi, dodaje Butch. « powrót do artykułu
  21. Grupa fizyków z australijskiego Uniwersytetu Nowej Południowej Walii (University of New South Wales, UNSW) opracowała najszybszą bramkę kwantową w historii. Na czele zespołu stoi profesor Michelle Simmons, znana z ważnych osiągnięć na polu informatyki kwantowej. Australijczycy zbudowali dwukubitową bramkę kwantową na krzemie, która przeprowadziła operację logiczną w czasie 0,8 nanosekundy. To 200-krotnie szybciej niż inne istniejące bazujące na spinie bramki dwukubitowe. Zespół profesor Simmons bazował na swoich wcześniejszych przełomowych pracach, kiedy to dzięki niezwykłej precyzji pomiarów jako pierwsi wykazali, że dwa kubity wchodzą w interakcje. Zespół profesor Simmons jest jedynym na świecie, który potrafi dokładnie określić pozycję kubitów w ciele stałym. Australijczycy zbudowali bramkę umieszczając dwa atomy bliżej siebie niż kiedykolwiek wcześniej, a nastepnie, w czasie rzeczywistym, w sposób kontrolowany obserwując i mierząc ich spiny. Ich unikatowe podejście polega na umieszczaniu kubitów oraz całej elektroniki potrzebnej do inicjalizacji, kontroli i pomiarów ich stanów z taką precyzją, jaka do niedawna wydawała się niemożliwa. Teraz naukowcy pracują nad przełożeniem swojej technologii na praktyczne skalowalne zastosowania, które pozwolą na seryjną budowę procesorów. Rekord najdłuższej koherencji na krzemie należy do atomowych kubitów. Dzięki wykorzystaniu naszej unikatowej technologii byliśmy w stanie z wysokim stopniem dokładności odczytać i inicjalizować pojedyncze spiny elektronów w atomowych kubitach na krzemie. Wykazaliśmy tez, że nasz system charakteryzuje się najniższym szumem elektronicznym spośród wszystkich systemów wykorzystujących kubity na półprzewodniku. Teraz zoptymalizowaliśmy wszystkie elementy naszej technologii, dzięki czemu uzyskaliśmy naprawdę szybko, dokładną dwukubitową bramkę, która jest podstawowym budulcem krzemowego komputera kwantowego. Wykazaliśmy, że możliwa jest kontrola w skali atomowej i daje to olbrzymie korzyści, w tym niezwykłą prędkość działania naszego systemu, cieszy się profesor Simmons. Dziekan Wydziału Nauk Ścisłych, profesor Emma Johnston dodaje: To jeden z ostatnich kamieni milowych, jakie zespół Michelle musiał osiągnąć, by wybudować komputer kwantowy na krzemie. Ich kolejnym celem jest stworzenie 10-kubitowego obwodu scalonego. Mamy nadzieję, że osiągną to w ciągu 3–4 lat. Zespół Simmons najpierw wykorzystał skaningowy mikroskop tunelowy do określenia optymalnej odległości pomiędzy dwoma kubitami. Opracowana przez nas technologia produkcji pozwoliła na umieszczenie kubitów dokładnie tam, gdzie chcieliśmy. Dzięki temu kubitowa bramka była tak szybka, jak to tylko możliwe, mówi współautor badań Sam Gorman. Nie tylko umieściliśmy kubity bliżej niż podczas naszych poprzednich przełomowych badań, ale nauczyliśmy się kontrolować z precyzją subnanometrową wszystkie aspekty naszej architektury. Następnie naukowcy byli w stanie w czasie rzeczywistym mierzyć stany kubitów oraz – co chyba najważniejsze – kontrolowali siłę interakcji pomiędzy dwoma elektronami w przedziałach czasowych sięgających nanosekund. Mogliśmy oddalać i przybliżać do siebie elektrony i w ten sposób włączać i wyłączać interakcje pomiędzy nimi, dodaje inny uczestnik badań, Yu He. Zaprezentowana przez nas bramka kwantowa, zwaną bramką SWAP, jest idealnie przystosowana do wymiany informacji kwantowej pomiędzy kubitami, a po połączeniu z bramką z pojedynczego kubity pozwala na wykonanie dowolnego algorytmu kwantowego. Najnowsze osiągnięcie to ukoronowanie 20 lat pracy. To olbrzymi postęp. Możemy kontrolować naturę na najniższym poziomie, możemy więc tworzyć interakcje pomiędzy dwoma atomami, a także wchodzić w interakcje z jednym z nich, nie zaburzając stanu drugiego. To coś niewiarygodnego. Wiele osób sądziło, że jest to niemożliwe. Tym, co zachęcało nas do pracy było przypuszczenie, że jeśli uda się nam kontrolować zjawiska w tej skali, to będą one przebiegały niezwykle szybko. I tak rzeczywiście jest, ekscytuje się Simmons. « powrót do artykułu
  22. Po raz pierwszy w historii zmierzono dokładność dwukubitowych operacji logicznych w krzemie. Dokonał tego zespół prof. Andrew Dzuraka z Uniwersytetu Nowej Południowej Walii (UNSW), który w 2015 jako pierwszy stworzył dwukubitową bramkę logiczną w krzemie. Wszystkie obliczenia kwantowe mogą składać się z jedno- i dwukubitowych operacji. To podstawowe budulce obliczeń kwantowych. Gdy je mamy, możemy wykonać dowolne obliczenia kwantowe, jednak precyzja obu tych rodzajów obliczeń musi być bardzo wysoka, wyjaśnia profesor Dzurak. Od czasu, gdy w 2015 roku zespół Dzuraka stworzył pierwszą dwukubitową bramkę logiczną umożliwiając w ten sposób prowadzenie obliczeń z użyciem dwóch kubitów, wiele zespołów naukowych zaprezentowało podobne konstrukcje. Jednak dotychczas nie była znana dokładność obliczeń dokonywanych za pomocą takich bramek Precyzja obliczeń to kluczowy parametr, który decyduje o tym, na ile dana technologia kwantowa może zostać zastosowana w praktyce. Potęgę obliczeń kwantowych można wykorzystać tylko wtdy, jeśli operacja na kubitach są niemal idealne, dopuszczalne są minimalne błędy, mówi doktor Henry Yang, współpracownik Dzuraka. Australijscy naukowcy opracowali test oparty na geometrii Clifforda i za jego pomocą ocenili wiarygodność dwukubitowej bramki logicznej na 98%. Osiągnęliśmy tak wysoką dokładność dzięki zidentyfikowaniu i wyeliminowaniu podstawowych źródeł błędów, poprawiając w ten sposób dokładność obliczeń do takiego stopnia, że zrandomizowany test o znaczącej dokładności – tutaj 50 operacji na bramce – może zostać przeprowadzony na naszym dwukubitowym urządzeniu, dodał doktorant Wister Huang, główny autor artykułu, który opublikowano na łamach Nature. Komputery kwantowe będą mogły rozwiązać problemy, z którymi klasyczne komputery nigdy nie będą w stanie sobie poradzić. Jednak większość tych zastosowań będzie wymagała użycia milionów kubitów, więc będziemy musieli korygować błędy kwantowe, nawet jeśli będą one niewielkie. Aby korekcja tych błędów byla możliwa, same kubity muszą być niezwykle dokładne. Dlatego też podstawową rzeczą jest ocena ich dokładności. Im bardziej dokładne kubity, tym mniej będziemy ich potrzebowali, a zatem tym szybciej będziemy w stanie wyprodukować prawdziwy komputer kwantowy, dodaje profesor Dzurak. Australijczycy zauważają jeszcze jedną świetną informację, która płynie z ich badań. Otóż krzem po raz kolejny dowiódł,; że jest świetną platformą obliczeniową. Jako, że materiał ten jest wykorzystywany w przemyśle elektronicznym od niemal 60 lat jego właściwości, ograniczenia i problemy z nim związane zostały dobrze poznane, zatem już istniejące fabryki będą w stanie przestawić się na nową technologię. Jeśli okazałoby się, że dokładność kwantowych obliczeń na krzemie jest zbyt niska, to mielibyśmy poważny problem. Fakt, że wynosi ona blisko 99% to bardzo dobra wiadomość. Daje nam to możliwość dalszych udoskonaleń. To pokazuje, że krzem jest odpowiednia platformą dla prawdziwych komputerów kwantowych, cieszy się Dzurak. Myślę, że w najbliższej przyszłości osiągniemy znacznie większą dokładność i otworzymy w ten sposób drzwi do zbudowania prawdziwego odpornego na błędy komputera kwantowego. Obecnie jesteśmy bliscy granicy, poza którą w dwukubitowych systemach będzie można zastosować korekcję błędów, dodaje. Warto w tym miejscu przypomnieć, że niedawno zespół Dzuraka poinformował na łamach Nature Electronics o osiągnięciu rekordowej dokładności jednokubitowej bramki logicznej. Wyniosła ona 99,96%. « powrót do artykułu
  23. Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku. Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są. Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu. IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a. Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16. Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a. « powrót do artykułu
  24. Fizycy z Chińskiego Uniwersytetu Nauki i Technologii poinformowali o splątaniu 18 kubitów. To największa jak dotychczas liczba splątanych kubitów z zachowaniem kontroli nad pojedynczym kubitem. Jako, że każdy z kubitów może reprezentować 2 stany, możemy w tym przypadku uzyskać 262 144 kombinacje ich stanów (218). Artykuł opisujący osiągnięcie Xi-Lin Wanga i jego kolegów został opublikowany na łamach Physical Review Letters. W artykule informujemy o splątaniu 18 kubitów, co rozszerza efektywną przestrzeń Hilberta do 262 144 wymiarów z pełną kontrolą o trzech stopniach swobody dla sześciu fotonów, w tym z kontrolą ich polaryzacji, orbitalnego momentu pędu oraz drogi, stwierdził współautor badań Chao-Yang Lu. To największa jak dotąd liczba splątanych kubitów. Splątywanie coraz większej liczby kubitów interesuje nie tylko specjalistów zajmujących się badaniami podstawowymi. Stanowi to jedno z głównych wyzwań informatyki kwantowej. Istnieją dwa sposoby na splątanie większej liczby kubitów. Można albo dodawać kolejne cząstki do już splątanych, albo wykorzystywać dodatkowe stopnie swobody splątanych cząstek. Gdy korzystamy z dodatkowych stopni swobody mówimy o hipersplątaniu. Jak dotychczas największymi osiągnięciami na tym polu było splątanie 14 jonów z jednym stopniem swobody oraz pięciu fotonów z dwoma stopniami swobody, co odpowiada 10 kubitom. Mimo, że przejście od dwóch do trzech stopni swobody stanowi poważne wyzwanie, chińskim naukowcom udało się uzyskać nie tylko trzy stopnie swobody, ale i zwiększyć liczbę fotonów do sześciu, przez co uzyskali 18 splątanych kubitów. Użycie dodatkowych stopni swobody niesie ze sobą liczne korzyści. Na przykład zwiększenie z dwóch do trzech stopni swobody oznacza, że każdy foton może znajdować się nie w czterech, a w ośmiu różnych stanach. Ponadto hipersplątany 18-kkubitowy stan z trzema stopniami swobody jest o 13 rzędów wielkości bardziej efektywny niż  18-kubitowy stan składający się z 18 fotonów o pojedynczym stopniu swobody. Dzięki naszej pracy uzyskaliśmy nową platformę do optycznego przetwarzania informacji kwantowej. Możliwość kontrolowania 18 kubitów pozwala nam na przeprowadzenie niedostępnych dotychczas badań, takich jak na przykład wykorzystanie kodu Raussendorfa-Harringtona-Goyala do korekcji błędów czy teleportacji trzech stopni swobody pojedynczego fotonu, mówi Lu. « powrót do artykułu
  25. Naukowcy ze szwedzkiego Uniwersytetu Technologicznego Chalmersa poinformowali, że są jednym z pierwszych, którym udało się stworzyć materiał zdolny do przechowywania fermionów Majorany. Fermiony Majorany mogą być stabilnymi elementami komputera kwantowego. Problem z nimi jest taki, że pojawiają się w bardzo specyficznych okolicznościach. Na całym świecie trwają prace nad komputerami kwantowymi. Jednym z najpoważniejszych wciąż nierozwiązanych problemów jest niezwykła delikatność stanów kwantowych, które łatwo ulegają dekoherencji, tracąc superpozycję, czyli zdolność do jednoczesnego przyjmowania wielu wartości. Jednym z pomysłów na komputer kwantowy jest wykorzystanie do jego budowy fermionów Majorany. Para takich fermionów, umieszczonych w odległych częściach materiału, powinna być odporna na dekoherencję. Problem jednak w tym, że w ciałach stałych fermiony Majorany pojawiają się wyłącznie w nadprzewodnikach topologicznych. To nowy typ materiału, który bardzo rzadko jest spotykany w praktyce. Wyniki naszych eksperymentów zgadzają się z teoretycznymi przewidywaniami dotyczącymi topologicznego nadprzewodnictwa, cieszy się profesor Floriana Lombardi z Laboratorium Fizyki Urządzeń Kwantowych na Chalmers. Naukowcy rozpoczęli pracę od topologicznego izolatora z tellurku bizmutu (Bi2Te3). Izolatory topologiczne przewodzą prąd wyłącznie na powierzchni. Wewnątrz są izolatorami. Uczeni z Chalmers pokryli swój izolator warstwą aluminium, które w bardzo niskiej temperaturze jest nadprzewodnikiem. W takich warunkach do izolatora topologicznego przeniknęła nadprzewodząca para elektronów, przez co topologiczny izolator wykazywał właściwości nadprzewodzące, wyjaśnia profesor Thilo Bauch. Jednak wstępne pomiary wykazywały, że uczeni mają do czynienia ze standardowym nadprzewodnictwem w Bi2Te3. Gdy jednak naukowcy ponownie schłodzili swój materiał, by dokonać kolejnych pomiarów, sytuacja uległa nagłej zmianie. Charakterystyki nadprzewodzących par elektronów różniły się od siebie w zależności o kierunku. Takie zachowanie nie jest zgodne ze standardowym nadprzewodnictwem. Zaczęły zachodzić niespodziewane, ekscytujące zjawiska, mówi Lombardi. Istotnym elementem tego, co się wydarzyło był fakt, że zespół Lombardi – w przeciwieństwie do wielu innych grup, które prowadziły podobne eksperymenty – użył platyny do połączenia izolatora topologicznego z aluminium. Wielokrotne chłodzenie doprowadziło do wzrostu napięć w platynie, przez co doszło do zmian właściwości nadprzewodnictwa. Analizy wykazały, że w ten sposób najprawdopodobniej uzyskano topologiczny nadprzewodnik. « powrót do artykułu
×
×
  • Dodaj nową pozycję...