Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'komputer kwantowy' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 59 wyników

  1. Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej. Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni. Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym. Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a. Ze szczegółowym opisem metody można zapoznać się na łamach arXiv. « powrót do artykułu
  2. Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii. Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu. Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex. Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów. Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber. Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki. To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin. Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra. Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni. « powrót do artykułu
  3. Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%. Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń. Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers. Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä. Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen. Więcej o unimonie można przeczytać na łamach Nature Communications. « powrót do artykułu
  4. Współczesne komputery kwantowe to bardzo skomplikowane urządzenia, które trudno jest budować, skalować, a do pracy wymagają niezwykle niskich temperatur. Dlatego naukowcy od dłuższego czasu interesują się optycznymi komputerami kwantowymi. Fotony łatwo przenoszą informację, a fotoniczny komputer kwantowy mógłby pracować w temperaturze pokojowej. Problem jednak w tym, że o ile wiadomo, jak budować pojedyncze kwantowe bramki logiczne dla fotonów, to olbrzymim wyzwaniem jest stworzenie dużej liczby bramek i połączenie ich tak, by możliwe było przeprowadzanie złożonych obliczeń. Jednak optyczny komputer kwantowy może mieć prostszą architekturę, przekonują na łamach Optics naukowcy z Uniwersytetu Stanforda. Proponują oni wykorzystanie lasera do manipulowania pojedynczym atomem, który z kolei – za pomocą zjawiska teleportacji kwantowej – zmieni stan fotonu. Atom taki może być resetowany i wykorzystywany w wielu bramkach kwantowych, dzięki czemu nie ma potrzeby budowania różnych fizycznych bramek, co z kolei znakomicie uprości architekturę komputera kwantowego. Jeśli chciałbyś zbudować komputer kwantowy tego typu, musiałbyś stworzyć tysiące kwantowych źródeł emisji, spowodować, by były nie do odróżnienia od siebie i zintegrować je w wielki obwód fotoniczny. Tymczasem nasza architektura zakłada wykorzystanie niewielkiej liczby dość prostych podzespołów, a wielkość naszej maszyny nie rośnie wraz z wielkością programu kwantowego, który jest na niej uruchamiany, wyjaśnia doktorant Ben Bartlett, główny autor artykułu opisującego prace fizyków ze Stanforda. Nowatorska architektura składa się z dwóch głównych elementów. Pierścień przechowujący dane to po prostu pętla ze światłowodu, w której krążą fotony. Pełni on rolę układu pamięci, a każdy foton reprezentuje kubit. Badacze mogą manipulować fotonem kierując go z pierścienia do jednostki rozpraszania. Składa się ona z wnęki optycznej, w której znajduje się pojedynczy atom. Foton wchodzi w interakcję z atomem i dochodzi do ich splątania. Następnie foton wraca do pierścienia, a laser zmienia stan atomu. Jako, że jest on splątany z fotonem, zmiana stanu atomu skutkuje też zmianą stanu fotonu. Poprzez pomiar stanu atomu możesz badać stan fotonu. W ten sposób potrzebujemy tylko 1 atomowego kubitu, za pomocą którego manipulujemy wszystkimi fotonicznymi kubitami, dodaje Bartlett. Jako że każda kwantowa bramka logiczna może zostać skompilowana w szereg operacji przeprowadzonych na atomie, teoretycznie można by w ten sposób uruchomić dowolny program kwantowy dysponując jednym atomowym kubitem. Działanie takiego programu polegałoby na całym ciągu operacji, w wyniku których fotony wchodziłyby w interakcje z atomowym kubitem. W wielu fotonicznych komputerach kwantowych bramki są fizycznymi urządzeniami, przez które przechodzą fotony, zatem jeśli chcesz zmienić sposób działania swojego programu zwykle musisz zmienić konfigurację sprzętową komputera. W przypadku naszej architektury nie musisz zmieniać sprzętu. Wystarczy, że wyślesz do maszyny inny zestaw instrukcji, stwierdza Bartlett. « powrót do artykułu
  5. Fizycy z Harvard-MIT Center for Ultracold Atoms stworzyli specjalny typ komputera kwantowego, zwany programowalnym symulatorem kwantowym, który operuje na 256 kubitach. To niezwykle ważny krok w kierunku maszyn kwantowych działających na duża skalę. Wchodzimy na teren, którego dotychczas nikt nie badał, mówi profesor Mikhail Lukin, jeden z głównych autorów badań. To zupełnie nowa część kwantowego świata. Połączenie bezprecedensowej liczby kubitów oraz możliwości ich programowania jest tym, co stawia nowy system na czele kwantowego wyścigu i pozwoli badać niedostępne dotychczas zagadnienia z dziedziny informatyki kwantowej. Trzeba bowiem pamiętać, że w odpowiednich warunkach dokładanie kolejnych kubitów do kwantowego systemu pozwala na wykładniczy wzrost ilości przechowywanej i przetwarzanej informacji. Liczba stanów kwantowych, jakie możemy zapisać w zaledwie 256 kubitach jest większa, niż liczba atomów w Układzie Słonecznym, wyjaśnia Sepher Ebadi, student Graduate School of Arts and Sciences i główny autor badań. Już teraz symulator pozwolił na przeprowadzenie obserwacji wielu egzotycznych stanów kwantowych, których nigdy wcześniej nie uzyskano. Naukowcy wykorzystali go też do badania kwantowego przejścia fazowego z niezwykle duża dokładnością, dzięki czemu poznali kolejne szczegóły działania magnetyzmu na poziomie kwantowym. Tego typu eksperymenty pozwalają zarówno udoskonalać komputery kwantowe, jak i opracowywać nowe materiały o egzotycznych właściwościach. Twórcy maszyny zbudowali ją w oparciu o opracowaną przez siebie platformę, która w 2017 roku osiągnęła wielkość 51 kubitów. System ten składał się z ultrazimnych atomów rubidu uwięzionych w pułapce i ułożonych w jednowymiarową matrycę za pomocą szczypiec optycznych, na które składały się promienie lasera. W nowym systemie ułożono dwuwymiarową matrycę atomów, dzięki czemu możliwe stało się zwiększenie liczby kubitów z 51 do 256. Za pomocą szczypiec optycznych naukowcy mogą układać atomy we wzory i tworzyć programowalne kształty, np. kwadraty, plastry miodu itp, uzyskując różne interakcje pomiędzy kubitami. Głównym elementem całości jest urządzenie zwane przestrzennym modulatorem światła, które jest wykorzystywane do nadawania kształtu optycznej powierzchni falowej, dzięki czemu uzyskujemy setki indywidualnych szczypiec optycznych. To takie samo urządzenie, jak te używane w projektorach wyświetlających obrazy na ekranie, jednak my zaadaptowaliśmy je na potrzeby naszego symulatora kwantowego, wyjaśnia Ebadi. Początkowe ułożenie atomów w szczypcach optycznych jest przypadkowe. Naukowcy używają więc drugiej pary szczypiec do przeciągnięcia atomów na zaplanowane pozycje. Dzięki laserom mają całkowitą kontrolę nad pozycją kubitów i mogą nimi manipulować. Obecnie trwają prace nad udoskonaleniem systemu poprzez poprawę kontroli nad kubitami i uczynienie go łatwiejszym w programowaniu. Naukowcy szukają też nowych zastosowań dla swojego systemu, od badania egzotycznych stanów materii kwantowej po rozwiązywanie rzeczywistych problemów, z którymi na co dzień się spotykamy. « powrót do artykułu
  6. Daliście się nabrać na przypadkowe przełączenie i uruchomienie Zooma na maszynie kwantowej? :) Międzynarodowy zespół naukowy wykorzystał Sycamore, kwantowy komputer Google'a, do obsługi oprogramowania wideokonferencyjnego Zoom. Eksperci mają nadzieję, że dzięki współpracy z komputerem kwantowym – który wykazał swoją przewagę w niektórych zadaniach nad komputerami klasycznymi – możliwe będzie umieszczenie uczestników rozmowy w więcej niż jednym wirtualnym pokoju. Autorzy badań nad „kwantową przewagą Zooma” twierdzą, że do jej zauważenia doszło przypadkiem. Miało to miejsce, gdyż Benedetta Brassard, fizyk kwantowa z University of Waterloo, przypadkowo połączyła Zooma z Sycamore podczas online'owego spotkania. Brassard pracuje w ramach International Fault Tolerant Benchmarking Team (FiT/BiT). Brałam udział w online'owym spotkaniu FiT/Bit i postanowiłam na chwilę przełączyć się na panel Sycamore'a, by sprawdzić, jak idą moje kwantowe obliczenia. W tym momencie Brassard otrzymała mema dotyczącego algorytmu Shora. Mem ją rozproszył i w jakiś sposób uczona podłączyła swojego Zooma do komputera kwantowego. Jedni koledzy zaczęli mnie informować, że wyłączyłam dźwięk, podczas gdy inni mnie słyszeli. Zauważyłam, że coś jest nie tak, gdy na ekranie zaczęły pojawiać mi się liczne wersje Zooma, stwierdza uczona. Jej zdaniem Sycamore zastosował znaną z mechaniki kwantowej teorię wielu światów. Jedynym sposobem na powrót sesji Zooma do świata klasycznego było wykonywanie pomiarów, czyli w tym przypadku zwracanie uwagi na to, co mówią inni, wspomina Brassard. Na szczęście uczona wiedziała, jak to zrobić. Niedawno bowiem prowadziła doktoranta, który w ramach swoich zainteresowań implementował Instagrama na komputer kwantowy D-Wave 2000Q. Naszym zadaniem było określenie optymalnej pory dnia, w której influencerzy powinni wstawiać na Instagrama poty związane z domowymi zwierzętami. Odkryliśmy, że jest to problem NP. Brassard wiedziała więc, jak przełączyć aplikację ze stanu kwantowego w klasyczny. Cała sytuacja została opisana na łamach Quantum Advances in Computing and Correlation. Autorzy badań rozpoczęli prace nad stworzeniem mechanizmu, który pozwoliłby użytkownikom Zooma na jednoczesne istnienie w wielu wirtualnych pokojach. « powrót do artykułu
  7. Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania. Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia. Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego. Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania. W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami. Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards. Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards. Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe. Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem. Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń. O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych. Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards. « powrót do artykułu
  8. Niemieccy naukowcy z Instytutu Optyki Kwantowej im. Maxa Plancka przeprowadzili operację na bramce logicznej, w której wzięły udział dwa kubity znajdujące się w dwóch różnych laboratoriach. Ich osiągnięcie to bardzo ważny krok w kierunku kwantowego przetwarzania rozproszonego. Może to pozwolić na zbudowanie modułowych systemów obliczeniowych, składających się z urządzeń stojących w różnych miejscach, ale działających jak jeden wielki komputer. Dodanie kolejnego kubitu do kwantowego komputera nie jest łatwym zadaniem. Kubity muszą być w stanie przeprowadzać operacje logiczne, a jednocześnie muszą być odizolowane od wpływów zewnętrznych (szumu), które mogą zniszczyć ich stan kwantowy. Bardzo istotnym źródłem szumu w systemach kwantowych jest interferencja pomiędzy samymi kubitami. Jeśli np. mamy system składający się z 4 kubitów, a chcemy przeprowadzić obliczenia z udziałem tylko 2 z nich, to wciąż istnienie ryzyko interakcji pomiędzy kubitami, które nie biorą udziału w obliczeniach. Im więcej zaś kubitów w systemie, tym większy problem szumu. Jednym ze sposobów poradzenia sobie z tym problemem jest rozproszenie kubitów pomiędzy różne urządzenia. To jednak wymaga zintegrowania operacji logicznych prowadzonych za pomocą tych urządzeń. Jeśli po prostu wykonamy obliczenia na jednym takim module i prześlemy wyniki do opracowania do innego modułu, to wciąż nie zwiększamy dostępnej mocy obliczeniowej, mówi Severin Daiss z Instytutu Optyki Kwantowej. Dlatego też dużym zainteresowaniem naukowców cieszy się koncepcja teleportacji za pomocą bramek kwantowych. To pomysł zgodnie z którym dane wyjściowe na kwantowej bramce logicznej są zależne od danych wejściowych na bramce, znajdującej się gdzieś indziej. Daiss i jego koledzy pracujący pod kierunkiem profesora Gerharda Rempe zaprezentowali znacząco uproszczoną technikę, która bazuje na interakcji fotonu z modułami w dwóch różnych laboratoriach. W każdym z tych laboratoriów naukowcy stworzyli wnękę optyczną zawierającą atom rubidu. Urządzenia zostały połączone światłowodem o długości 60 metrów. W celu ustanowienia bramki logicznej naukowcy wysłali foton, działający jak „latający kubit”, między obiema wnętami. Wędrował on pomiędzy nimi, dzięki czemu uzyskano splątanie jego polaryzacji ze stanem energetycznym atomów rubidu. Powstała w ten sposób bramka CNOT, której stan można odczytać mierząc stan fotonu. Ronald Hanson z Uniwersytetu Technologicznego w Delft uważa, że prace Niemców to ważny krok naprzód. Spowodowali, że foton odbił się od jednej strony, przemieścił w drugą i dokonał pomiaru. Od strony koncepcyjnej jest to niezwkle proste, a oni wykazali że to działa. Myślę, że to prawdziwa nowość na tym polu. Szczegóły eksperymentu opisano na łamach Science. « powrót do artykułu
  9. Grafenowe bolometry mogą całkowicie zmienić zasady gry na polu komputerów kwantowych, stwierdzają na łamach Nature fińscy naukowcy z Uniwersytetu Aalto i VTT Technical Research Centre of Finland. Stworzyli oni nowy detektor mierzący energię z niedostępnymi wcześniej dokładnością i szybkością. To może pomóc w rozwoju komputerów kwantowych i upowszechnieniu się tych maszyn poza laboratoria. Bolometr to urządzenie, które określa ilość promieniowania mierząc, jak bardzo zostało przez to promieniowanie ogrzane. Głównym autorem nowego niezwykle precyzyjnego bolometru jest profesor Mikko Möttönen, który pracował nad nim przez ostatnią dekadę. Współczesne komputery kwantowe działają dzięki pomiarom energii kubitów. Większość z nich mierzy napięcie elektryczne indukowane przez kubit. Dokonywanie takich pomiarów jest jest związane z występowaniem trzech problemów. Po pierwsze pomiary takie wymagają rozbudowanych obwodów wzmacniających napięcie, co może ograniczać możliwości skalowania systemów kwantowych. Po drugie obwody takie zużywają sporo energii. W końcu po trzecie, pomiary napięcia wprowadzają szum kwantowy, który z kolei generuje błędy w odczytach kubitów. Specjaliści zajmujący się komputerami kwantowymi od dawna mają nadzieję, że wszystkie trzy problemy można będzie rozwiązać dzięki bolometrom. A profesor Möttönen stworzył właśnie bolometr, który jest wystarczająco czuły i szybki, by sprostać takim zadaniom. Bolometry wchodzą do technologii kwantowych i być może ich pierwszym zadaniem będzie odczyt informacji z kubitów. Czułość i dokładność bolometrów właśnie osiągnęła poziom wymagany w takich zadaniach, mówi Möttönen. Przed rokiem zespół profesora Möttönena stworzył ze stopu złota i palladu bolometr, którego pomiary charakteryzował niezwykle niski poziom szumu. Jednak urządzenie pracowało zbyt wolno jak na potrzeby komputerów kwantowych. Najnowszy bolometr, którego osiągi pozwalają na zastosowanie go w komputerach kwantowych, został zbudowany z grafenu. Grafen charakteryzuje się bardzo niską pojemnością cieplną, co oznacza, że pozwala on na szybkie wykrywanie niewielkich zmian w poziomie energii. Dzięki temu nadaje się do pomiarów w systemach kwantowych. Grafenowy bolometr dokonuje pomiaru w czasie znacznie krótszym niż mikrosekunda, a więc szybkością pracy dorównuje obecnie używanym systemom pomiarowym. Jest jednak pozbawiony ich wad. Zmiana stopu złota i palladu na grafen spowodowała 100-krotne przyspieszenie pracy detektora przy zachowaniu niskiego poziomu szumów. Uważamy, że możemy jeszcze bardziej udoskonalić nasze urządzenie, mówi profesor Pertti Hakonen z Aalto. To bardzo ważne, gdyż pokazuje, że skoro bolometry dorównują systemom opartym na pomiarach napięcia prądu, to w przyszłości będą od nich bardziej wydaje. Możliwości obecnej technologii są ograniczone przez zasadę nieoznaczoności Heisenberga. Wynika z niej, że – przynajmniej teoretycznie – możliwe jest stworzenie bolometru p pozbawionego szumu kwantowego. Teoria nie pozwala zaś na stworzenie systemu pomiaru napięcia bez szumu kwantowego. Zatem wyższa teoretyczna dokładność, niższe zapotrzebowanie na energię oraz znacznie mniejsze rozmiary czynią z grafenowych bolometrów niezwykle obiecującą technologię, która pozwoli na wprowadzenie komputerów kwantowych pod strzechy. Ze szczegółami badań Finów można zapoznać się na łamach Nature.   « powrót do artykułu
  10. Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów. Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi. IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie. Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu. IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil. Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi. Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe. Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo. Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny. IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów. « powrót do artykułu
  11. Amerykańscy fizycy ostrzegają, że w przyszłości komputery kwantowe będą musiały być chronione grubą warstwą ołowiu lub... przechowywane głęboko pod ziemią. Są bowiem niezwykle wrażliwe na zewnętrzne zakłócenia, w tym na promieniowanie jonizujące. Promieniowanie to może znacząco skracać czas koherencji kubitów (kwantowych bitów), a to z kolei niekorzystnie wpłynie na możliwość praktycznego wykorzystania technologii kwantowych. William Oliver i jego koledzy z Massachusetts Institute of Technology (MIT) oraz Pacific Northwest National Laboratory zmierzyli i modelowali wpływ promieniowania jonizującego na aluminiowe kubity umieszczone na krzemowym podłożu. Podczas swoich eksperymentów naukowcy wykorzystali dwa kubity, które poddano działaniu dobrze znanego źródła promieniowania jonizującego, cienkiego dysku wykonanego z miedzi-64. Naukowcy mierzyli tempo dekoherencji kubitów. Badali też, jak łatwo w wyniku oddziaływania promieniowania w kubitach pojawiają się kwazicząsteczki. Uzyskane w ten sposób informacje połączyli z danymi dotyczącymi promieniowania jonizującego w laboratorium MIT, pochodzącego zarówno z promieniowania kosmicznego jak i z naturalnych izotopów radioaktywnych. W tym przypadku były to głównie izotopy obecne w betonowych ścianach laboratorium. Okazało się, że w warunkach panujących w laboratorium górna granica czasu koherencji kubitów wynosi 3–4 milisekund. Po tym czasie następuje dekoherencja, zatem kubity stają się nieprzydatne do przeprowadzania obliczeń. Uczeni zweryfikowali uzyskane wyniki za pomocą dodatkowego niezależnego eksperymentu sprawdzając, jak można kubity chronić przed promieniowaniem jonizującym. W tym eksperymencie siedem kubitów – a raczej pojemnik z chłodziwem, w którym je przechowywano – zostało otoczonych 10-centymetrową warstwą ołowiu. Podnosząc i opuszczając osłonę byli w stanie zbadać wpływ promieniowania jonizującego oraz osłony na te same kubity. Potwierdzili, że limit czasu koherencji wynosi około 4 ms. Jednocześnie odkryli, że 10-centymetrowa osłona wydłuża ten czas o około 10%. Jednak biorąc pod uwagę fakt, że istnieją silniejsze od promieniowania jonizującego źródła dekoherencji kubitów, Oliver i jego zespół wyliczają, że 10-centymetrowa osłona wydłuża czas koherencji zaledwie o 0,2%. To niewiele, ale zdaniem naukowców stosowanie takich osłon będzie koniecznością. Zmniejszenie lub pozbycie się wpływu promieniowania jonizującego będzie krytycznym elementem praktycznego wykorzystania nadprzewodzących komputerów kwantowych, napisali na łamach Nature. Jedną z opcji, przynajmniej na początku rozwoju informatyki kwantowej, mogłoby być umieszczenie komputerów pod ziemią. To jednak wymaga dalszych badań. Oliver mówi, że najlepszym rozwiązaniem będzie stworzenie kubitów, które są mniej podatne na zakłócenia. « powrót do artykułu
  12. W marcu przedstawiciele firmy Honeywell zapowiadali, że w ciągu trzech miesięcy zaprezentują najpotężniejszy komputer kwantowy na świecie. Słowa dotrzymali. Firma poinfomrmowała właśnie, że jej system uzyskał największą wartość „kwantowej objętości”. Miara Quantum Volume (QV) została opracowana przez IBM-a. Trzeba jednak podkreślić, że nie jest powszechnie akceptowaną skalą pomiaru wydajności komputerów kwantowych. Nie jest też jasne, jak ma się ona do „kwantowej supremacji” ogłoszonej przez Google'a w ubiegłym roku. Przypomnijmy, że Google ogłosił ją twierdząc, że jego komputer wykonał w ciągu 200 sekund obliczenia, na które klasyczny superkomputer potrzebowałby 10 000 lat, zatem nie wykona ich w rozsądnym czasie. Przedstawiciele IBM-a poinformowali, że to naciągane stwierdzenia, gdyż klasyczny superkomputer poradziłby sobie z nimi w 2,5 doby. QV ma być obiektywnym, niezależnym od użytego sprzętu czy rozwiązań technologicznych, sposobem pomiary wydajności komputera kwantowego. Bierze on pod uwagę liczbę kubitów, błędy pomiarowe czy wydajność komputera. Honeywell informuje, że wartość QV jego 6-kubitowego systemu wynosi 64. Zdecydowanie pokonał więc najpotężniejszy z komputerów oceniany tym systemem, IBM-owską 53-kubitową maszynę Raleigh, która osiągnęła QV=32. Mimo, że QV nie jest powszechnie akceptowaną miarą, to Honeywell uważa, że jest najlepszą z dostępnych. Bierze ona pod uwagę nie tylko liczbę dostępnych kubitów, mówi Tony Uttlej, prezes działu Quantum Solutions w Honeywell. Jak wyjaśnia, sama liczba kubitów niewiele mówi o możliwościach komputera kwantowego, gdyż w prawdziwych obliczeniach niekoniecznie odnosi się korzyści z większej liczby kubitów. Maszyna Honeywella wykorzystuje jony iterbu uwięzione w pułapce elektromagnetycznej. Kubit jest reprezentowany przez spin jonów. Całość chłodzona jest ciekłym helem do temperatur niewiele wyższych od zera absolutnego. Lasery manipulują kubitami, przeprowadzając obliczenia. Główną zaletą tego systemu i tym, co dało mu przewagę w QV jest długotrwałe – trwające kilka sekund – utrzymanie stanu kwantowego kubitów. Tak długi czas koherencji pozwala na wykonanie niezbędnych pomiarów stanu kubitów. Honeywell twierdzi zatem, że posiada najpotężniejszy komputer kwantowy na świecie. Firma ma zamiar udostępniać go komercyjnie. Inne przedsiębiorstwa będą mogły dzięki temu wykonywać złożone obliczenia. Uttley mówi, że godzina korzystania z komputera zostanie wyceniona na około 10 000 USD. Firma nie zdradza ilu ma w tej chwili klientów. Poinformowała jednak, że jednym z nich jest bank JPMorgan Chase, którego eksperci wykorzystują maszynę Honeywella do budowania modelu wykrywania oszustw bankowych. Firmy, które nie zatrudniają własnych specjalistów ds. obliczeń kwantowych mogą zaś korzystać z maszyny za pośrednictwem firm Zapata Computing i Cambridge Quantum Computing. « powrót do artykułu
  13. Scharakteryzowanie i optymalizacja obliczeń kwantowych wykonywanych przez kubity, czyli podstawowe jednostki komputera kwantowego to zadanie, jakie postawili przed sobą polscy fizycy i informatycy, zrzeszeni w projekcie TEAM-NET, kierowanym przez prof. Marka Kusia. Rezultaty ich badań będą kolejną cegiełką dołożoną do budowy komputera kwantowego, nad którym usilnie pracują naukowcy i przedsiębiorstwa z całego świata. Na realizację projektu TEAM-NET uczeni otrzymali dofinansowanie od Fundacji na rzecz Nauki Polskiej, w wysokości ponad 17 mln zł. Czym jest komputer kwantowy i czym różni się od komputera klasycznego? We współcześnie używanych na co dzień komputerach dane są zapisywane w systemie binarnym czyli poprzez sekwencje bitów, z których każdy znajduje się w jednym z dwóch stanów: 0 lub 1. Grupy takich bitów są przesyłane między różnymi podzespołami jednego komputera lub też między różnymi komputerami w sieci. Co istotne, komputer klasyczny wykonuje operacje w określonej kolejności, jedna po drugiej, i nie jest w stanie wykonywać kilku czynności jednocześnie. Dlatego im bardziej złożone jest zadanie, tym dłużej trwa szukanie rozwiązań, a do rozwiązania wielu ze współczesnych problemów moc obliczeniowa klasycznych komputerów jest już wręcz niewystarczająca. Kilka sekund zamiast kilku lat dzięki kubitom Komputery kwantowe pozwolą rozwiązywać skomplikowane problemy z wielu dziedzin nauki i przemysłu dużo szybciej i efektywniej niż najlepsze komputery klasyczne. W ciągu kilka sekund potrafią one wykonać obliczenia, które komputerowi klasycznemu mogą zająć nawet kilka lat – tłumaczy prof. Centrum Fizyki Teoretycznej PAN w Warszawie, czyli ośrodka będącego liderem projektu TEAM-NET. A to dlatego, że w komputerach kwantowych informacje zapisywane są w kubitach (od angielskiego quantum bit). Kubit od zwykłego bitu różni się tym, że nie ma ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją. Oznacza to, że jednocześnie znajduje się i w stanie 0, i w stanie 1. A zatem, kubit niesie w sobie znacznie więcej informacji niż zero-jedynkowy bit. Na dodatek, kubity mogą być ze sobą splątane: dwa kubity to już cztery splątane ze sobą wartości, trzy kubity – osiem wartości, i tak dalej. Stanów pojedynczych kubitów  nie można traktować jako niezależnych, bo zmiana jednego wpływa na wszystkie pozostałe. Właśnie dzięki splątaniu kubitów, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, co daje mu potężną moc obliczeniową. Choć sprawa komplikuje się z uwagi na konieczność „odczytania” wyników takiego obliczenia, co nieuchronnie niszczy stan kwantowy. Komputer kwantowy, gdy już powstanie, pozwoli na błyskawiczne wyszukiwanie potrzebnych informacji w ogromnych ilościach danych oraz umożliwi przeprowadzanie najbardziej skomplikowanych, wielopłaszczyznowych symulacji z nieograniczoną liczbą czynników. Technologia ta z pewnością znajdzie zastosowanie w naukach o życiu, medycynie i przemyśle farmaceutycznym, gdzie posłuży do odkrywania nowych leków. Innym sektorem oczekującym na powstanie komputerów kwantowych jest bankowość i cała branża finansowa, która skorzysta m.in. na możliwości doskonałego symulowania zachowań giełdy. Kruchość kubitów W tej chwili nie możemy jednak określić, kiedy powstanie komputer kwantowy. Wciąż mierzymy się z wieloma bardzo poważnymi ograniczeniami i nie wiadomo, kiedy uda się je przezwyciężyć. Konstrukcja działającego komputera kwantowego jest niezwykle trudna choćby ze względu na nieunikniony wpływ szumu i dekoherencji układów kwantowych – podkreśla prof. Marek Kuś. Chodzi o to, że kubity są bardzo niestabilne i ekstremalnie wrażliwe na wpływ otoczenia. Nawet najdrobniejsze wahania temperatury, hałasu, ciśnienia czy pola magnetycznego mogą prowadzić do wybicia kubitów ze stanu współzależnych superpozycji, czyli do zjawiska określanego przez fizyków jako dekoherencja. Jeśli kubity nie utrzymują stanu superpozycji, dochodzi do błędów w obliczeniach, a im więcej kubitów połączymy, tym więcej takich błędów będzie generowanych. Obecnie kubity mogą utrzymać swój stan kwantowy tylko przez około 100 mikrosekund, zanim dojdzie do dekoherencji. Z tego powodu komputery kwantowe muszą znajdować się w specjalnie przygotowanym środowisku. Wymagają m.in. chłodzenia na poziomie temperatury bliskiej zera bezwzględnego oraz umieszczenia w wysokiej próżni, pod ciśnieniem 10 mld razy niższym niż ciśnienie atmosferyczne. Oznacza to, że komputery kwantowe szybko nie zagoszczą w naszych domach czy biurach. W niedalekiej przyszłości możemy się spodziewać natomiast urządzeń zbudowanych z niewielu niedoskonałych kubitów. Nasz projekt ma na celu scharakteryzowanie mocy obliczeniowej i zbadanie możliwych praktycznych zastosowań takich urządzeń. Skupiać się będziemy nie na budowie samego urządzenia, ale na przetestowaniu jego oprogramowania i scharakteryzowaniu algorytmów, które zoptymalizują jego działanie. Aby zrealizować ten cel, utworzymy sieć współpracujących ze sobą czterech grup badawczych, zajmujących się nowatorskimi aspektami obliczeń kwantowych: kwantowym uczeniem maszynowym, kontrolą złożonych układów kwantowych, kwantową korekcją błędów i problemem identyfikacji zasobów odpowiedzialnych za tzw. przyspieszenie kwantowe – precyzuje prof. Marek Kuś. W skład konsorcjum naukowego wejdą, oprócz Centrum Fizyki Teoretycznej PAN w Warszawie, także Wydział Nauk Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego oraz Instytut Informatyki Teoretycznej i Stosowanej PAN w Gliwicach. O programie TEAM-NET Program TEAM-NET Fundacji na rzecz Nauki Polskiej pozwala na sfinansowanie interdyscyplinarnych badań naukowych, realizowanych przez sieć współpracujących zespołów badawczych, kierowanych przez wybitnych, doświadczonych naukowców. Celem tego programu jest, oprócz umożliwienia prowadzenia w Polsce nowatorskich badań naukowych, także wzmocnienie ponadregionalnej współpracy pomiędzy jednostkami naukowymi oraz budowanie kompetencji dotyczących wykorzystywania dostępnej infrastruktury i usług badawczych. Zgodnie z założeniami konkursowymi, budżet każdego zgłoszonego projektu badawczego może wynosić do 3,5 mln zł na zespół na 36 miesięcy. Finansowanie może być przyznane na okres od 36 do 48 miesięcy. Nabór wniosków do konkursu TEAM-NET był prowadzony w październiku 2018 r., a w marcu 2019 r. Fundacja na rzecz Nauki Polskiej ogłosiła jego wyniki. Do konkursu zgłoszono 39 projektów, z których po ocenie merytorycznej 11 otrzymało dofinansowanie, na łączną kwotę ponad 201 mln zł. Konkurs TEAM-NET jest realizowany przez FNP ze środków UE pochodzących z Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Inteligentny Rozwój. « powrót do artykułu
  14. Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji. Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem. Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie. W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch. « powrót do artykułu
  15. Podczas odbywającego się właśnie dorocznego spotkania Amerykańskiego Towarzystwa Fizycznego specjaliści z IBM-a poinformowali o dokonaniu trzech przełomowych kroków, dzięki którym zbudowanie komputera kwantowego stanie się możliwe jeszcze za naszego życia. Jednym z najważniejszych wyzwań stojących przed ekspertami zajmującymi się kwantowymi komputerami jest dekoherencja. To wywołana oddziaływaniem czynników zewnętrznych utrata właściwości kwantowych przez kubity - kwantowe bity. Koherencja wprowadza błędy do obliczeń kwantowych. Jednak jeśli udałoby się utrzymać kwantowe bity przez wystarczająco długi czas można by przeprowadzić korektę błędów. Eksperci z IBM-a eksperymentowali ostatnio z „trójwymiarowymi“ nadprzewodzącymi kubitami, które zostały opracowane na Yale University. Ich prace pozwoliły na dokonanie przełomu. Udało się im utrzymać stan kwantowy kubitu przez 100 mikrosekund. To 2 do 4 razy więcej niż poprzednie rekordy. A co najważniejsze, to na tyle długo by przeprowadzić korekcję błędów na kubitach 3D. Drugi z przełomowych kroków to powstrzymanie dekoherencji zwykłego „dwuwymiarowego“ kubitu przez 10 mikrosekund. W przypadku takich kubitów wystarczy to do przeprowadzenia korekcji błędów. Utrzymanie przez tak długi czas kubitu pozwoliło na dokonanie trzeciego z przełomów. Udało się bowiem przeprowadzić na dwóch kubitach operację CNOT (controlled-NOT) z dokładnością 95-98 procent. To niezwykle ważne osiągnięcie, gdyż bramka CNOT w połączeniu z prostszymi bramkami kubitowymi może być skonfigurowana do przeprowadzenia dowolnej operacji logicznej. Od połowy 2009 roku IBM udoskonalił wiele technik związanych z komputerami kwantowymi. Najprzeróżniejsze aspekty związane z takimi maszynami udoskonalono od 100 do 1000 razy. W sumie wszystkie te techniki są bardzo bliskie spełnienia minimalnych wymagań stawianych przed praktycznym komputerem kwantowym.
  16. Wynikiem współpracy uczonych z Purdue University, University of New South Wales i University of Melbourne jest najmniejszy tranzystor na świecie. Urządzenie zbudowane jest z pojedynczego atomu fosforu. Tranzystor nie tyle udoskonali współczesną technologię, co pozwoli na zbudowanie zupełnie nowych urządzeń. To piękny przykład kontrolowania materii w skali atomowej i zbudowania dzięki temu urządzenia. Pięćdziesiąt lat temu gdy powstał pierwszy tranzystor nikt nie mógł przewidzieć, jaką rolę odegrają komputery. Teraz przeszliśmy do skali atomowej i rozwijamy nowy paradygmat, który pozwoli na zaprzęgnięcie praw mechaniki kwantowej do dokonania podobnego jak wówczas technologicznego przełomu - mówi Michelle Simmons z University of New South Wales, która kierowała pracami zespołu badawczego. Niedawno ta sama grupa uczonych połączyła atomy fosforu i krzem w taki sposób, że powstał nanokabel o szerokości zaledwie czterech atomów, który przewodził prąd równie dobrze, jak miedź. Gerhard Klimeck, który stał na czele grupy uczonych z Purdue prowadzących symulacje działania nowego tranzystora stwierdził, że jest to najmniejszy podzespół elektroniczny. Według mnie osiągnęliśmy granice działania Prawa Moore’a. Podzespołu nie można już zmniejszyć - powiedział. Prawo Moore’a stwierdza, że liczba tranzystorów w procesorze zwiększa się dwukrotnie w ciągu 18 miesięcy. Najnowsze układy Intela wykorzystują 2,3 miliarda tranzystorów, które znajdują się w odległości 32 nanometrów od siebie. Atom fosforu ma średnicę 0,1 nanometra. Minie jeszcze wiele lat zanim powstaną procesory budowane w takiej skali. Tym bardziej, że tranzystor zbudowany z pojedynczego atomu ma bardzo poważną wadę - działa tylko w temperaturze -196 stopni Celsjusza. Atom znajduje się w studni czy też kanale. Żeby działał jak tranzystor konieczne jest, by elektrony pozostały w tym kanale. Wraz ze wzrostem temperatury elektrony stają się bardziej ruchliwe i wychodzą poza kanał - wyjaśnia Klimeck. Jeśli ktoś opracuje technikę pozwalającą na utrzymanie elektronów w wyznaczonym obszarze, będzie można zbudować komputer działający w temperaturze pokojowej. To podstawowy warunek praktycznego wykorzystania tej technologii - dodaje. Pojedyncze atomy działające jak tranzystory uzyskiwano już wcześniej, jednak teraz po raz pierwszy udało się ściśle kontrolować ich budowę w skali atomowej. Unikatową rzeczą, jaką osiągnęliśmy, jest precyzyjne umieszczenie pojedynczego atomu tam, gdzie chcieliśmy - powiedział Martin Fuechsle z University of New South Wales. Niektórzy naukowcy przypuszczają, że jeśli uda się kontrolować elektrony w kanale, to będzie można w ten sposób kontrolować kubity, zatem powstanie komputer kwantowy.
  17. Na University of Bristol powstał fotoniczny układ scalony, który pozwala na tworzenie i manipulowanie stanem splątanym i stanem mieszanym. Stan splatany, zachodzący pomiędzy dwoma niepołączonymi ze sobą cząsteczkami, umożliwi komputerowi kwantowemu wykonywanie obliczeń. Uczeni z Bristolu jako pierwsi pokazali, że stan splątany można uzyskać, manipulować nim i mierzyć na kawałku krzemu. Aby zbudować kwantowy komputer musimy nie tylko umieć kontrolować złożone zjawiska takie jak splątanie czy stan mieszany, ale musimy być w stanie dokonać tego w układzie scalonym - mówi profesor Jeremy O'Brien, dyrektor Centre for Quantum Photonics. Nasze urządzenie to umożliwia i wierzymy, że stanowi ono ważny krok na drodze do stworzenia optycznego komputera kwantowego - dodaje. Układ zbudowany jest z sieci kanałów, w których dokonywane są odpowiednie manipulacje fotonami. Do kości dołączonych jest osiem elektrod, których konfigurację można na bieżąco zmieniać. Dzięki tym elektrodom pary fotonów są splątywane we wszelkie możliwe sposoby i dokonywane są na nich operacje. Podobnie manipuluje się stanem mieszanym pojedynczego fotonu. Chip z Bristolu jest mniej więcej dziesięciokrotnie bardziej złożony, niż wcześniej budowane układy do manipulacji stanami kwantowymi.
  18. Na University of California, Santa Barbara, powstał pierwszy komputer kwantowy, w którym połączono procesor z pamięcią. Odtworzono zatem, tym razem jednak w maszynie kwantowej, architekturę von Neumanna. Był to pierwszy rodzaj architektury komputera (jego autorami, obok von Neumanna byli John Mauchly i John Eckert). Jej najważniejszą cechą było przechowywanie danych wraz z instrukcjami. Zanim powstała architektura von Neumanna przeprogramowywanie komputerów mogło się odbywać jedynie poprzez ich fizyczną rekonfigurację. Pojawienie się pierwszego w pełni funkcjonalnego komputera kwantowego jest wciąż bardzo odległe w czasie, jednak połączenie procesora i pamięci to ważny krok w stworzeniu kwantowej maszyny. Dzięki temu programowanie i kontrolowanie komputera staje się znacznie prostsze. Obecnie jedynym dostępnym komercyjnie urządzeniem, które do obliczeń wykorzystuje zjawiska kwantowe, jest komputer firmy D-Wave. Jego architektura przypomina jednak rozwiązania sprzed epoki pojawienia się architektury von Neumanna. Jedyny egzemplarz komputera D-Wave kupił ponoć Lockheed Martin. Każdy obecnie używany komputer bazuje na architekturze von Neumanna, a my stworzyliśmy jej kwantowy odpowiednik - mówi Matteo Mariantoni, główny autor badań. Komputer z Uniwersytetu Kalifornijskiego korzysta z obwodów elektrycznych, które są schładzane do temperatury bliskiej zeru absolutnemu. Wówczas działają jak nadprzewodniki i zachodzą w nich zjawiska kwantowe. Mariantoni mówi, że wykorzystano układy, które mogą być tworzone za pomocy współczesnych technik używanych w przemyśle półprzewodnikowym, a dzięki nadprzewodzącym obwodom możliwe było umieszczenie procesora i pamięci na jednym układzie i uzyskanie architektury von Neumanna. Wspomniany komputer to maszyna wykorzystująca dwa kubity (kwantowe bity), które komunikują się za pomocą kwantowej szyny. Każdy z kubitów jest też połączony z układem pamięci, w którym może zapisać swój obecny stan w celu jego późniejszego wykorzystania. Pamięć działa zatem tak, jak układ RAM w tradycyjnym komputerze. Kubity łączą się z pamięcią za pośrednictwem obwodów zwanych rezonatorami, które przez krótki czas mogą przechowywać stan kubitu. W kwantowej architekturze von Neumanna uruchomiliśmy kwantową transformację Fouriera oraz trzykubitową bramkę Toffoliego - kluczowe kwantowe obwody logiczne, które posłużą nam do dalszych prac nad kwantowym komptuerem - mówi Mariantoni.
  19. Fizycy z Narodowych Instytutów Standardów i Technologii (NIST) jako pierwsi w historii doprowadzili do splątania dwóch jonów za pomocą mikrofal. Dotychczas w tym celu wykorzystywano lasery. Prace te pokazują, że w przyszłości możliwe będzie zastąpienie wielkich systemów laserowych niewielkimi źródłami mikrofal, takimi jak np. wykorzystywane w telefonach komórkowych. Mikrofale już wcześniej były używane do manipulowania jonami, jednak teraz, dzięki umieszczeniu źródła ich emisji bardzo blisko jonów, w odległości zaledwie 30 mikrometrów, udało się uzyskać splątanie atomów. Możliwość splątywania cząsteczek to jeden z podstawowych warunków transportu informacji i korekcji błędów w przyszłych komputerach kwantowych. Podczas swoich prac naukowcy wykorzystali źródło mikrofal umieszczone w układzie scalonym zintegrowane z pułapką jonową oraz stołowy zestaw laserów, luster i soczewek. Zestaw ten jest dziesięciokrotnie mniejszy niż dotychczas wykorzystywane. Użycie ultrafioletowego lasera o niskiej mocy wciąż jest koniecznością, gdyż za jego pomocą chłodzi się jony i obserwuje wyniki badań. Jednak w przyszłości cały zespół lasera można będzie zminiaturyzować do rozmiarów laserów używanych np. w odtwarzaczach DVD. Możliwe, że średniej wielkości komputer kwantowy będzie przypominał telefon komórkowy połączony z urządzeniem podobnym do laserowego wskaźnika, a zaawansowane maszyny będą wielkości współczesnego peceta - mówi fizyk Dietrich Leibfried, współautor badań. Chociaż kwantowe komputery raczej nie będą urządzeniami, które każdy będzie chciał nosić przy sobie, to będą mogły używać elektroniki podobnej do tej, jaka jest obecnie wykorzystywana w smartfonach do generowania mikrofal. Podzespoły takie są dobrze znane i już obecne na rynku. Taka perspektywa bardzo nas ekscytuje - dodaje uczony. W czasie eksperymentów dwa jony zostały złapane w elektromagnetyczną pułapkę. Nad pułapką znajdował się układ scalony zawierający elektrody z azotku glinu pokrytego złotem. Elektrody były aktywowane, by wywołać impulsy promieniowania mikrofalowego oscylujące wokół jonów. Ich częstotliwość wahała się od 1 do 2 gigaherców. Mikrofale doprowadziły do powstania pola magnetycznego, które z kolei wywołało rotację spinów. Jeśli moc takiego pola magnetycznego jest w odpowiedni sposób zwiększana, można doprowadzić do splątania jonów. Metodą prób i błędów, wykorzystując przy tym zestaw trzech elektrod, udało się uczonym odnaleźć właściwy sposób manipulowania polem magnetycznym i doprowadzić do splątania. Wykorzystanie mikrofal w miejsce laserów ma i tę zaletę, że zmniejsza liczbę błędów, które są powodowane niestabilnościami w promieniu lasera oraz zapobiega pojawieniu się w jonach spontanicznej emisji wywoływanej światłem laserowym. Jednak technika mikrofalowego splątania musi zostać jeszcze udoskonalona. Uczonym z NIST udało się uzyskać splątanie w 76% przypadków. Tymczasem za pomocą lasera uzyskuje się wynik rzędu 99,3 procenta.
  20. Naukowcy z University of Southern California pokazali, w jaki sposób można poradzić sobie z jednym z najpoważniejszych przeszkód, z jakimi zmagają się specjaliści pracujący nad komputerami kwantowymi. Zespół profesora Susumu Takahashiego znacząco obniżył ryzyko pojawienia się dekoherencji. W komputerach kwantowych dane będą zapisywane w postaci kubitów i będą korzystały z praw mechaniki kwantowej. Z praw tych wiemy, że nośnik informacji nie będzie miał ustalonej wartości „0„ lub „1„ jak ma to miejsce w tradycyjnych komputerach. Będzie on przyjmował obie wartości jednocześnie. Obecnie np. w trzech bitach, z których każdy może przyjąć wartość „0„ lub „1„ możemy zapisać 8 różnych kombinacji, jednak w danym momencie zapiszemy tylko jedną z nich i na jednej wykonamy działania. W kubitach możemy zapisać jednocześnie wszystkie 8 kombinacji i jednocześnie wykonać na nich działania. Niestety, poważnym problemem jest fakt, że stany kwantowe są bardzo nietrwałe. Pod wpływem oddziaływania z czynnikami zewnętrznymi kubity tracą stany kwantowe i stają się „zwykłymi" bitami. Już wcześniej uczeni z University of British Columbia, biorąc pod uwagę wszystkie potencjalne źródła dekoherencji, przedstawili je jako funkcję temperatury, pola magnetycznego i stężenia izotopów i wyliczyli, że idealnymi warunkami dla pracy z kubitami są takie, w których uda się 1000-krotnie obniżyć oddziaływanie czynników dekoherencji. Czynniki dekoherencji możemy podzielić na dwie grupy. Jedna z nich to te, które są częściami samego systemu kubitów, a druga to czynniki zewnętrzne, pojawiające się np. z powodu niedoskonałości systemu. Zespół Takahashiego badał pojedyncze kryształy molekularnego magnesu. Magnesy takie są bardzo czyste, co eliminuje dekoherencję zewnętrzną, uczeni mogli się zatem skupić na obliczaniu dekoherencji wewnętrznej. Uczeni wykorzystali silne pole magnetyczne do obniżenia wpływu czynników dekoherencji. Po raz pierwszy byliśmy w stanie dokładnie przewidzieć i kontrolować wszystkie czynniki dekoherencji w złożonym systemie - w tym przypadku była do duża molekuła magnetyczna - mówi Phil Stamp z University of British Columbia. To znacząco zwiększyło siłę sygnału kubitu, co z kolei spowodowało, że jego wykrycie stało się znacznie łatwiejsze - stwierdził Takahashi. Eksperymenty wykazały, że możliwe jest utrzymanie idealnych warunków dla kubitu przez około 500 mikrosekund. To bardzo długo, dlatego też uczeni mówią o przełomie w badaniach nad komputerami kwantowymi.
  21. Fizycy z Uniwersytetu Kalifornijskiego w Santa Barbara (UCSB) oraz niemieckiego Uniwersytetu w Konstancji dokonali przełomowego odkrycia w dziedzinie wykorzystania diamentów w fizyce kwantowej. Ich prace mogą znaleźć zastosowanie w komputerach kwantowych. Uczonym udało się przesłać kwantową informację z elektronu w diamencie do sąsiedniego jądra atomu i z powrotem przy użyciu układu scalonego. Już przed dwoma laty informowaliśmy, że profesor Marshall Stoneham z Londyńskiego Centrum Nanotechnologii na University College London stwierdził, iż diament będzie dla komputerów kwantowych tym, czym krzem jest dla współczesnych maszyn. To odkrycie może być użyteczne przy opracowywaniu atomowej wielkości elementów pamięci komputera kwantowego, bazujących na diamencie. Stany subatomowe są bowiem lepiej izolowane od destrukcyjnych wpływów zewnętrznych - mówi profesor David Awschalom z UCSB. Uczony dodaje, że badania wspomniane badania dowiodły, iż możliwe jest przeprowadzenie operacji o wysokim stopniu niezawodności na kwantowej bramce, co pozwala na przesłanie w temperaturze pokojowej pełnej kwantowej informacji pomiędzy spinem elektronu a spinem jądra atomu. Cały proces jest skalowalny, co otwiera drogę do budowy kwantowych układów pamięci. Azot to jedno z najczęściej spotykanych zanieczyszczeń diamentów. Gdy atom azotu w diamencie sąsiaduje z pustym miejscem w strukturze krystalicznej, wprowadzany tam dodatkowy element zapewnia nadmiarowy elektron, który zostaje uwięziony w dziurze. Już wiele lat temu wiedziano, jak zmienić spin takiego elektronu i wykorzystać to jako kwantowy bit. Teraz profesor Awschalom odkrył, w jaki sposób można powiązać spin elektronu ze spinem sąsiadującego jądra azotu. Szczególnie interesujący jest fakt, że atom azotu jest tutaj częścią niedoskonałości, a to oznacza, że takie subatomowe elementy pamięci będą się automatycznie skalowały w zależności od liczby bitów w komputerze kwantowym - stwierdził Greg Fuchs, jeden z głównych autorów badań. Naukowców wciąż czekają poważne wyzwania. Jednym z nich jest znalezienie sposobu na szybki transfer informacji z atomów azotu, zanim ulegną one dekoherencji.
  22. Kanadyjska firma D-Wave Systems sprzedała swój pierwszy komputer kwantowy. Urządzenie wartości 10 milionów dolarów kupił Lockheed Martin. O komputerze D-Wave One tak naprawdę niewiele wiadomo. Firma twierdzi, że wykorzystuje 128-kubitowy procesor umieszczony w kriogenicznej komorze znajdującej się w pomieszczeniu o powierzchni 10 metrów kwadratowych. Mózgiem systemu jest proceso Rainier wykorzystujący technikę „kwantowego wyżarzania" (quantum annealing). Polega ona na znalezieniu najmniejszego elementu z grupy możliwych rozwiązań. Procesor został zaprogramowany za pomocą języka Python. Jednak krytycy zauważają, że w artykule, który ukazał się w Nature zaprezentowano jedynie „nieklasyczne zjawiska" (a zatem takie, które mogą być zjawiskami kwantowymi) na systemie składającym się z 8 kubitów. Profesor Scott Aaronson z MIT-u, znany krytyk firmy D-Wave, mówi: „W swojej nowej pracy zastosowali wyżarzanie kwantowe na ośmiu kubitach połączonych w łańcuch, później wykreślili prawdopodobieństwo konkretnego stanu wyjściowego jako funkcję w czasie poprzez wielokrotne uruchamianie obliczeń i zatrzymywanie ich w wyznaczonych punktach pośrednich. Później sprawdzili jak wygląda w czasie wykres prawdopodobieństwa w stosunku do trzeciego parametru, czyli temperatury i ogłosili, że krzywa temperatury jest zależna od przeprowadzanych operacji numerycznych, co wskazuje na zjawiska z dziedziny mechaniki kwantowej, ale nie wskazuje to jednoznacznie na kwantowe wyżarzanie". Kwantowe wyżarzanie prawdopodobnie zachodzi w procesorze Rainier, ale nie jest jasne, na ile jest ono użyteczne. Wiadomo też, że w systemie D Wave nie dochodzi do splątania kwantowego. Lockheed Martin kupując D Wave One chce prawdopodobnie zostać partnerem kanadyjskiej firmy. Koncern ma duże doświadczenie z najbardziej wydajnymi platformami obliczeniowymi, a jego inwestycję należy traktować bardziej jako wydatek naukowo-badawczy niż inwestycję w produkcję.
  23. Uczeni z Uniwersytetu w Innsbrucku stworzyli największy na świecie rejestr kwantowy. Udało im się splątać aż 14 kubitów (kwantowych bitów). Dotychczasowy rekord w liczbie splątanych kwantowych bitów należał do profesora Rainera Blatta z tej samej uczelni. W roku 2005 splątał on 8 bitów, tworząc kwantowy bajt. Teraz jego koledzy, pracujący pod kierunkiem Thomasa Monza splątali 14 atomów wapnia umieszczonych w pułapce, a potem manipulowali nimi za pomocą światła lasera. Każdy z atomów reprezentował jeden kubit, zatem powstał 14-kubitowy rejestr. Austriaccy uczeni mają jednak znacznie większe ambicje. Nauczyli się już, w jaki sposób uwięzić w jonowej pułapce 64 cząstki. Na razie nie potrafimy ich ze sobą splątać. Jednak nasze najnowsze osiągnięcie pozwala nam lepiej zrozumieć zachowanie licznych splątanych cząstek - mówi Monz. Warto tutaj przypomnieć, że niedawno Rainer Blatt i jego koledzy zaprezentowali kwantowe anteny, czyli urządzenia pozwalające na wymianę informacji pomiędzy kwantowymi rejestrami umieszczonymi na tym samym układzie scalonym. Wszystkie te odkrycia to ważne kroki na drodze do skonstruowania praktycznych kwantowych urządzeń przetwarzających informacje - mówi Blatt.
  24. Międzynarodowemu zespołowi naukowców udało się usunąć kolejną przeszkodę stojącą na drodze do stworzenia komputerów kwantowych. Uczeni znakomicie uprościli testowanie kwantowych systemów. Wyobraźmy sobie, że budujemy samochód, ale nie możemy przeprowadzić testów, jak sprawuje się on na drodze. W takiej sytuacji znajdują się inżynierowie pracujący nad systemami kwantowymi - mówi jeden z autorów badań, doktor Alessandro Fedrizzi z australijskiego University of Queensland. Uczony ma tutaj na myśli fakt, że przetestowanie 8-kubitowego systemu kwantowego wymaga przeprowadzenia ponad... miliarda pomiarów. Fedrizzi informuje, że wraz z kolegami z Princeton University, MIT-u oraz firmy SC Solutions zaadaptował matematyczną metodę odtwarzania brakującej informacji, wykorzystywaną np. w systemach kompresji danych. Po raz pierwszy wykorzystano ją do badania systemów kwantowych. Badacze sprawdzili swoją metodę na fotonicznym 2-kubitowym komputerze kwantowym. Wykazali, że do uzyskania wysoce wiarygodnych wyników wystarczy przeprowadzenie 18 pomiarów, w miejsce 240 jakie były dotychczas konieczne.
  25. Naukowcy z Oxford University dokonali znaczącego kroku w kierunku budowy kwantowych komputerów. Po raz pierwszy w historii udało im się uzyskać na krzemie 10 miliardów splątanych kwantowo par elektron-atom. Uczeni wykorzystali pole magnetyczne oraz niską temperaturę do splątania elektronów z jądrami atomów fosforu umieszczonymi na krysztale krzemu. Każda z takich par, a właściwie jej spin, może przechowywać jeden bit kwantowej informacji. W pracach brali udział uczeni z Wielkiej Brytanii, Japonii, Kanady i Niemiec. Kluczowe było zestrojenie spinów za pomocą pola magnetycznego i niskiej temperatury. Później za pomocą precyzyjnych impulsów mikrofal oraz fal radiowych można spowodować, by spiny weszły w interakcję, doprowadzając do splątania, a następnie udowodnić, że do niego doszło - mówi Stephanie Simmons, główna autorka badań. Osiągnięcie jest tym bardziej ważne, że do uzyskanna par użyto materiałów, które już obecnie są wykorzystywane w przemyśle półprzewodnikowym, a zatem samo zintegrowanie istniejącej technologii z już istniejącymi nie powinno stanowić większego problemu. Stworzenie 10 miliardów stabilnych splątanych par w krzemie to dla nas ważny krok. Teraz musimy zastanowić się, jak połączyć te pary, by zbudować skalowalny komputer kwantowy - stwierdził doktor John Morton.
×
×
  • Dodaj nową pozycję...