Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

IBM obiecuje, że za trzy lata powstanie 1000-kubitowy komputer kwantowy

Recommended Posts

Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.

Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.

IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.

Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.

IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.

Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.

Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.

Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.

Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.

IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
      Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
      Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
      Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
      Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
      Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
      To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
      Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
      Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji.
      Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem.
      Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie.
      W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Współczesne komputery kwantowe to bardzo skomplikowane urządzenia, które trudno jest budować, skalować, a do pracy wymagają niezwykle niskich temperatur. Dlatego naukowcy od dłuższego czasu interesują się optycznymi komputerami kwantowymi. Fotony łatwo przenoszą informację, a fotoniczny komputer kwantowy mógłby pracować w temperaturze pokojowej. Problem jednak w tym, że o ile wiadomo, jak budować pojedyncze kwantowe bramki logiczne dla fotonów, to olbrzymim wyzwaniem jest stworzenie dużej liczby bramek i połączenie ich tak, by możliwe było przeprowadzanie złożonych obliczeń.
      Jednak optyczny komputer kwantowy może mieć prostszą architekturę, przekonują na łamach Optics naukowcy z Uniwersytetu Stanforda. Proponują oni wykorzystanie lasera do manipulowania pojedynczym atomem, który z kolei – za pomocą zjawiska teleportacji kwantowej – zmieni stan fotonu. Atom taki może być resetowany i wykorzystywany w wielu bramkach kwantowych, dzięki czemu nie ma potrzeby budowania różnych fizycznych bramek, co z kolei znakomicie uprości architekturę komputera kwantowego.
      Jeśli chciałbyś zbudować komputer kwantowy tego typu, musiałbyś stworzyć tysiące kwantowych źródeł emisji, spowodować, by były nie do odróżnienia od siebie i zintegrować je w wielki obwód fotoniczny. Tymczasem nasza architektura zakłada wykorzystanie niewielkiej liczby dość prostych podzespołów, a wielkość naszej maszyny nie rośnie wraz z wielkością programu kwantowego, który jest na niej uruchamiany, wyjaśnia doktorant Ben Bartlett, główny autor artykułu opisującego prace fizyków ze Stanforda.
      Nowatorska architektura składa się z dwóch głównych elementów. Pierścień przechowujący dane to po prostu pętla ze światłowodu, w której krążą fotony. Pełni on rolę układu pamięci, a każdy foton reprezentuje kubit. Badacze mogą manipulować fotonem kierując go z pierścienia do jednostki rozpraszania. Składa się ona z wnęki optycznej, w której znajduje się pojedynczy atom. Foton wchodzi w interakcję z atomem i dochodzi do ich splątania. Następnie foton wraca do pierścienia, a laser zmienia stan atomu. Jako, że jest on splątany z fotonem, zmiana stanu atomu skutkuje też zmianą stanu fotonu. Poprzez pomiar stanu atomu możesz badać stan fotonu. W ten sposób potrzebujemy tylko 1 atomowego kubitu, za pomocą którego manipulujemy wszystkimi fotonicznymi kubitami, dodaje Bartlett.
      Jako że każda kwantowa bramka logiczna może zostać skompilowana w szereg operacji przeprowadzonych na atomie, teoretycznie można by w ten sposób uruchomić dowolny program kwantowy dysponując jednym atomowym kubitem. Działanie takiego programu polegałoby na całym ciągu operacji, w wyniku których fotony wchodziłyby w interakcje z atomowym kubitem.
      W wielu fotonicznych komputerach kwantowych bramki są fizycznymi urządzeniami, przez które przechodzą fotony, zatem jeśli chcesz zmienić sposób działania swojego programu zwykle musisz zmienić konfigurację sprzętową komputera. W przypadku naszej architektury nie musisz zmieniać sprzętu. Wystarczy, że wyślesz do maszyny inny zestaw instrukcji, stwierdza Bartlett.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
      Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
      Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
      Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
      Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
      Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
      W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy z Harvard-MIT Center for Ultracold Atoms stworzyli specjalny typ komputera kwantowego, zwany programowalnym symulatorem kwantowym, który operuje na 256 kubitach. To niezwykle ważny krok w kierunku maszyn kwantowych działających na duża skalę. Wchodzimy na teren, którego dotychczas nikt nie badał, mówi profesor Mikhail Lukin, jeden z głównych autorów badań. To zupełnie nowa część kwantowego świata.
      Połączenie bezprecedensowej liczby kubitów oraz możliwości ich programowania jest tym, co stawia nowy system na czele kwantowego wyścigu i pozwoli badać niedostępne dotychczas zagadnienia z dziedziny informatyki kwantowej. Trzeba bowiem pamiętać, że w odpowiednich warunkach dokładanie kolejnych kubitów do kwantowego systemu pozwala na wykładniczy wzrost ilości przechowywanej i przetwarzanej informacji. Liczba stanów kwantowych, jakie możemy zapisać w zaledwie 256 kubitach jest większa, niż liczba atomów w Układzie Słonecznym, wyjaśnia Sepher Ebadi, student Graduate School of Arts and Sciences i główny autor badań.
      Już teraz symulator pozwolił na przeprowadzenie obserwacji wielu egzotycznych stanów kwantowych, których nigdy wcześniej nie uzyskano. Naukowcy wykorzystali go też do badania kwantowego przejścia fazowego z niezwykle duża dokładnością, dzięki czemu poznali kolejne szczegóły działania magnetyzmu na poziomie kwantowym. Tego typu eksperymenty pozwalają zarówno udoskonalać komputery kwantowe, jak i opracowywać nowe materiały o egzotycznych właściwościach.
      Twórcy maszyny zbudowali ją w oparciu o opracowaną przez siebie platformę, która w 2017 roku osiągnęła wielkość 51 kubitów. System ten składał się z ultrazimnych atomów rubidu uwięzionych w pułapce i ułożonych w jednowymiarową matrycę za pomocą szczypiec optycznych, na które składały się promienie lasera. W nowym systemie ułożono dwuwymiarową matrycę atomów, dzięki czemu możliwe stało się zwiększenie liczby kubitów z 51 do 256. Za pomocą szczypiec optycznych naukowcy mogą układać atomy we wzory i tworzyć programowalne kształty, np. kwadraty, plastry miodu itp, uzyskując różne interakcje pomiędzy kubitami.
      Głównym elementem całości jest urządzenie zwane przestrzennym modulatorem światła, które jest wykorzystywane do nadawania kształtu optycznej powierzchni falowej, dzięki czemu uzyskujemy setki indywidualnych szczypiec optycznych. To takie samo urządzenie, jak te używane w projektorach wyświetlających obrazy na ekranie, jednak my zaadaptowaliśmy je na potrzeby naszego symulatora kwantowego, wyjaśnia Ebadi.
      Początkowe ułożenie atomów w szczypcach optycznych jest przypadkowe. Naukowcy używają więc drugiej pary szczypiec do przeciągnięcia atomów na zaplanowane pozycje. Dzięki laserom mają całkowitą kontrolę nad pozycją kubitów i mogą nimi manipulować.
      Obecnie trwają prace nad udoskonaleniem systemu poprzez poprawę kontroli nad kubitami i uczynienie go łatwiejszym w programowaniu. Naukowcy szukają też nowych zastosowań dla swojego systemu, od badania egzotycznych stanów materii kwantowej po rozwiązywanie rzeczywistych problemów, z którymi na co dzień się spotykamy.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...