Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Przeprowadzono testy pierwszego uniwersalnego, programowalnego komputera kwantowego. Odbyły się one w warunkach laboratoryjnych i ujawniły sporo problemów, które muszą zostać rozwiązane, zanim tego typu komputer pojawi się poza laboratorium.

Podczas testów prowadzonych przez zespół Davida Hanneke użyto urządzenia skonstruowanego przez amerykański Narodowy Instytut Standardów i Technologii (NIST). Maszyna wykonuje obliczenia na dwóch kubitach (kwantowych bitach).

Obliczenia kwantowe były wykonywane już wcześniej, jednak dotychczas udawało się je przeprowadzać tylko dla pewnych specyficznych algorytmów. Teraz amerykańscy naukowcy pokazali, w jaki sposób wykonywać każdy rodzaj kwantowych obliczeń za pomocą tego samego urządzenia.

Jego sercem jest pokryta złotem płytka aluminium. Umieszczono na niej elektromagnetyczną pułapkę o średnicy 200 nanometrów, w której uwięziono dwa jony magnezu i dwa berylu. Magnez działa jak rodzaj "zamrażarki", eliminując niepożądane wibracje i utrzymując stabilność systemu jonów.

Całość uzupełniały lasery, w których świetle zakodowano kwantowe bramki logiczne. Seria impulsów z zakodowanymi bramkami trafia w jony, a wyniki są odczytywane przez inny laser.

Spośród nieskończonej liczby operacji, które można przeprowadzić na dwóch kubitach, wybrano 160 przypadkowych, by sprawdzić uniwersalny charakter komputera. Podczas każdej z operacji oba jony berylu były ostrzeliwane impulsami lasera, w których zakodowano 31 różnych bramek logicznych. Każdy ze 160 programów został uruchomiony 900 razy. Uzyskane wyniki porównano z teoretycznymi wyliczeniami i okazało się, że maszyna pracuje tak, jak to przewidziano. Stwierdzono, że każda bramka logiczna pracuje z ponad 90-procentową dokładnością, jednak po ich połączeniu system osiągnął dokładność około 79%. Działo się tak dlatego, że istnieją niewielkie różnice w intensywności impulsów z różnymi zakodowanymi bramkami. Ponadto impulsy muszą być rozdzielane, odbijane i przechodzą wiele innych operacji, przez co wprowadzane są kolejne błędy.

Mimo osiągnięcia dobrych rezultatów, system musi być znacznie poprawiony. Naukowcy z NIST mówią, że musi on osiągnąć dokładność rzędu 99,99% zanim trafi do komputerów. By tego dokonać należy poprawić stabilność laserów i zmniejszyć liczbę błędów wynikających z interakcji światła z komponentami optycznymi.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z International Centre for Radio Astronomy Research (ICRAR) i The University of Western Australia (UWA) we współpracy ze specjalistami z Francuskiego Narodowego Centrum Badań Kosmicznych (CNES) i laboratorium Systèmes de Référence Temps-Espace w Obserwatorium Paryskim ustanowili rekord świata dla najbardziej stabilnej transmisji światła laserowego przez atmosferę.
      Wykorzystano przy tym nowatorskie australijskie rozwiązania stabilizacji fazy w połączeniu z zaawansowanymi terminalami optycznymi. Dzięki temu przesłano światło lasera, które nie zostało zakłócone przez obecność atmosfery. "Jesteśmy w stanie korygować turbulencje w 3D, czyli w lewo-prawo, góra-dół oraz, co najważniejsze, wzdłuż trasy promienia. Nasza technologia działa tak, jakby atmosfera nie istniała. Dzięki temu możemy wysłać wysoce stabilny sygnały laserowe o wysokiej jakości", mówi główny autor badań, doktorant Benjamin Dix-Matthews z ICRAR i UWA.
      Wynikiem prac zespołu jest stworzenie najbardziej precyzyjnej metody pomiaru upływu czasu w dwóch różnych lokalizacjach.
      Doktor Sascha Schediwy w ICRAR-UWA mówi, że osiągnięcie to niesie ze sobą niezwykle ekscytujące możliwości. Jeśli będziemy mieli jeden z takich terminali optycznych na Ziemi, a drugi na satelicie krążącym wokół planety, to możemy zacząć badać podstawy fizyki. Będzie można z niedostępną wcześniej precyzją przetestować ogólną teorię względności Einsteina oraz sprawdzić, czy podstawowe stałe fizyczne podlegają zmianom w czasie.
      Jednak nowa technologia znajdzie też bardziej praktyczne zastosowania. Będzie można na przykład udoskonalić satelitarne pomiary zmiany poziomów wód czy odkrywać podziemne złoża minerałów, dodaje Schediwy. Nowy system posłuży też optycznej komunikacji. Nasza technologia może pozwolić na zwiększenie o wiele rzędów wielkości tempa komunikacji optycznej z satelitami. Przyszła generacja satelitów będzie mogła znacznie szybciej otrzymać potrzebne informacje z Ziemi, dodaje.
      Technologia, którą właśnie przetestowano, powstała na potrzeby projektu Square Kilometre Array – największego radioteleskopu na świecie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Materiały stosowane w biomedycynie muszą cechować się kontrolowaną biodegradowalnością, odpowiednią wytrzymałością i całkowitym brakiem toksyczności dla ludzkiego organizmu. Poszukiwanie takich materiałów nie jest więc prostym zadaniem. W tym kontekście naukowcy od dłuższego czasu interesują się magnezem. Wykorzystując między innymi spektroskopię anihilacji pozytonów, badaczom udało się wykazać, że magnez poddany powierzchniowej obróbce mechaniczno-ściernej uzyskuje niezbędne dla materiału biokompatybilnego właściwości.
      W ostatnim czasie coraz większe zainteresowanie zyskują materiały korodujące w sposób kontrolowany. W szczególności dotyczy to biomedycyny, gdzie stosuje się implanty wykonane z polimerów naturalnych lub syntetycznych. Ich zaletą jest łatwość dostosowania szybkości rozkładu w warunkach fizjologicznych. Z drugiej strony, właściwości mechaniczne tych materiałów ulegają pogorszeniu w środowisku organizmu ludzkiego, przez co nie nadają się do zastosowań narażonych na duże obciążenia. Z tego powodu dobrym rozwiązaniem wydają się implanty metaliczne, stworzone na bazie całkowicie nieszkodliwego dla ludzkiego organizmu magnezu.
      Ze względu na swoje właściwości mechaniczne, termiczne i elektryczne oraz biodegradowalność, a także kontrolowane tempo korozji, magnez wzbudza duże zainteresowanie badaczy zajmujących się biokompatybilnymi implantami. Pomimo tych zalet, zastosowanie magnezu jako biomateriału używanego przy produkcji implantów okazało się niełatwe ze względu na stosunkowo wysoką szybkość korozji w środowisku ludzkiego ciała. Problem ten da się jednak pokonać, stosując odpowiednie powłoki.
      W trakcie wieloletnich badań zauważono, że rozdrobnienie mikrostruktury materiałów nie tylko poprawia ich właściwości mechaniczne, ale może także wyraźnie zwiększyć odporność korozyjną. Dlatego międzynarodowy zespół naukowy, kierowany przez dr hab. Ewę Dryzek z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk w Krakowie, postawił sobie za cel ilościowe zbadanie wpływu powierzchniowej obróbki mechaniczno-ściernej SMAT (Surface Mechanical Attrition Treatment) komercyjnego magnezu na jego odporność korozyjną. W tej metodzie duża liczba twardych kulek o średnicy kilku milimetrów uderza w powierzchnię obrabianego materiału, powodując odkształcenie plastyczne warstwy przypowierzchniowej lub warstwy leżącej tuż pod nią. Odkształceniu plastycznemu towarzyszy wytworzenie dużej liczby defektów sieci krystalicznej.
      Do scharakteryzowania mikrostruktury zastosowano typowe techniki badawcze, np. mikroskopię świetlną i elektronową, dyfrakcję promieni rentgenowskich oraz elektronów rozproszonych wstecznie, a także pomiary mikrotwardości.
      Badania mikroskopowe ujawniły stopniowo zmieniającą się mikrostrukturę warstwy wierzchniej materiału powstałej podczas obróbki SMAT. Zaobserwowaliśmy znaczne rozdrobnienie ziaren w pobliżu obrobionej powierzchni. Głębiej widoczne były bliźniaki odkształcenia, których gęstość malała wraz ze wzrostem odległości od tej powierzchni – wyjaśnia dr hab. Dryzek.
      W ramach opisywanych prac po raz pierwszy użyto również spektroskopii anihilacji pozytonów PAS (Positron Annihilation Spectroscopy). Technika ta jest metodą nieniszczącą i pozwala na identyfikację defektów sieci krystalicznej na poziomie atomowym. Polega ona na tym, że gdy pozytony trafiające do próbki materiału napotykają swoje antycząstki – elektrony – anihilują i zamieniają się w fotony, które można rejestrować. Pozyton, który na swojej drodze znajdzie puste miejsce w sieci krystalicznej, może zostać schwytany, co wydłuża czas do momentu jego anihilacji. Pomiar czasu życia pozytonów daje badaczom obraz struktury próbki na poziomie atomowym.
      Celem zastosowania tej metody było, między innymi, uzyskanie informacji na temat rozkładu defektów sieci krystalicznej w warstwie powierzchniowej powstałej w wyniku obróbki SMAT, a także badanie warstwy materiału o grubości rzędu kilku mikrometrów, leżącej tuż pod obrobioną powierzchnią oraz powiązanie uzyskanych informacji z własnościami korozyjnymi. Jest to o tyle ważne, że defekty sieci krystalicznej determinują kluczowe właściwości materiałów. Z tego względu procedura ta znajduje również zastosowanie w metalurgii i technologiach półprzewodnikowych.
      Średni czas życia pozytonów w warstwie o grubości 200 mikrometrów, uzyskanej w wyniku trwającej 120 sekund obróbki SMAT, wykazuje wysoką stałą wartość 244 pikosekund. Oznacza to, że wszystkie emitowane ze źródła pozytony docierające do tej warstwy anihilują w defektach struktury, którymi są wakancje – czyli braki atomów w węzłach sieci krystalicznej – związane z dyslokacjami. Warstwa ta odpowiada silnie odkształconemu obszarowi z rozdrobnionymi ziarnami. Głębiej średni czas życia pozytonów maleje, co wskazuje na zmniejszającą się koncentrację defektów, osiągając w odległości około 1 milimetra od powierzchni wartość charakterystyczną dla dobrze wygrzanego magnezu o stosunkowo małej gęstości defektów struktury, który stanowił materiał porównawczy – opisuje szczegóły prac doktorant Konrad Skowron, główny autor artykułu i pomysłodawca badań.
      Proces SMAT w istotny sposób wpłynął także na zachowanie próbek magnezu podczas elektrochemicznych testów korozyjnych. Zmiany struktury wywołane przez SMAT zwiększyły podatność magnezu na utlenianie anodowe, intensyfikując tworzenie się powłoki wodorotlenkowej na powierzchni oraz w konsekwencji prowadząc do lepszej odporności na korozję. Potwierdzają to dane uzyskane dzięki użyciu wiązki pozytonów w Zjednoczonym Instytucie Badań Jądrowych w Dubnej. Wyniki pokazują, że oprócz granic ziaren i podziaren obecnych na powierzchni, także inne defekty krystaliczne, takie jak dyslokacje i wakancje, mogą odgrywać istotną rolę w zachowaniu korozyjnym magnezu.
      Obecnie prowadzimy analogiczne badania dla tytanu. Tytan jest metalem szeroko stosowanym w lotnictwie, motoryzacji, energetyce i przemyśle chemicznym. Służy również jako materiał do produkcji urządzeń i implantów biomedycznych. Ekonomicznie akceptowalna metoda, umożliwiająca uzyskanie czystego tytanu o mikrostrukturze gradientowej z ziarnem o wielkości nanometrycznej w warstwach przylegających do powierzchni, może otworzyć szersze perspektywy zastosowania tytanu w wyrobach ważnych dla gospodarki i dla poprawy komfortu życia człowieka – mówi dr hab. Dryzek.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Australijscy teoretycy kwantowi wykazali, że możliwe jest przełamanie obowiązującej od 60 lat bariery ograniczającej koherencję światła laserowego. Koherencja, czyli spójność wiązki światła, może być w przypadku laserów opisana jako liczba fotonów wyemitowanych jeden po drugim w tej samej fazie. To element decydujący o przydatności lasera do różnych zastosowań.
      Obowiązujące poglądy na temat spójności światła laserowego zostały nakreślone w roku 1958 przez amerykańskich fizyków, Arthura Schawlowa i Charlesa Townesa. Obaj otrzymali zresztą Nagrodę Nobla za swoje prace nad laserami. Teoretycznie wykazali, ze koherencja wiązki lasera nie może być większa niż kwadrat liczby fotonów obecnych w laserze, mówi profesor Howard Wiseman z Griffith University. Stał on na czele grupy naukowej złożonej z Griffith University i Macquarie University.
      Poczynili jednak pewne założenia odnośnie ilości energii dostarczanej do lasera oraz sposobu, w jaki jest ona uwalniana, by uformować wiązkę. Ich założenia miały wówczas sens i wciąż są prawdziwe w odniesieniu do większości laserów. Jednak mechanika kwantowa nie potrzebuje takich założeń, dodaje Wiseman.
      W naszym artykule wykazaliśmy, że prawdziwa granica koherencji, nakładana przez mechanikę kwantową, to czwarta potęga liczby fotonów przechowywanych w laserze, dodaje profesor Dominic Berry.
      Naukowcy zapewniają, że taką koherencję można osiągnąć w praktyce. Przeprowadzili bowiem symulację numeryczną i stworzyli oparty na mechanice kwantowej model lasera, który może osiągnąć ten nowy teoretyczny poziom spójności wiązki. Wiązka taka, poza spójnością, jest identyczna z wiązką konwencjonalnego lasera.
      Trzeba będzie poczekać na pojawienie się takich laserów. Udowodniliśmy jednak, że używając nadprzewodników można będzie zbudować taki laser, którego granice będą wyznaczane przez zasady mechaniki kwantowej. Obecnie ta sama technologia jest wykorzystywana do budowy komputerów kwantowych. Nasz laser może właśnie w nich znaleźć zastosowanie, mówi doktorant Travis Baker.
      Profesor Wiseman dodaje zaś, że prace jego zespołu każą postawić interesujące pytanie o możliwość skonstruowania bardziej energooszczędnych laserów. To przyniosłoby duże korzyści. Mam nadzieję, że w przyszłości będziemy mogli zbadać tę kwestię.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Grafenowe bolometry mogą całkowicie zmienić zasady gry na polu komputerów kwantowych, stwierdzają na łamach Nature fińscy naukowcy z Uniwersytetu Aalto i VTT Technical Research Centre of Finland. Stworzyli oni nowy detektor mierzący energię z niedostępnymi wcześniej dokładnością i szybkością. To może pomóc w rozwoju komputerów kwantowych i upowszechnieniu się tych maszyn poza laboratoria.
      Bolometr to urządzenie, które określa ilość promieniowania mierząc, jak bardzo zostało przez to promieniowanie ogrzane. Głównym autorem nowego niezwykle precyzyjnego bolometru jest profesor Mikko Möttönen, który pracował nad nim przez ostatnią dekadę.
      Współczesne komputery kwantowe działają dzięki pomiarom energii kubitów. Większość z nich mierzy napięcie elektryczne indukowane przez kubit. Dokonywanie takich pomiarów jest jest związane z występowaniem trzech problemów. Po pierwsze pomiary takie wymagają rozbudowanych obwodów wzmacniających napięcie, co może ograniczać możliwości skalowania systemów kwantowych. Po drugie obwody takie zużywają sporo energii. W końcu po trzecie, pomiary napięcia wprowadzają szum kwantowy, który z kolei generuje błędy w odczytach kubitów. Specjaliści zajmujący się komputerami kwantowymi od dawna mają nadzieję, że wszystkie trzy problemy można będzie rozwiązać dzięki bolometrom. A profesor Möttönen stworzył właśnie bolometr, który jest wystarczająco czuły i szybki, by sprostać takim zadaniom.
      Bolometry wchodzą do technologii kwantowych i być może ich pierwszym zadaniem będzie odczyt informacji z kubitów. Czułość i dokładność bolometrów właśnie osiągnęła poziom wymagany w takich zadaniach, mówi Möttönen.
      Przed rokiem zespół profesora Möttönena stworzył ze stopu złota i palladu bolometr, którego pomiary charakteryzował niezwykle niski poziom szumu. Jednak urządzenie pracowało zbyt wolno jak na potrzeby komputerów kwantowych. Najnowszy bolometr, którego osiągi pozwalają na zastosowanie go w komputerach kwantowych, został zbudowany z grafenu.
      Grafen charakteryzuje się bardzo niską pojemnością cieplną, co oznacza, że pozwala on na szybkie wykrywanie niewielkich zmian w poziomie energii. Dzięki temu nadaje się do pomiarów w systemach kwantowych. Grafenowy bolometr dokonuje pomiaru w czasie znacznie krótszym niż mikrosekunda, a więc szybkością pracy dorównuje obecnie używanym systemom pomiarowym. Jest jednak pozbawiony ich wad.
      Zmiana stopu złota i palladu na grafen spowodowała 100-krotne przyspieszenie pracy detektora przy zachowaniu niskiego poziomu szumów. Uważamy, że możemy jeszcze bardziej udoskonalić nasze urządzenie, mówi profesor Pertti Hakonen z Aalto.
      To bardzo ważne, gdyż pokazuje, że skoro bolometry dorównują systemom opartym na pomiarach napięcia prądu, to w przyszłości będą od nich bardziej wydaje. Możliwości obecnej technologii są ograniczone przez zasadę nieoznaczoności Heisenberga. Wynika z niej, że – przynajmniej teoretycznie – możliwe jest stworzenie bolometru p pozbawionego szumu kwantowego. Teoria nie pozwala zaś na stworzenie systemu pomiaru napięcia bez szumu kwantowego. Zatem wyższa teoretyczna dokładność, niższe zapotrzebowanie na energię oraz znacznie mniejsze rozmiary czynią z grafenowych bolometrów niezwykle obiecującą technologię, która pozwoli na wprowadzenie komputerów kwantowych pod strzechy.
      Ze szczegółami badań Finów można zapoznać się na łamach Nature.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.
      Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.
      IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.
      Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.
      IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.
      Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.
      Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.
      Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.
      Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.
      IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...