Sign in to follow this
Followers
0

Jeden, by wszystkimi rządzić. Fizycy uprościli architekturę fotonicznego komputera kwantowego
By
KopalniaWiedzy.pl, in Technologia
-
Similar Content
-
By KopalniaWiedzy.pl
Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.
« powrót do artykułu -
By KopalniaWiedzy.pl
Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
Więcej o unimonie można przeczytać na łamach Nature Communications.
« powrót do artykułu -
By KopalniaWiedzy.pl
Współpraca naukowców z Wydziału Fizyki Uniwersytetu Warszawskiego i PAN zaowocowała powstaniem pulsującego neuronu stworzonego z fotonów. To podstawowy element fotonicznego procesora sieci neuronowych. Tego typu chipy, zwane układami neuromorficznymi, mają być w przyszłości podstawą systemów sztucznej inteligencji.
Systemy fotoniczne zapewniają dużą prędkość przesyłania informacji przy jednoczesnym niewielkim zużyciu energii. Ich wadą jest zaś słabe oddziaływanie pomiędzy sobą, przez co trudno je wykorzystać do wykonywania operacji obliczeniowych. Dlatego też polscy wykorzystali ekscytony, cząstki o bardzo małej masie, z którymi fotony silnie oddziałują. Gdy fotony i ekscytony zostaną razem umieszczone we wnęce optycznej, powstaje między nimi trwały układ cyklicznej wymiany energii, który jest kwazicząstką – polarytonem.
Polarytony mogą zaś, w odpowiednich warunkach, tworzyć kondensat Bosego-Einsteina. W tym stanie skupienia zaczynają tworzyć „superatom”, zachowujący się jak pojedyncza cząstka. Opierając się na naszym ostatnim eksperymencie, jako pierwsi zauważyliśmy, że kiedy polarytony są wzbudzane za pomocą impulsów laserowych, emitują impulsy światła przypominające pulsowanie neuronów biologicznych. Efekt ten jest bezpośrednio związany ze zjawiskiem kondensacji Bosego-Einsteina, które albo hamuje, albo wzmacnia emisję impulsów, wyjaśnia doktorantka Magdalena Furman z Wydziału Fizyki UW.
Autorami modelu teoretycznego, który pozwala połączyć badania nad polarytonami z modelem neuronu są doktor Andrzej Opala i profesor Michał Matuszewski. Proponujemy wykorzystać nowy paradygmat obliczeniowy oparty na kodowaniu informacji za pomocą impulsów, które wyzwalają sygnał tylko wtedy, gdy przybędą do neuronu w odpowiednim czasie po sobie, mówi doktor Opala. Innymi słowy, taki sposób pracy takiego sztucznego neurony ma przypominać pracę neuronów biologicznych, pobudzanych impulsami elektrycznymi. W neuronie biologicznym dopiero powyżej pewnego progu impulsów docierających do neuronu, sygnał przekazywany jest dalej. Polarytony mogą naśladować neuron biologiczny, gdyż dopiero po pobudzeniu pewną liczbą fotonów powstaje kondensat Bosego-Einsteinai dochodzi do emisji sygnału do kolejnego neuronu.
Mimo niewątpliwie interesujących badań, na wdrożenie pomysłu polskich uczonych przyjdzie nam jeszcze poczekać. Kondensat Bosego-Einsteina uzyskiwali oni w temperaturę zaledwie 4 kelwinów, którą można osiągnąć w ciekłym helu. Naszym kolejnym celem jest przeniesienie eksperymentu z warunków kriogenicznych do temperatury pokojowej. Potrzebne są badania nad nowymi materiałami, które pozwolą na uzyskanie kondensatów Bosego-Einsteina także w wysokich temperaturach. W Laboratorium Polarytonowym pracujemy nie tylko nad takimi substancjami, badamy też możliwość sterowania kierunkiem emitowanych fotonów, mówi profesor Jacek Szczytko z Wydziału Fizyki UW.
W badaniach nad układami neuromorficznymi naukowcy wciąż napotykają na nowe wyzwania. Nasz nowy pomysł na odtworzenie pulsowania neuronów biologicznych w domenie optycznej, może posłużyć do stworzenia sieci, a potem układu neuromorficznego, w którym informacje przesyłane są o rzędy wielkości szybciej i w sposób bardziej efektywny energetycznie w porównaniu do dotychczasowych rozwiązań, dodaje doktor Krzysztof Tyszka.
Szczegóły pracy zostały opisane na łamach Laser & Photonics Reviews.
« powrót do artykułu -
By KopalniaWiedzy.pl
Naukowcy z Austrii i Włoch stworzyli „kwantowy memrystor”, urządzenie zdolne do przekazywania koherentnej informacji kwantowej w postaci superpozycji pojedynczych fotonów. Urządzenie takie może stać się podstawą do stworzenia kwantowej wersji architektury neuromorficznej, której działanie ma naśladować pracę ludzkiego mózgu.
Memrystor, to czwarty podstawowy typ elementu elektronicznego. Od dawna znaliśmy opornik, kondensator i cewkę. W 1971 roku profesor Leon Chua z Kalifornii wysunął hipotezę, że może istnieć czwarty element, który nazwał opornikiem pamięci czyli memrystorem. Urządzenie takie powstało niemal 40 lat później, w 2008 roku. Memrystory szybko okazały się bardziej przydatne, niż sądzono, a przed dwoma laty wykorzystano je do zbudowania urządzenia działającego podobnie jak neuron.
Badania nad tym elementem elektronicznym ciągle trwają, a najnowszym osiągnięciem jest połączenie go z technologią kwantową.
Memrystor współpracujący ze stanami kwantowymi i przekazujące kwantowe informacje został zbudowany przez uczonych z Uniwersytetu Wiedeńskiego, Politechniki Mediolańskiej i włoskiej Narodowej Rady Badawczej. Stworzono go za pomocą femtosekundowego lasera emitującego krótkie impulsy światła trwające zaledwie 10-15 sekundy. Za pomocą tych impulsów naukowcy rzeźbili w szkle falowody, kanały zdolne do więzienia lub przesyłania światła.
Michele Spagnolo i jego zespół wykorzystali falowody do przesyłania pojedynczych fotonów. Dzięki ich kwantowej naturze znajdujące się w superpozycji fotony można było w tym samym czasie wysyłać przez dwa lub więcej falowodów. Za pomocą bardzo zaawansowanych wykrywaczy pojedynczych fotonów mogliśmy dokonywać pomiaru fotonu w jednym z falowodów, a następnie wykorzystać ten pomiar do kontrolowania urządzenia modulując transmisję w innym falowodzie. W ten sposób nasze urządzenie zachowywało się jak memrystor, wyjaśnia Michele Spagnolo. Oprócz uzyskania w ten sposób zachowania typowego dla memrystora, naukowcy – za pomocą symulacji – wykazali, że sieć optyczna zawierająca kwantowe memrystory będzie zdolna do nauki rozwiązywania problemów zarówno w sposób klasyczny, jak i kwantowy. To zaś wskazuje, że kwantowy memrystor może być tym elementem, który połączy sztuczną inteligencję i komputery kwantowe.
Klasyczne memrystory są obecnie używane w badaniach nad komputerowymi platformami neuromorficznymi. Dlatego też włosko-austriacki zespół sądzi, że kwantowy memrystor może przyczynić się do powstania kwantowych sieci neuromorficznych.
Uwolnienie pełnego potencjału możliwości sztucznej inteligencji zbudowanej na systemach kwantowych to jedno z najważniejszych obecnie wyzwań fizyki kwantowej i informatyki, dodaje Spagnolo. Uczony dodaje, że jego grupa już rozpoczęła prace nad odpowiednim urządzeniem. Jej pierwszym celem jest stworzenie urządzenia składającego się z kilkunastu kwantowych memrystorów operującego na kilkunastu fotonach. To poważne wyzwanie technologiczne, przyznaje naukowiec.
« powrót do artykułu -
By KopalniaWiedzy.pl
Teleskop Webba zarejestrował pierwsze fotony. Z powodzeniem przebyły one całą drogę przez układ optyczny i trafiły do NIRCam. To jedno z najważniejszych osiągnięć zaplanowanego na trzy miesiące etapu dostrajania teleskopu. Dotychczas uzyskane wyniki odpowiadają oczekiwaniom i naziemnym symulacjom.
NIRCam to działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona zarejestruje światło z pierwszych gwiazd i galaktyk, pokaże gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Koronografy blokują światło jasnego obiektu, uwidaczniając obiekty słabo świecące. Dzięki nim astronomowie chcą dokładnie obserwować planety krążące wokół pobliskich gwiazd i poznać ich charakterystyki. NIRCam wyposażono w dziesięć czujników rtęciowo-kadmowo-telurkowych, które są odpowiednikami matryc CCD ze znanych nam aparatów cyfrowych. To właśnie NIRCam jest wykorzystywana do odpowiedniego ustawienia zwierciadła webba.
Żeby zwierciadło główne teleskopu działało jak pojedyncze lustro trzeba niezwykle precyzyjnie ustawić względem siebie wszystkie 18 tworzących je segmentów. Muszę one do siebie pasować z dokładnością do ułamka długości fali światła, w przybliżeniu będzie to ok. 50 nanometrów.
Teraz, gdy zwierciadło jest rozłożone, a instrumenty włączone, rozpoczęliśmy wieloetapowy proces przygotowywania i kalibrowania teleskopu. Będzie on trwał znacznie dłużej niż w przypadku innych teleskopów kosmicznych, gdyż zwierciadło główne Webba składa się z 18 segmentów, które muszą działać jak jedna wielka powierzchnia, wyjaśniają eksperci z NASA.
Najpierw trzeba ustawić teleskop względem jego platformy nośnej. Wykorzystuje się w tym celu specjalne systemy śledzenia gwiazd. Obecnie położenie platformy nośnej i segmentów lustra względem gwiazd nie jest ze sobą zgodne. Dlatego też wybrano jedną gwiazdę, jest nią HD 84406, względem której całość będzie ustawiana.
Każdy z 18 segmentów zwierciadła rejestruje obraz tej gwiazdy, a jako że są one w różny sposób ustawione, na Ziemię trafią różne niewyraźne obrazy. Obsługa naziemna będzie następnie poruszała każdym z segmentów z osobna, by określić, który z nich zarejestrował który z obrazów. Gdy już to będzie wiadomo, segmenty będą obracane tak, by wszystkie z uzyskanych obrazów miały podobny wspólny punkt. Stworzona w ten sposób „macierz obrazów” zostanie szczegółowo przeanalizowana.
Wówczas rozpocznie się drugi etap ustawiania zwierciadła, w ramach którego zredukowane zostaną największe błędy ustawienia. Najpierw obsługa poruszy nieco zwierciadłem wtórnym, co dodatkowo zdeformuje obrazy uzyskiwane z poszczególnych segmentów. Dzięki temu możliwe będzie przeprowadzenie analizy matematycznej, która precyzyjnie określi błędy w ułożeniu każdego z segmentów. Po skorygowaniu tych błędów otrzymamy 18 dobrze skorygowanych ostrych obrazów.
W kolejnym etapie położenie każdego z segmentów lustra będzie zmieniane tak, by generowany przezeń obraz trafił dokładnie do środka pola widzenia teleskopu. Każdy z 18 segmentów został przypisany do jednej z trzech grup (oznaczonych jako A, B i C), więc ten etap prac będzie wykonywany w grupach.
Po zakończeniu trzeciego etapu będziemy już mieli jeden obraz, jednak będzie to nadal obraz uzyskany tak, jakbyśmy nałożyli na siebie obrazy z 18 różnych teleskopów. Zwierciadło główne wciąż nie będzie działało jak jedno lustro. Rozpocznie się, przeprowadzany trzykrotnie, etap (Coarse Phasing) korygowania ustawienia segmentów lustra względem siebie. Po każdej z trzech części tego etapu ustawienia będą sprawdzane i korygowane za pomocą specjalnych elementów optycznych znajdujących się wewnątrz NIRCam (Fine Phasing). W jego trakcie obraz z poszczególnych zwierciadeł celowo będzie ustawiany poza ogniskową i prowadzone będą analizy zniekształceń. Ten ostatni proces superprecyzyjnej korekty ustawień będzie zresztą przeprowadzany rutynowo podczas całej pracy Webba.
Gdy już teleskop zostanie odpowiednio ustawiony, rozpocznie się etap dostrajania pozostałych trzech instrumentów naukowych. Wyłapane zostaną ewentualne błędy i niedociągnięcia, a specjalny algorytm pokaże, jakich poprawek trzeba dokonać. W końcu, w ostatnim etapie prac, obsługa naziemna osobno sprawdzi jakość obrazu uzyskiwanego dzięki każdemu z segmentów zwierciadła głównego i usunie ewentualne błędy.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.