Sign in to follow this
Followers
0
-
Similar Content
-
By KopalniaWiedzy.pl
„Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery.
Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan.
Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową.
Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny.
Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga.
Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen.
« powrót do artykułu -
By KopalniaWiedzy.pl
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.
« powrót do artykułu -
By KopalniaWiedzy.pl
VCSEL to najpopularniejszy typ laserów. Znajdziemy je w smartfonach, sieciach komputerowych czy urządzeniach medycznych. Emitują światło z kwantowych studni lub kropek umieszczonych pomiędzy lustrami. Studnie i kropki są niezwykle małe, ich wielkość mierzy się w ułamkach mikrometrów. To z jednej strony zaleta, pozwalająca na miniaturyzację i dużą prędkość pracy, jednak z drugiej strony rozmiar ogranicza moc lasera. Teraz, po dziesięcioleciach prac, udało się opracować rozwiązanie, które pozwoli zwiększyć moc VCSEL, znajdą więc one zastosowanie tam, gdzie stosowane dotychczas być nie mogły.
Przez dekady naukowcy próbowali zwiększyć moc VCSEL (vertical cavity surface emitting laser) poprzez wymuszenie na nich pracy grupowej. Chcieli połączyć wiele laserów w jeden, o zwielokrotnionej mocy. Niestety, minimalne niedokładności w procesach produkcyjnych powodowały, że lasery takie pracowały w niewielkich niezależnych od siebie grupach, których emisja nie była ze sobą zsynchronizowana. Niemożliwe było wiec uzyskanie spójnego promienia laserowego.
Dopiero teraz naukowcy pracujący pod kierunkiem Sebastiana Klembta z Uniwersytetu w Würzburgu i Mordechaia Segeva z Izraelskiego Instytutu Technologii Technion, opracowali metodę na wymuszanie spójnej pracy 30 VCSEL. Udało im się to dzięki ułożeniu laserów tak, by geometria całości była zgodna z tym, czego uczeni dowiedzieli się z badań nad izolatorami topologicznymi.
Izolatory topologiczne to niezwykłe materiały. Są jednorodne, a mimo to wewnątrz są izolatorami, podczas gdy ich powierzchnia jest przewodnikiem. Materiały takie odkryto dawno, ale historia ich zastosowania w laserach liczy sobie zaledwie 8 lat gdy Segev i naukowcy z Uniwersytetu w Rostocku zaprezentowali pierwszy fotoniczny izolator topologiczny. W laserze tym światło wędrowało wzdłuż krawędzi dwuwymiarowej macierzy falowodów i nie było zakłócane przez ich niedoskonałości. Kilka lat później Segev wraz z inną już grupą współpracowników pokazał, że możliwe jest zmuszenie wielu takich laserów do współdziałania. Jednak system miał poważne ograniczenia. Światło krążyło w płaszczyźnie układu, który je generował. To zaś oznaczało, że moc systemu była ograniczona przez wielkość urządzenia do emisji światła. Naukowcy porównują to do elektrowni, z której wychodzi tylko jedno gniazdko do podłączenia urządzenia.
Nowa topologiczna macierz VSCEL składa się z dwóch typów macierzy w kształcie plastra miodu, na wierzchołkach których umieszczono nanoskalowe kolumienki. Jednym z typów macierzy jest macierz rozciągnięta, drugim – ściśnięta. Uczeni stworzyli specjalny interfejs pomiędzy nimi. Gdy ma on odpowiednie parametry, otrzymujemy topologiczny interfejs, w którym światło musi przepływać pomiędzy laserami. Taki ciągły topologicznie chroniony przepływ światła powoduje, że światło każdego z laserów musi dotrzeć do wszystkich innych laserów, dzięki czemu otrzymujemy spójną wiązkę, wyjaśnia Segev. Obecnie więc światło krąży w całej macierzy, ale jest też emitowane przez każdy z laserów, wchodzących w jej skład.
Topologiczne założenia naszego lasera będą działały dla wszystkich długości fali i różnych materiałów. To, ile mikrolaserów możemy połączyć w macierz zależy wyłącznie od tego, jak mają być stosowane. Możemy stworzyć wielką macierz i powinna ona emitować spójne światło dla dużej liczby laserów. To wspaniałe, że topologia, która w przeszłości była wyłącznie dziedziną matematyki, staje się rewolucyjnym narzędziem pozwalającym na kontrolowanie i udoskonalanie laserów, cieszy się profesor Klembt.
Nasza praca to przykład potęgi topologicznego transportu światła. Niewielkie sprzężenie na płaszczyźnie wystarczy, by wymusić na macierzy indywidualnych źródeł emisji działanie w roli pojedynczego źródła, czytamy na łamach Science.
« powrót do artykułu -
By KopalniaWiedzy.pl
Wiele współczesnych komputerów kwantowych zapisuje informacje w nietrwałych stanach kwantowych, które bardzo trudno jest utrzymać i skalować. Rozwiązaniem problemu może być trwały nanomechaniczny kubit.
Kwantowe bity zbudowane z wibrujących węglowych nanorurek i par kropek kwantowych mogą być bardzo odporne na zakłócenia zewnętrzne. Tak przynajmniej wynika z obliczeń wykonanych przez Fabio Pistolesiego z francuskiego Narodowego Centrum Badań Naukowych i jego kolegów z Hiszpanii i USA. Obliczenia wskazują bowiem, że czas dekoherencji takiego nanomechanicznego kubitu były bardzo długi, co czyni tę architekturę obiecującym elementem komputerów kwantowych.
Komputery kwantowe mogą, przynajmniej teoretycznie, dokonywać wielu obliczeń znacznie szybciej niż maszyny klasyczne. Wynika to z samych zasad fizyki kwantowej. Najmniejszą jednostką informacji, jaką posługują się komputery, jest bit, reprezentowany przez cyfrę „0” lub „1”. W 4 bitach możemy zapisać 16 (24) kombinacji zer i jedynek. W komputerze klasycznym w danym momencie możemy zapisać jedną z tych kombinacji – gdyż każdy z bitów może przyjąć pozycję albo „0” albo „1” – i wykonać na niej działania.
Jednak komputery kwantowe nie korzystają z bitów, a z kubitów (bitów kwantowych). Kubitem może być np. elektron. A z praw mechaniki kwantowej wiemy, że nie ma on jednej ustalonej wartości „0” lub „1”, ale przyjmuje obie jednocześnie. To tzw. superpozycja. Zatem w komputerze kwantowym w danym momencie zapiszemy wszystkie 16 kombinacji i wykonamy na nich działania. Innymi słowy, 4-bitowy komputer kwantowy powinien być – przynajmniej w teorii – aż 16-krotnie szybszy od swojego klasycznego odpowiednika. Obecnie zaś korzystamy z procesorów 64-bitowych, więc liczba możliwych kombinacji zer i jedynek wynosi w ich przypadku 264.
Problem jednak w tym, że stany kwantowe są bardzo nietrwałe i w wyniku interakcji z czynnikami zewnętrznymi kubit może ulec dekoherencji, czyli utracić swój stan kwantowy (superpozycję) i stać się „standardową” jedynką albo zerem. Widzimy więc, jak istotny jest czas dekoherencji. Im jest on dłuższy, tym więcej czasu zostaje na przeprowadzenie obliczeń.
Obiecującymi kandydatami na kubity są obwody nadprzewodzące, jony uwięzione w pułapkach magnetycznych czy kropki kwantowe. Teraz międzynarodowa grupa uczonych przekonuje, że możliwe jest też zbudowanie stabilnego nanomechanicznego kubitu.
Kubit taki miały się składać z wiszącej węglowej nanorurki działającej jak rezonator, której wibracje zależą od stanów elektronicznych dwóch kropek kwantowych znajdujących się w samej nanorurce. Sprzężenie pomiędzy kropkami a nanorurką powoduje, że rezonator staje się silnie anharmoniczny. To oznacza, że okres drgań jest zależny od jego amplitudy. W takim rezonatorze bardzo łatwo wykryć nawet najmniejsze zmiany amplitudy. Pistolesi uważa, że właśnie amplitudę można wykorzystać do przechowywania kwantowej informacji.
Innymi słowy, najmniejsza możliwa amplituda drgań (kwantowy stan podstawowy) odpowiada „0”, a kolejna najmniejsza amplituda (pierwszy stan wzbudzenia) odpowiada „1”. Stany te można z łatwością odczytać za pomocą mikrofal. Fakt, że częstotliwość pracy oscylatora zmienia się, gdy zmienia się jego amplituda, pozwala nam na odczytywanie kubitu i manipulowanie nim, wyjaśnia swoją koncepcję Pistolesi. Uczony przekonuje, że taki kubit byłby bardzo trwały. Zanim pojawi się dekoherencja, dojdzie w nim do milionów oscylacji.
Wyniki badań, chociaż obiecujące, nie rozwiązują wszystkich problemów. Naukowcy wciąż nie wiedzą, w jaki sposób wprowadzić do takiego systemu na tyle silną anharmoniczność, by całość poddawała się kontroli.
Być może zaproponowana przez Pistolesiego architektura nigdy nie trafi do komputerów kwantowych. Jednak może się ona przydać do budowy niezwykle czułych detektorów kwantowych, gdyż oscylatory takie byłyby podatne na działanie klasycznych sił. Można by je więc wykorzystać do wykrywania niewielkich zmian przyspieszenia, pola elektrycznego czy magnetycznego.
Teraz badacze chcą zbudować zaproponowany przez siebie kubit i przetestować jego działanie.
« powrót do artykułu -
By KopalniaWiedzy.pl
Po raz pierwszy udało się dwukrotnie wykryć poruszający się pojedynczy foton, nie niszcząc go przy tym. To ważna osiągnięcie, gdyż dotychczas foton ulegał zwykle zniszczeniu podczas jego rejestrowania. Najnowsze osiągnięcie może przyczynić się do powstania szybszych i bardziej odpornych na zakłócenia sieci optycznych i komputerów kwantowych.
Zwykle wykrycie fotonu wiąże się z jego zaabsorbowaniem. Jednak foton może nieść ze sobą cenne informacje, a w takich przypadkach specjaliści woleliby mieć możliwość odczytania tych danych i przepuszczenia fotonu dalej, do miejsca docelowego. Żadna metoda detekcji nie jest w 100% skuteczna, zawsze istnieje ryzyko, że coś się prześliźnie niewykryte, mówi jeden z autorów badań, Stephan Welte, fizyk kwantowy z Instytutu Optyki Kwantowej im. Maxa Plancka w niemieckim Garching. Dlatego też możliwość niedestrukcyjnego wykrywania fotonów jest tak ważna – ustawienie detektorów jeden za drugim zwiększa szanse, że wykryjemy wszystkie interesujące nas fotony.
Dotychczas opracowano różne sposoby wykrywania fotonu bez jego niszczenia. Często polegają one na interakcji fotonu z jonem, nadprzewodzącym kubitem lub innymi systemami kwantowymi. Jednak w ten sposób możemy albo wykonać pojedynczą niedestrukcyjną rejestrację poruszającego się fotonu, albo liczne niedestrukcyjne odczyty stacjonarnego fotonu uwięzionego we wnęce.
Teraz naukowcy z Niemiec dwukrotnie wykryli pojedynczy foton wędrujący światłowodem. Wykorzystali w tym celu skonstruowany przez siebie niedestrukcyjny detektor zbudowany z pojedynczego atomu rubidu uwięzionego w odbijającej wnęce. Foton, wpadając do wnęki, odbija się od jej ścian, zmieniając stan kwantowy atomu, co można wykryć za pomocą lasera. Uczeni umieścili dwa takie detektory w odległości 60 metrów od siebie. Wykryły one ten sam foton, nie absorbując go. Welte mówi, że teoretycznie można w ten sposób wykryć pojedynczy foton nieskończoną liczbę razy, jednak w praktyce istnienie 33-procentowe ryzyko, że użycie detektora spowoduje utratę fotonu.
Nowa technologia może w przyszłości pozwolić na śledzenie trasy fotonów. Pozwoli to na przyspieszenie pracy systemów kwantowych, gdyż będziemy w stanie upewniać się, że zakodowane w fotonach informacje dotrą tam, gdzie powinny.
Powiedzmy, że chcesz wysłać kwantową informację z Monachium do Nowego Jorku. Możesz w międzyczasie wielokrotnie sprawdzać, czy foton nie został po drodze utracony, np. sprawdzając, czy dotarł do Paryża. Jeśli okaże się, że foton zgubił się po drodze, można będzie natychmiast wysłać go ponownie. Nie trzeba będzie czekać na zakończenie całej transmisji, by upewnić się, że wszystko poszło tak, jak powinno, wyjaśnia główny autor badań, Emanuele Distante.
Twórcy nowych detektorów uważają, że nie można ich będzie wykorzystać do podsłuchania kwantowej komunikacji. To jak śledzenie przesyłek. Możesz dowiedzieć się, gdzie jest paczka, ale nic nie wiesz o jej zawartości. Foton zawiera w sobie pewną kwantową informację. Możesz w sposób niedestrukcyjny go wykryć, ale nie odczytać, stwierdza Welte.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.