Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Jeden, by wszystkimi rządzić. Fizycy uprościli architekturę fotonicznego komputera kwantowego
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Międzynarodowa grupa fizyków pracująca pod kierownictwem Nuclear Physics Group z University of Surrey właśnie obaliła przekonanie, jakoby jądro ołowiu-208 było idealną sferą. Wyniki badań opublikowane na łamach Pysical Review Letters stanową wyzwanie dla założeń dotyczących struktury jądra i mają olbrzymie znaczenie dla naszego rozumienia sposobów powstawania najcięższych pierwiastków.
Ołów-208 to pierwiastek wyjątkowo stabilny, gdyż jego jądro je podwójnie magiczne. I jest najcięższych podwójnie magicznym jądrem, jakie znamy. Z modelu powłokowego możemy wywnioskować, że te jądra, których powłoki są wypełnione, mają większą energię wiązania, są zatem stabilniejsze niż inne jądra. Liczby protonów i neutronów, dla których powłoki są wypełnione, nazywane są liczbami magicznymi. Obecnie uznane liczby magiczne zarówno dla protonów jak i neutronów to 2, 8, 20, 28, 50, 82 i 126. Jeśli mamy do czynienia z jądrem, dla którego i protony i neutrony występują w liczbie magicznej, mówimy o jądrze podwójnie magicznym. 208Pb ma 82 protony i 126 neutronów.
Nowa badania pokazały, że 208Pb nie jest idealną sferą, a ma nieco wydłużony kształt, przypominający piłkę do rugby. Udało nam się połączyć cztery różne pomiary wykonane za pomocą najbardziej czułych urządzeń na świecie. Dzięki temu dokonaliśmy tej przełomowej obserwacji. To, co zobaczyliśmy, było dla nas zaskoczeniem. Dowiedliśmy, że ołów-208 nie jest sferą, jak naiwnie przypuszczano. Te wyniki rzucają wyzwanie kolegom zajmującym się teorią jądra atomowego. To ekscytujący temat przyszłych badań, mówi doktor Jack Henderson z University of Surrey.
Badacze wykorzystali spektrometr gamma GRETINA z Argonne National Laboratory w USA i zbombardowali atomy ołowiu strumieniem cząstek przyspieszonych do prędkości 10% prędkości światła. W wyniku interakcji jądra atomów ołowiu zostały wzbudzone, co pozwoliło określić ich kształt. Teraz grupa fizyków-teoretyków analizuje modele budowy jądra atomowego, gdyż eksperyment dowiódł, że jego struktura jest bardziej złożona niż sądzono. Eksperyment rzucił nowe światło na zagadnienie, o którym sądziliśmy, ze je dobrze rozumiemy i postawił przed nami nowe wyzwania. Musimy teraz odpowiedzieć na pytanie, dlaczego wyniki eksperymentu są takie, a nie inne. Jedną z możliwości jest stwierdzenie, że wibracje wzbudzonego jądra 208Pb są mniej regularne, niż dotychczas uważaliśmy. Doprecyzowujemy teraz nasze teorie, by sprawdzić, które z hipotez są prawdziwe, wyjaśnia profesor Paul Stevenson.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie.
Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa.
Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym.
Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Fizycy znaleźli nowy sposób na wejrzenie w głąb jądra atomu. Okazuje się, że można tego dokonać śledząc interakcje pomiędzy światłem a gluonami, bezmasowymi cząstkami, które pośredniczą w oddziaływaniach silnych. Nowo opracowana metoda wykorzystuje nowo odkryty rodzaj kwantowej interferencji pomiędzy różnymi cząstkami.
Protony i neutrony, z których składa się jądro atomowe, są zbudowane z kwarków. Jednak same kwarki byłyby niestabilne, potrzebują gluonów, nośnika oddziaływań silnych, które na podobieństwo kleju utrzymują je razem. Gluony są zbyt małe, byśmy mogli je dostrzec, ale wchodzą w interakcje z fotonami, w wyniku czego powstają krótko żyjące mezony ρ (rho), które rozpadają się do pionów.
Uczeni z Brookhaven National Laboratory użyli akceleratora Relativistic Heavy Ion Collider (RHIC), w którym przyspieszane są jądra atomów złota i uranu. Podróżujące jądra były otoczone chmurą spolaryzowanych fotonów. Minęły się one z olbrzymią prędkością w odległości równej kilku średnicom jądra. Dzięki tak małej odległości chmury fotonów otaczające każde z jąder weszły w interakcje z gluonami drugiego jądra. Śledząc prędkości i kąty cząstek pochodzących z tych interakcji można bardzo precyzyjnie określić polaryzację fotonów, a to z kolei pozwala na stworzenie mapy dystrybucji gluonów zarówno w kierunku polaryzacji oraz prostopadle do niego. Taka technika daje nam możliwość znacznie bardziej precyzyjnych pomiarów rozkładu gluonów.
Naukowcy badali w akceleratorze kąty i prędkości pionów o ładunku dodatnim i ujemnym pochodzących ze wspomnianych interakcji. W ten sposób mogli stworzyć szczegółową mapę rozkładu gluonów w jądrach atomów złota i uranu. Technika obserwacji jest podobna do pozytonowej tomografii emisyjnej, ale działa w skali femtometrów (10-15 m). Pozwoli ona lepiej zrozumieć, w jaki sposób gluony biorą udział w tworzeniu jądra atomowego.
Wcześniejsze badania pozwalały jedynie określić, jak daleko od centrum jądra znajduje się każdy z gluonów, gdyż brakowało wówczas precyzyjnych informacji o polaryzacji. Skutkiem tego były błędy interpretacyjne, w wyniku których tak badane jądra wydawały się większe niż wykazywały to inne eksperymenty oraz modele teoretyczne. Naukowcy rozwiązali więc zagadkę trapiącą fizyków od 20 lat. Teraz wiemy, że podczas poprzednich, mniej precyzyjnych pomiarów, mylono pęd i energię fotonu z gluonami. Uzyskane przez nas obrazy są tak precyzyjne, że możemy nawet zauważyć, gdzie w dużym jądrze znajdują się protony, a gdzie neutrony, cieszą się autorzy badań.
Ponadto wzorce interferencji pomiędzy funkcjami falowymi obserwowanych pionów wykazały, że – mimo iż miały przeciwne ładunki – były one splątane. To pierwsza eksperymentalna obserwacja interferencji między niepodobnymi cząstkami. Niewykluczone, że uda się dzięki temu opracować nowe sposoby uzyskiwania stanów splątanych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.