Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Jeden, by wszystkimi rządzić. Fizycy uprościli architekturę fotonicznego komputera kwantowego
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
W Thomas Jefferson National Accelerator Facility dokonano pierwszych w historii pomiarów gluonów wewnątrz jądra atomowego. To duży krok w kierunku poznania rozkładu pola gluonowego (pola Yanga-Millsa) wewnątrz protonu, cieszy się jeden z członków zespołu badawczego, profesor Axel Schmidt z George Washington University. Jesteśmy na pograniczu wiedzy o „kleju atomowym”. W zasadzie nic o tym nie wiemy, więc przydatna jest każda nowa informacja. To jednocześnie niezwykle ekscytujące i bardzo trudne, dodaje profesor Or Hen z MIT.
Gluony to cząstki elementarne pośredniczące w oddziaływaniach silnych. Są „klejem” zlepiającym kwarki, z których powstają protony i neutrony. Z wcześniejszych badań wiemy, jaki jest rozkład gluonów w swobodnych – niezwiązanych w jądrze atomowym – protonach i neutronach. Nie wiemy jednak, jak wygląda on, gdy protony i neutrony znajdują się wewnątrz jądra. Tymczasem na początku lat 80. XX wieku zauważono, że kwarki wewnątrz protonów i neutronów znajdujących się w jądrze atomowym poruszają się wolniej, niż kwarki w swobodnych nukleonach. To zdumiewające zjawisko, nazwane efektem EMC, nie zostało dotychczas wyjaśnione. Naukowcy, którzy chcą się o nim więcej dowiedzieć, badają gluony podobnie, jak badają kwarki. Jednak pomiar rozkładu elektrycznie obojętnych gluonów jest daleko trudniejszy, niż posiadających ładunek kwarków.
Naukowcy z Jefferson Lab przyjrzeli się gluonom i kwarkom, wykorzystując w tym celu mezon J/ψ, czyli czarmonium. Cząstkę tę można uzyskać ostrzeliwując protony i neutrony fotonami. Czarmonium szybko rozpada się na elektron i pozyton. Wykrywanie par elektron-pozyton pozwala obliczyć, ile mezonów J/ψ powstało. Jako że w skład czarmonium wchodzi kwark powabny, którego nie ma w żadnym z nukleonów, wiadomo, że czarmonium powstaje w wyniku interakcji fotonu z gluonem.
Żeby uzyskać czarmonium w wyniku ostrzeliwania swobodnych protonów fotonami – co wcześniej robiono już w Jefferson Lab – trzeba wykorzystać strumień fotonów o dużej energii, co najmniej 8,2 GeV (gigaelektronowoltów). Jednak autorzy najnowszych badań otrzymali czarmonium korzystając z fotonów o mniejszych energiach.
Było to możliwe dzięki temu, że jako cel wykorzystali jądra deuteru, helu i węgla. Nukleony w jądrach atomowych, w przeciwieństwie do swobodnych nukleonów używanych jako cel stacjonarny w badaniach, poruszają się. Doszło więc do połączenia energii kinetycznej poruszającego się nukleonu z energią kinetyczną fotonu, która była poniżej wymaganego minimum, co w rezultacie dało energię powyżej minimum, wystarczającą do powstania czarmonium.
Dzięki takiemu rozwiązaniu uczeni z USA stali się pierwszymi, którzy zbadali fotoprodukcję mezonu J/ψ poniżej minimalnej energii fotonów wymaganej przy stacjonarnym protonie. A ponieważ ich celem były atomy, mierzyli w ten sposób gluony w protonach i neutronach znajdujących się w jądrze atomowym.
Podstawowa trudność w przeprowadzeniu takiego eksperymentu polegała na tym, że nikt wcześniej nie próbował czegoś podobnego, nie wiadomo więc było, w jaki sposób eksperyment przygotować, ani czy w ogóle jest on możliwy. Udało się w olbrzymiej mierze dzięki doktorowi Jacksonowi Pybusowi z Los Alamos National Laboratory. W ramach swojej pracy magisterskiej na MIT wykonał analizę teoretyczną, która zaowocowała zaprojektowaniem odpowiedniego badania. To unikatowe badania zarówno z punktu widzenia z fizyki, jak i techniki eksperymentalnej opracowanej przez magistranta. Nikt z nas, z wyjątkiem Jacksona, nie byłby w stanie tego zrobić, przyznają autorzy badań.
Gdy naukowcy porównali wyniki pomiarów z teoretycznymi obliczeniami, okazało się, że podczas eksperymentu powstało więcej czarmonium, niż przewiduje teoria. To dowodzi, że gluony w związanych nukleonach zachowują się inaczej, niż w nukleonach swobodnych. Potrzeba jednak znacznie więcej badań, by stwierdzić, na czym polegają te różnice. Jednak teraz, gdy wiadomo, w jaki sposób należy przygotować odpowiednie eksperymenty, prowadzenie takich pomiarów będzie łatwiejsze.
Źródło: First Measurement of Near-Threshold and Subthreshold J/ψ Photoproduction off Nuclei
« powrót do artykułu -
przez KopalniaWiedzy.pl
Ciemna materia, hipotetyczna materia, która ma stanowić 85% masy kosmosu, wciąż nie została znaleziona. Nie wiemy, z czego się składa, a przekonanie o jej istnieniu pochodzi z obserwacji efektów grawitacyjnych, których obecności nie można wyjaśnić zwykłą materią. Dlatego też co jakiś czas pojawiają się hipotezy opisujące, z czego może składać się ciemna materia. Jedną z nich przedstawili właśnie na lamach Physical Review Letters dwaj uczeni z Dartmouth College. Ich zdaniem ciemna materia może być zbudowana z niemal bezmasowych relatywistycznych cząstek, podobnych do światła, które w wyniku zderzeń utworzyły pary, straciły energię, a zyskały olbrzymią masę.
Ciemna materia rozpoczęła istnienie jako niemal bezmasowe relatywistyczne cząstki, niemal jak światło. To całkowita antyteza tego, jak się obecnie postrzega ciemną materię – to zimne grudki nadające masę galaktykom. Nasza teoria próbuje wyjaśnić, jak przeszła ona ze światła do grudek, mówi profesor fizyki i astronomii Robert Caldwell. Jest on współautorem badań przeprowadzonych z magistrantem fizyki i matematyki Guanmingiem Liangiem.
Po Wielkim Wybuchu wszechświat zdominowany był przez gorące szybko poruszające się cząstki podobne do fotonów. W tym chaosie olbrzymia liczba cząstek utworzyła pary. Zgodnie z ich hipotezą, cząstki były przyciągane do sobie dzięki temu, że ich spiny były zwrócone w przeciwnych kierunkach. Utworzone pary schładzały się, a nierównowaga ich spinów prowadziła do gwałtownej utraty energii. W wyniku tego procesu powstały zimne ciężkie cząstki, które utworzyły ciemną materię. Właśnie ten spadek energii, który wyjaśniał przejście z wysokoenergetycznych gorących cząstek do nierównomiernie rozłożonych zimnych grudek, jest najbardziej zaskakującym efektem działania zastosowanego przez uczonych modelu matematycznego.
To przejście fazowe pozwala na wyjaśnienie olbrzymiej ilości ciemnej materii we wszechświecie. Autorzy badań wprowadzają w swojej teorii teoretyczną cząstkę, która miała zainicjować przejście do cząstek ciemnej materii. Jednak nie jest to zjawisko nieznane. Wiadomo, że cząstki subatomowe mogą przechodzić podobne zmiany. Na przykład w niskich temperaturach dwa elektrony mogą utworzyć pary Coopera. Zdaniem Caldwella i Lianga to dowód, że ich hipotetyczne cząstki również mogłyby zostać skondensowane do ciemnej materii.
Poszukaliśmy w nadprzewodnictwie wskazówek, czy pewne interakcje mogą prowadzić do tak gwałtownego spadku energii. Pary Coopera to dowód, że taki mechanizm istnieje, mówi Caldwell. Liang zaś obrazowo porównuje takie przejścia jako zamianę od gorącego espresso do owsianki.
Badacze zapewniają, że ich model matematyczny jest prosty. Na jego podstawie można przypuszczać, że wspomniane cząstki będzie widać w mikrofalowym promieniowaniu tła (CMB). Zdaniem naukowców, można go będzie przetestować już wkrótce, dzięki obecnie prowadzonym i przyszłym badaniom CMB.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
Bramki zostały szczegółowo opisane na łamach Physical Review Applied.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Międzynarodowa grupa fizyków pracująca pod kierownictwem Nuclear Physics Group z University of Surrey właśnie obaliła przekonanie, jakoby jądro ołowiu-208 było idealną sferą. Wyniki badań opublikowane na łamach Pysical Review Letters stanową wyzwanie dla założeń dotyczących struktury jądra i mają olbrzymie znaczenie dla naszego rozumienia sposobów powstawania najcięższych pierwiastków.
Ołów-208 to pierwiastek wyjątkowo stabilny, gdyż jego jądro jest podwójnie magiczne. I jest najcięższych podwójnie magicznym jądrem, jakie znamy. Z modelu powłokowego możemy wywnioskować, że te jądra, których powłoki są wypełnione, mają większą energię wiązania, są zatem stabilniejsze niż inne jądra. Liczby protonów i neutronów, dla których powłoki są wypełnione, nazywane są liczbami magicznymi. Obecnie uznane liczby magiczne zarówno dla protonów jak i neutronów to 2, 8, 20, 28, 50, 82 i 126. Jeśli mamy do czynienia z jądrem, dla którego i protony i neutrony występują w liczbie magicznej, mówimy o jądrze podwójnie magicznym. 208Pb ma 82 protony i 126 neutronów.
Nowa badania pokazały, że 208Pb nie jest idealną sferą, a ma nieco wydłużony kształt, przypominający piłkę do rugby. Udało nam się połączyć cztery różne pomiary wykonane za pomocą najbardziej czułych urządzeń na świecie. Dzięki temu dokonaliśmy tej przełomowej obserwacji. To, co zobaczyliśmy, było dla nas zaskoczeniem. Dowiedliśmy, że ołów-208 nie jest sferą, jak naiwnie przypuszczano. Te wyniki rzucają wyzwanie kolegom zajmującym się teorią jądra atomowego. To ekscytujący temat przyszłych badań, mówi doktor Jack Henderson z University of Surrey.
Badacze wykorzystali spektrometr gamma GRETINA z Argonne National Laboratory w USA i zbombardowali atomy ołowiu strumieniem cząstek przyspieszonych do prędkości 10% prędkości światła. W wyniku interakcji jądra atomów ołowiu zostały wzbudzone, co pozwoliło określić ich kształt. Teraz grupa fizyków-teoretyków analizuje modele budowy jądra atomowego, gdyż eksperyment dowiódł, że jego struktura jest bardziej złożona niż sądzono. Eksperyment rzucił nowe światło na zagadnienie, o którym sądziliśmy, ze je dobrze rozumiemy i postawił przed nami nowe wyzwania. Musimy teraz odpowiedzieć na pytanie, dlaczego wyniki eksperymentu są takie, a nie inne. Jedną z możliwości jest stwierdzenie, że wibracje wzbudzonego jądra 208Pb są mniej regularne, niż dotychczas uważaliśmy. Doprecyzowujemy teraz nasze teorie, by sprawdzić, które z hipotez są prawdziwe, wyjaśnia profesor Paul Stevenson.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.