Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Padł rekord precyzji kontroli pojedynczego kubitu. Tak małego odsetka błędów jeszcze nie było
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Polska fizyk, Barbara Latacz, jest główną autorką badań, w ramach których naukowcy skupieni w projekcie BASE w CERN zaprezentowali pierwszy w historii kubit z antymaterii. Na łamach pisma Nature Latacz i jej koledzy opisali, jak przez niemal minutę utrzymywali w pułapce antyproton oscylujący pomiędzy dwoma stanami kwantowymi. Badania te pozwolą na znaczne udoskonalenie metod badania różnic między materią i antymaterią.
Proton i antyproton mogą przyjmować dwie wartości spinu. Pomiary zmiany tej wartości pozwalają na precyzyjne testowanie podstawowych praw przyrody, na przykład takich jak symetria CPT (ładunku, parzystości i czasu). Wskazuje ona, że materia i antymateria zachowują się identycznie, jednak jest to sprzeczne z obserwacjami, zgodnie z którymi materii we wszechświecie jest znacznie więcej niż antymaterii.
Spójne kontrolowane zmiany stanu kwantowego obserwowano dotychczas albo w dużych grupach cząstek, albo w przypadku pojedynczych uwięzionych jonów. Nie udało się tego jednak zrobić dla pojedynczego swobodnego momentu magnetycznego jądra, czyli np. spinu pojedynczego protonu. Teraz dokonali tego naukowcy z projektu BASE.
W ramach eksperymentu BASE badane są antyprotony dostarczane przez fabrykę antymaterii w CERN-ie. To jedyne miejsce na Ziemi, gdzie produkuje się niskoenergetyczne antyprotony. Są one przechowywane w elektromagnetycznych pułapkach Penninga i pojedynczo przesyłane do systemu pułapek, w których bada się m.in. ich spin.
Już wcześniej zespół BASE dowiódł, że wartości momentów magnetycznych protonów i antyprotonów są identyczne z dokładnością do kilku części na miliard. Najmniejsza różnica wskazywałaby na naruszenie symetrii CPT, a to oznaczałoby istnienie fizyki poza Modelem Standardowym. Dotychczas jednak badania były zakłócane przez fluktuacje pola magnetycznego. W ostatnim czasie naukowcom udało się znakomicie ulepszyć eksperyment i zapobiec utracie stanu kwantowego, dzięki czemu przez 50 sekund można było badać spin antyprotonu.
To pierwszy kubit zbudowany z antymaterii. Daje nam to możliwość zastosowania całego zestawu metod do precyzyjnego badania pojedynczych układów materii i antymaterii, mówi Stefan Ulmer z BASE. Uczony dodaje, że nowe osiągnięcie pozwoli na badanie momentu pędu antyprotonu nawet ze 100-krotnie większą precyzją, niż dotychczas.
Jeszcze bardziej precyzyjne pomiary będą możliwe dzięki projektowi BASE-STEP, o którego pierwszym udanym teście poinformowano w maju bieżącego roku. Umożliwia on bezpieczne transportowanie antyprotonów uzyskanych w CERN-ie do spokojniejszych środowisk i bardziej precyzyjnych laboratoriów. Gdy już system będzie w pełni działał, nasz nowy przenośny układ pułapek Penninga, napełniony antyprotonami z fabryki, będzie transportowany za pomocą BASE-STEP, co pozwoli na nawet 10-krotne wydłużenie czasu koherencji antyprotonu. To będzie przełom w badaniach nad materią barionową, mówi Barbara Latacz.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
Bramki zostały szczegółowo opisane na łamach Physical Review Applied.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Badania na szczurach sugerują, że regularnie spożywanie diety wysokotłuszczowej lub wysokokalorycznej zaburza zdolność mózgu do regulowania ilości przyjmowanych kalorii. Naukowcy z Penn State College of Medicine opublikowali na łamach Journal of Physiology artykuł, z którego dowiadujemy się, że po krótkoterminowym żywieniu dietą wysokokaloryczną mózg adaptuje się do tej sytuacji i redukuje ilość spożywanego pokarmu, by zrównoważyć liczbę przyjmowanych kalorii. Jednak przy długoterminowym spożywaniu takiej diety mechanizm ten zostaje zaburzony.
Z przeprowadzonych badań wynika, że astrocyty – największe komórki glejowe – kontrolują szlak sygnały pomiędzy mózgiem a układem pokarmowym. Długotrwałe spożywanie diety wysokotłuszczowej/wysokokalorycznej zaburza ten szlak.
Wydaje się, że w krótkim terminie przyjmowanie kalorii jest regulowane przez astrocyty. Odkryliśmy, że krótkotrwała – od 3 do 5 dni – ekspozycja na dietę wysokotłuszczową ma największy wpływ na astrocyty, uruchamiając szlak sygnałowy kontrolujący żołądek. Z czasem jednak astrocyty tracą wrażliwość na wysokokaloryczne pożywienie. Wydaje się, że po około 10–14 dniach takiej diety astrocyty przestają reagować i mózg nie jest w stanie regulować ilości spożywanych kalorii, mówi doktor Kirsteen Browning.
Gdy spożywamy wysokokaloryczny pokarm, astrocyty uwalniają glioprzekaźniki i uruchamia się cały szlak sygnałowy kontrolujący prace żołądka. Dzięki temu odpowiednio się on opróżnia i napełnia w reakcji na pożywienie przechodzące przez układ pokarmowy. Zaburzenia pracy astrocytów prowadzą do zaburzeń trawienia, gdyż żołądek nie napełnia się i nie opróżnia prawidłowo.
Naukowcy prowadzili badania 205 szczurów, które podzielono na grupę kontrolną i grupy badane. Zwierzęta z grup badanych karmiono wysokokaloryczną dietą przez 1, 3, 5 lub 14 dni. Podczas eksperymentów stosowano metody farmakologiczne i genetyczne (zarówno in vitro, jak i in vivo), które pozwalały manipulować wybranymi obszarami układu nerwowego.
Naukowcy planują teraz poszerzenie swoich badań, gdyż chcieliby się dowiedzieć, czy utrata aktywności astrocytów jest przyczyną czy skutkiem przyjmowania nadmiernej ilości kalorii. Chcemy też wiedzieć, czy możliwe jest odzyskanie utraconej przez mózg regulacji ilości spożywanych kalorii. Jeśli tak, to być może powstaną dzięki temu metody leczenia otyłości u ludzi, stwierdza Browning. O ile, oczywiście, występowanie takiego samego mechanizmu uda się zaobserwować u naszego gatunku.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.