
Łamanie Bitcoina i symulowanie molekuł – jak duży musi być komputer kwantowy, by tego dokonać?
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.
Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy
« powrót do artykułu -
przez KopalniaWiedzy.pl
Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
Bramki zostały szczegółowo opisane na łamach Physical Review Applied.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Grupa amerykańskich uczonych opracowała pierwszy materiał 2D z mechanicznie splecionych molekuł. Materiał przypomina strukturą kolczugę. Jest dzięki temu wyjątkowo elastyczny i wytrzymały. W przyszłości może posłużyć do stworzenia lekkich i wytrzymałych kamizelek kuloodpornych i znaleźć zastosowanie wszędzie tam, gdzie potrzebna jest elastyczność i wytrzymałość. Nowy materiał zawiera 100 bilionów splotów na cm2. To najgęstszy kiedykolwiek stworzony splot mechaniczny.
Stworzyliśmy zupełnie nową strukturę polimerową. Jest ona podobna do kolczugi w tym, że nie rozdziera się łatwo, gdyż każde z mechanicznych połączeń ma pewien zakres swobody i może się przemieszczać. Jeśli ją zaczniesz rozciągać, siła zostanie rozproszona w różnych kierunkach. A gdy zechcesz ją podrzeć, musisz rozdzielić ją w wielu miejscach. Wciąż badamy właściwości tego polimeru i prawdopodobnie zajmie to nam całe lata, mówi William Dichtel z Northwestern University.
Naukowcy od lat próbowali uzyskać polimer o mechanicznie zazębionych molekułach, ale nie potrafili spowodować, by molekuły polimeru łączyły się ze sobą mechanicznie. Zespół Dichtela zaczął pracę od ułożenia monomerów mających kształt X w uporządkowaną strukturę krystaliczną. Następnie przeprowadzili reakcję takich kryształów z inną molekułą, tworząc mechaniczne wiązania pomiędzy molekułami w krysztale. W ten sposób uzyskali kryształ składający się dwuwymiarowych mechanicznie splątanych warstw polimeru. W każdej z takich warstw monomery w kształcie X są zazębione z innymi monomerami w kształcie X. A w wolne miejsca pomiędzy nimi wplecione są kolejne monomery. Struktura taka jest zaskakująco elastyczna
Gdy naukowcy umieścili swój kryształ w rozpuszczalniku okazało się, że poszczególne warstwy oddzielają się od siebie. Nie ma zbyt wielu elementów, które utrzymywałyby cały polimer razem. Gdy więc włożyliśmy go do rozpuszczalnika, kryształ się rozpadł, ale każda z dwuwymiarowych warstw trzymała się razem. Mogliśmy manipulować tymi warstwami, mówi Dichtel.
Współpracujący z Dichtelem naukowcy z Duke University, zainspirowani wytrzymałością nowego polimeru, połączyli go z Ultemem. To bardzo wytrzymały polimer przemysłowy. Jest odporny na wysokie temperatury, działanie silnych kwasów i zasad. Stworzyli kompozyt składający się z 97,5% Ultemu i 2,5% nowego polimeru. Wystarczył tak niewielki odsetek nowego polimeru, by znacząco poprawić ogólną wytrzymałość Ultemu. Zdaniem Dichtela to wskazówka, że uzyskany właśnie materiał może znacząco poprawić właściwości innych materiałów. Przed nami jeszcze sporo analiz do przeprowadzenia, ale już teraz możemy powiedzieć, że poprawia on wytrzymałość kompozytów. Niemal każda jego właściwość, którą już zmierzyliśmy, była w jakiś sposób wyjątkowa, cieszy się uczony.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wszystkie organizmy żywe wykorzystują metale w czasie podstawowych funkcji życiowych, od oddychania po transkrypcję DNA. Już najwcześniejsze organizmy jednokomórkowe korzystały z metali, a metale znajdziemy w niemal połowie enzymów. Często są to metale przejściowe. Naukowcy z University of Michigan, California Institute of Technology oraz University of California, Los Angeles, twierdzą, że żelazo było tym metalem przejściowym, który umożliwił powstanie życia.
Wysunęliśmy radykalną hipotezę – żelazo było pierwszym i jedynym metalem przejściowym wykorzystywanym przez organizmy żywe. Naszym zdaniem życie oparło się na tych metalach, z którymi mogło wchodzić w interakcje. Obfitość żelaza w pierwotnych oceanach sprawiła, że inne metale przejściowe były praktycznie niewidoczne dla życia, mówi Jena Johnson z University of Michigan.
Johnson połączyła siły z profesor Joan valentine z UCLA i Tedem Presentem z Caltechu. Profesor Valentine od dawna bada, jakie metale wchodziły w skład enzymów u wczesnych form życia, umożliwiając im przeprowadzanie niezbędnych procesów życiowych. Od innych badaczy wielokrotnie słyszała, że przez połowę historii Ziemi oceany były pełne żelaza. W mojej specjalizacji, biochemii i biochemii nieorganicznej, w medycynie i w procesach życiowych, żelazo jest pierwiastkiem śladowym. Gdy oni mi powiedzieli, że kiedyś nie było pierwiastkiem śladowym, dało mi to do myślenia, mówi uczona.
Naukowcy postanowili więc sprawdzić, jak ta obfitość żelaza w przeszłości mogła wpłynąć na rozwój życia. Ted Present stworzył model, który pozwolił na sprecyzowanie szacunków dotyczących koncentracji różnych metali w ziemskich oceanach w czasach, gdy rozpoczynało się życie. Najbardziej dramatyczną zmianą, jaka zaszła podczas katastrofy tlenowej, nie była zmiana koncentracji innych metali, a gwałtowny spadek koncentracji żelaza rozpuszczonego w wodzie. Nikt dotychczas nie badał dokładnie, jaki miało to wpływ na życie, stwierdza uczona.
Badacze postanowili więc sprawdzić, jak przed katastrofą tlenową biomolekuły mogły korzystać z metali. Okazało się, że żelazo spełniało właściwie każdą niezbędną rolę. Ich zdaniem zdaniem, ewolucja może korzystać na interakcjach pomiędzy jonami metali a związkami organicznymi tylko wówczas, gdy do interakcji takich dochodzi odpowiednio często. Obliczyli maksymalną koncentrację jonów metali w dawnym oceanie i stwierdzili, że ilość jonów innych biologiczne istotnych metali była o całe rzędy wielkości mniejsza nią ilość jonów żelaza. I o ile interakcje z innymi metalami w pewnych okolicznościach mogły zapewniać ewolucyjne korzyści, to - ich zdaniem - prymitywne organizmy mogły korzystać wyłącznie z Fe(II) w celu zapewnienia sobie niezbędnych funkcji spełnianych przez metale przejściowe.
Valentine i Johnson chciały sprawdzić, czy żelazo może spełniać w organizmach żywych te funkcje, które obecnie spełniają inne metale. W tym celu przejrzały literaturę specjalistyczną i stwierdziły, że o ile obecnie życie korzysta z innych metali przejściowych, jak cynk, to nie jest to jedyny metal, który może zostać do tych funkcji wykorzystany. Przykład cynku i żelaza jest naprawdę znaczący, gdyż obecnie cynk jest niezbędny do istnienia życia. Pomysł życia bez cynku był dla mnie trudny do przyjęcia do czasu, aż przekopałyśmy się przez literaturę i zdałyśmy sobie sprawę, że gdy nie ma tlenu, który utleniłby Fe(II) do Fe(III) żelazo często lepiej spełnia swoją rolę w enzymach niż cynk, mówi Valentine. Dopiero po katastrofie tlenowej, gdy żelazo zostało utlenione i nie było tak łatwo biologicznie dostępne, życie musiało znaleźć inne metale, które wykorzystało w enzymach.
Zdaniem badaczy, życie w sytuacji powszechnej dostępności żelaza korzystało wyłącznie z niego, nie pojawiła się potrzeba ewolucji w kierunku korzystania w innych metali. Dopiero katastrofa tlenowa, która dramatycznie ograniczyła ilość dostępnego żelaza, wymusiła ewolucję. Organizmy żywe, by przetrwać, musiały zacząć korzystać z innych metali. Dzięki temu pojawiły się nowe funkcje, które doprowadziły do znanej nam dzisiaj różnorodności organizmów żywych.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.