Kwantowa pamięć z diamentu
By
KopalniaWiedzy.pl, in Technologia
-
Similar Content
-
By KopalniaWiedzy.pl
Naukowcy i inżynierowie z University of Bristol oraz brytyjskiej Agencji Energii Atomowej (UKAEA) stworzyli pierwszą diamentową baterię z radioaktywnym węglem C-14. Urządzenia tego typu mogą działać przez tysiące lat, stając się niezwykle wytrzymałym źródłem zasilania, które może przydać się w wielu zastosowaniach. Bateria wykorzystuje radioaktywny C-14 do długotrwałego wytwarzania niewielkich ilości energii.
Tego typu źródła zasilania mogłyby trafić do biokompatybilnych urządzeń medycznych jak np. implanty słuchu czy rozruszniki serca, a olbrzymią zaletą ich stosowania byłoby wyeliminowanie konieczności wymiany baterii co jakiś czas. Sprawdziłyby się też w przestrzeni kosmicznej czy ekstremalnych środowiskach na Ziemi, gdzie wymiana baterii w urządzeniu byłaby trudna, niepraktyczne czy niemożliwa.
Opracowana przez nas technologia mikrozasilania może znaleźć miejsce w wielu różnych zastosowaniach, od technologii kosmicznych, poprzez bezpieczeństwo po medycynę, mówi profesor Tom Scott. Uczony przypomniał, że prace nad nowatorskim rozwiązaniem trwały przez pięć lat.
Diamentowa bateria generuje dostarcza energię przechwytując elektrony pochodzące z rozpadu radioaktywnego węgla-14. Jako że czas półrozpadu C-14 wynosi 5730 lat, urządzenie takie może działać bardzo długo.
Diamentowe baterie to bezpieczny i zrównoważony sposób na długotrwałe dostarczanie mocy rzędu mikrowatów. To nowa technologia, która pozwala na zamknięcie w sztucznych diamentach niewielkich ilości węgla-14, mówi Sarah Clark, dyrektor wydziału Cyklu Paliwowego Trytu w UKAEA.
« powrót do artykułu -
By KopalniaWiedzy.pl
Po raz pierwszy udało się zmierzyć spin elektronu w materiale. Osiągnięcie uczonych z Uniwersytetów w Bolonii, Wenecji, Mediolanie, Würzburgu oraz University of St. Andrews, Boston College i University of Santa Barbara może zrewolucjonizować sposób badania i wykorzystania kwantowych materiałów w takich dziedzinach jak biomedycyna, energia odnawialna czy komputery kwantowe. Pomiar spinu w kontekście topologii materiału, w którym był mierzony, był możliwy dzięki wykorzystaniu promieniowania synchrotronowego oraz nowoczesnym technikom modelowania zachowania materii.
Profesor Domenico di Sante z Uniwersytetu w Bolonii wyjaśnia: Na zachowanie elektronów w materiałach mają wpływ pewne właściwości kwantowe, determinujące ich spin w materiale, w którym się znajdują. Tak jak na tor ruchu światła we wszechświecie ma wpływ obecność gwiazd, ciemnej materii czy czarnych dziur, które zaginają czasoprzestrzeń.
Właściwości elektronu znamy od dawna, jednak dotychczas nikt nie bezpośrednio nie zmierzył „topologicznego spinu” elektronu. Uczeni z Włoch, Niemiec, Wielkiej Brytanii i USA wykorzystali efekt znany jako dichroizm kołowy. Zjawisko to polega na różnej absorpcji przez substancje światła spolaryzowanego kołowo prawo- i lewoskrętnie. W swoich badaniach skupili się na metalach kagome. To materiały, w których atomy tworzą – znany z tradycyjnego japońskiego koszykarstwa kagome – wzór składający się z sieci trójkątów o wspólnych wierzchołkach. Ta nietypowa geometria atomów powoduje, że elektrony zachowują się w takim materiale w sposób nietypowy, co pozwala badać niezwykłe zjawiska kwantowe. Metale kagome służą m.in. do badań nad nadprzewodnictwem wysokotemperaturowym. Pierwsze eksperymenty z nimi przeprowadzono w USA w 2018 roku.
Teraz dwuwarstwowe metale kagome XV6Sn6 – gdzie X oznacza pierwiastek ziem rzadkich, tutaj były to terb, skand i holm – posłużyły do badania topologicznego spinu elektronu. Było to możliwe dzięki połączeniu eksperymentu z analizą teoretyczną. Teoretycy przeprowadzili najpierw złożone symulacje kwantowe na potężnych superkomputerach i poinstruowali eksperymentatorów, w którym miejscu materiału powinni mierzyć dichroizm kołowy, wyjaśnia Di Sante.
« powrót do artykułu -
By KopalniaWiedzy.pl
Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.
« powrót do artykułu -
By KopalniaWiedzy.pl
Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
Więcej o unimonie można przeczytać na łamach Nature Communications.
« powrót do artykułu -
By KopalniaWiedzy.pl
Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.