Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Dzięki dziurom powstaną stabilne kubity, a może nawet minikomputery kwantowe

Recommended Posts

Rozwiązaniem problemu pomiędzy szybkością działania komputerów kwantowych a koherencją kubitów może być zastosowanie dziur, twierdzą australijscy naukowcy. To zaś może prowadzić do powstania kubitów nadających się do zastosowania w minikomputerach kwantowych.

Jedną z metod stworzenia kubitu – kwantowego bitu – jest wykorzystanie spinu elektronu. Aby uczynić komputer kwantowy tak szybkim, jak to tylko możliwe, chcielibyśmy mieć możliwość manipulowania spinami wyłącznie za pomocą pola elektrycznego, dostarczanego za pomocą standardowych elektrod.

Zwykle spiny nie reagują na pole elektryczne, jednak z niektórych materiałach spiny wchodzi w niebezpośrednie interakcje z polem elektrycznym. Mamy tutaj do czynienia z tzw. sprzężeniem spinowo-orbitalnym. Eksperci zajmujący się tym tematem obawiają się jednak, że gdy taka interakcja jest zbyt silna, wszelkie korzyści z tego zjawiska zostaną utracone, gdyż dojdzie do dekoherencji i utraty kwantowej informacji.

Jeśli elektrony zaczynają wchodzić w interakcje z polami kwantowymi, które im aplikujemy w laboratorium, są też wystawione na niepożądane zmienne pola elektryczne, które istnieją w każdym materiale. Potocznie nazywamy to „szumem”. Ten szum może zniszczyć delikatną informację kwantową, mówi główny autor badań, profesor Dimi Culcer z Uniwersytetu Nowej Południowej Walii.

Nasze badania pokazują jednak, że takie obawy są nieuzasadnione. Nasze teoretyczne badania wykazały, że problem można rozwiązać wykorzystując dziury – które można opisać jako brak elektronu – zachowujące się jak elektrony z ładunkiem dodatnim, wyjaśnia uczony.

Dzięki wykorzystaniu dziur kwantowy bit może być odporny na fluktuacje pochodzące z tła. Co więcej, okazało się, że punkt, w którym kubit jest najmniej wrażliwy na taki szum, jest jednocześnie punktem, w którym działa on najszybciej. Z naszych badań wynika, że w każdym kwantowym bicie utworzonym z dziur istnieje taki punkt. Stanowi to podstawę do przeprowadzenia odpowiednich eksperymentów laboratoryjnych, dodaje profesor Culcer.

Jeśli w laboratorium uda się osiągnąć te punkty, będzie można rozpocząć eksperymenty z utrzymywaniem kubitów najdłużej jak to możliwe. Będzie to też stanowiło punkt wyjścia do skalowania kubitów tak, by można było je stosować w minikomputerach.

Wiele wskazuje na to, że takie eksperymenty mogą zakończyć się powodzeniem. Profesor Joe Salfi z University of British Columbia przypomina bowiem: Nasze niedawne eksperymenty z kubitami utworzonymi z dziur wykazały, że w ich wypadku czas koherencji jest dłuższy, niż się spodziewaliśmy. Teraz widzimy, że nasze obserwacje mają solidne podstawy teoretyczne. To bardzo dobry prognostyk na przyszłość.

Praca Australijczyków została opublikowana na łamach npj Quantum Information.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Na szwedzkim Uniwersytecie Technicznym Chalmersa opracowano nowatorski termometr, który pozwoli na udoskonalenie... komputerów kwantowych. Termometr ten dokonuje szybkich i niezwykle dokładnych pomiarów temperatury podczas obliczeń kwantowych.
      Głównymi elementami komputera kwantowego są kable koncentryczne i falowody. Mikrofale są przesyłane falowodami do kwantowego procesora, a po drodze są schładzane do bardzo niskich temperatur. Zadaniem falowodów jest tez osłabianie i filtrowanie impulsów tak, by niezwykle wrażliwy kwantowy procesor mógł pracować ze stabilnymi stanami kwantowymi.
      Jednak, by mieć jak największą kontrolę nad całym procesem, specjaliści muszą mieć pewność, że falowody nie przenoszą zakłóceń powodowanych ruchem cieplnym elektronów. Innymi słowy, muszą mierzyć temperaturę pól elektromagnetycznych na końcu falowodu, w miejscu, w którym do kubitów dostarczane są kontrolujące je impulsy. Praca z najniższymi możliwymi temperaturami zmniejsza ryzyko wprowadzenia błędów do kubitów.
      Dotychczas możliwe były jedynie pośrednie pomiary tych temperatur i do tego dokonywane były ze znaczącym opóźnieniem. Tymczasem opracowany w Szwecji termometr pozwala na bardzo szybkie i niezwykle precyzyjne bezpośrednie pomiary temperatur na końcu falowodu. Nasz termometr do obwód nadprzewodzący bezpośrednio podłączony do końca falowodu, którego temperaturę mierzy. To dość prosty i prawdopodobnie najszybszy i najbardziej precyzyjny termometr do tego typu pomiarów. Pracuje on w skali milikelwinów, mówi profesor Simone Gasparinetti.
      Specjaliści z Wallenberc Centre for Quantum Technology (WACQT) chcą do roku 2030 stworzyć kwantowy komputer korzystający z co najmniej 100 kubitów. Osiągnięcie tego celu będzie wymagało schłodzenia procesora do temperatury bliskiej zeru absolutnemu, mówi się o 10 milikelwinach. Nowy termometr będzie bardzo ważnym narzędziem na drodze do osiągnięcia tego celu. Dzięki niemu naukowcy sprawdzą, jak dobrze sprawuje się ich system i jakie ma niedociągnięcia.
      Konkretna temperatura jest związana z konkretną liczbą fotonów termicznych, a ich liczba spada wykładniczo wraz ze spadkiem temperatury. Jeśli uda nam się obniżyć temperaturę na końcu falowodu do 10 milikelwinów to drastycznie zredukujemy ryzyko wystąpienia błędów, mówi profesor Per Delsing, lider WACQT.
      Precyzyjne pomiary temperatury są też istotne dla producentów podzespołów dla komputerów kwantowych, gdyż dzięki nim będą wiedzieli, czy ich produkty spełniają odpowiednie standardy.
      Nowy termometr może mieć jednak znacznie szersze zastosowania. Może przyczynić się do dokonania znacznego postępu w nauce i technologii. Takie zjawiska jak superpozycja, splatanie czy dekoherencja mogą mieć bowiem znaczenie również w termodynamice. Nie można wykluczyć, że w nanoskali prawa termodynamiki ulegają zmianom. I być może zmiany te uda się wykorzystać np. do udoskonalenia silników, akumulatorów i innych urządzeń.
      Przez ostatnich 15–20 lat prowadzono badania, których celem było sprawdzenie, w jaki sposób zasady termodynamiki mogą ulegać modyfikacjom pod wpływem zjawisk kwantowych. Kwestia wykorzystania zjawisk kwantowych w termodynamice jest wciąż kwestią otwartą, stwierdza Gasparinetti.
      Nowy termometr mógłby np. posłużyć do pomiarów rozpraszania mikrofal w obwodzie, działającym jak kwantowy silnik cieplny lub kwantowa lodówka. Standardowe termometry były kluczowym narzędziem rozwoju klasycznej termodynamiki. Mamy nadzieję, że w przyszłości nasz termometr będzie fundamentem rozwoju termodynamiki kwantowej, wyjaśnia doktorant Marco Scigliuzzo.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykański Departament Energii (DoE) udostępnił otwartoźródłową kwantową platformę testową Quantum Scientific Computing Open User Testbed (QSCOUNT). Z 3-kubitowego systemu znajdującego się w Sandia National Laboratories jako pierwsi skorzystali naukowcy z Indiana University.
      Komputery kwantowe to przyszłość informatyki, jednak do ich rozwoju potrzebna jest możliwość prowadzenia badań i eksperymentów na tego typu maszynach. Jednak obecnie komputerami kwantowymi dysponują nieliczne firmy i uczelnie na świecie. Dlatego też DoE zdecydował o udostępnieniu maszyny z SNL, by mogli z niej korzystać naukowcy, na których uczelniach nie ma tego typu maszyn. Dzięki QSCOUT mogą to zrobić bezpłatnie, a co więcej, mogą prowadzić prace, na które nie zezwalają firmy komercyjnie udostępniające komputery kwantowe.
      QSCOUT służy potrzebom specjalistów dając im możliwość kontroli i badania samej maszyny, co jeszcze nie jest dostępne w systemach komercyjnych. Ponadto oszczędza specjalistom wysiłku związanego z budową własnych maszyn kwantowych. Mamy nadzieję, że dzięki tej inicjatywie zyskamy nowe informacje na temat wydajności i architektury systemów kwantowych oraz dowiemy się, jak rozwiązywać różne problemy związane z obliczeniami kwantowymi, mówi fizyk Susan Clark, która kieruje projektem QSCOUT.
      Użytkownicy dostają do dyspozycji pierwszy opensource'owy system kwantowy. Wykorzystuje on technologię uwięzionych jonów i daje użytkownikowi bezprecedensową kontrolę nad prowadzonymi przez siebie badaniami.
      Jak już wspomnieliśmy, pierwszymi, którzy skorzystali z oferty byli naukowcy z Indiana University. Następni w kolejce są specjaliści z IBM-a, Oak Ridge National Laboratory, Univeristy of New Mexico i University of Carifolnia, Berkeley. Będą oni prowadzili szeroko zakrojone badania obejmujące zarówno rozwój benchmarków, czyli systemów oceny wydajności, dla komputerów kwantowych jak i prace nad algorytmami, rozwiązującym problemy z zakresu chemii, które są zbyt złożone dla komputerów klasycznych.
      O dostęp do platformy QSCOUT może zwrócić się każdy, a dostęp do maszyny finansuje DoE. Jeszcze wiosną zostanie wybrana kolejna grupa projektów, których pomysłodawcy będą mogli korzystać z kwantowej maszyny.
      Serce kwantowej maszyny Sandii stanowi pułapka jonowa z uwięzionymi trzema atomami iterbu. Są one uwięzione za pomocą fal radiowych i pola elektrycznego. Każdy z jonów stanowi pojedynczy kubit, w którym informacje kodowane są za pomocą laserów.
      W ciągu najbliższych 3 lat system zostanie rozbudowany do 32 kubitów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Specjaliści z kanadyjskiej firmy D-Wave Systems, wykazali, że ich kwantowy procesor potrafi symulować zachowanie kwantowego magnesu znacznie szybciej, niż maszyna klasyczna. Okazało się też, że prędkość symulacji kwantowych znacznie lepiej od symulacji klasycznych skaluje się ze wzrostem trudności symulacji.
      Symulatory D-Wave to wyspecjalizowane komputery kwantowe wykorzystujące technikę „kwantowego wyżarzania” (quantum annealing). Polega ona na znalezieniu najmniejszego elementu z grupy możliwych rozwiązań.
      Andrew King, dyrektor ds. badań nad wydajnością w D-Wave, mówi, że symulowany kwantowy magnes podlegał fluktuacjom zarówno kwantowym jak i termicznym. Podczas symulacji Kanadyjczycy wykorzystali do 1440 kubitów. Teraz informują, że kwantowy symulator był ponad 3 miliony razy szybszy niż symulatory klasyczne wykorzystujące kwantowe algorytmy Monte Carlo. Przy okazji wykazano, że symulatory kwantowe lepiej skalują się wraz z rosnącą trudnością symulacji. Zauważono to zarówno podczas symulowania chłodniejszych systemów, gdzie efekty kwantowe są silniejsze, jak i podczas symulowania większych systemów. Innymi słowy, największa przewaga symulatorów kwantowych nad klasycznymi algorytmami ujawnia się w rozwiązywaniu najtrudniejszych problemów.
      Trzeba tutaj przypomnieć, że naukowcy z D-Wave wykonali podobne badania już w 2018 roku, jednak wówczas symulacja przebiegła tak szybko, że nie mogli dokładnie zmierzyć dynamiki swojego systemu. Teraz, by spowolnić przebieg symulacji, dodali do niej przeszkodę topologiczną. Przeszkody topologiczne mogą złapać w pułapkę klasyczne symulacje z wykorzystaniem kwantowych algorytmów Monte Carlo. Symulator kwantowy jest w stanie ominąć tę pułapkę dzięki tunelowaniu, wyjaśnia Daniel Lidar, dyrektor Centrum Kwantowej Informacji, Nauki i Technologii z University of Southern California, który nie był zaangażowany w badania Kanadyjczyków. Ich praca to pierwsza demonstracja przewagi uzyskiwanej dzięki temu zjawisku. To bardzo interesujące i pokazuje, że kwantowe wyżarzanie to obiecujące narzędzie do kwantowych symulacji, dodaje.
      Na osiągnięcie D-Wave warto zwrócić uwagę tym bardziej, że – w przeciwieństwie do wcześniejszych porównań algorytmów klasycznych i kwantowych – tym razem zajęto się rzeczywistym użytecznym problemem. Kwantowe magnesy są bowiem badane od jakiegoś czasu przez specjalistów pracujących nad nowymi materiałami. Kwantowe symulatory mogą znakomicie przyspieszyć te badania. Jednak D-Wave nie wyklucza, że możliwe jest opracowanie szybszych algorytmów klasycznych niż te obecnie używane. Przedstawiciele firmy uważają, że w najbliższym czasie największe korzyści uzyskamy dzięki połączeniu metod klasycznych i kwantowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Znajdujący się na Biegunie Południowym wielki detektor neutrin IceCube zarejestrował wysokoenergetyczne wydarzenie, które potwierdziło istnienie zjawiska przewidzianego przed 60 laty i wzmocniło Model Standardowy. Wydarzenie to zostało wywołane przez cząstkę antymaterii o energii 1000-krotnie większej niż cząstki wytwarzane w Wielkim Zderzaczu Hadronów (LHC).
      Ponad 4 lata temu, 8 grudnia 2016 roku wysokoenergetyczne antyneutrino elektronowe wpadło z olbrzymią prędkością w pokrywę lodową Antarktydy. Jego energia wynosiła gigantyczne 6,3 petaelektronowoltów (PeV). Głęboko w lodzie zderzyło się ono z elektronem, doprowadzając do pojawienia się cząstki, która szybko rozpadła się na cały deszcz cząstek. Ten zaś został zarejestrowany przez czujniki IceCube Neutrino Observatory.
      IcCube wykrył rezonans Glashowa, zjawisko, które w 1960 roku przewidział późniejszy laureat Nagrody Nobla, Sheldon Glashow. Pracujący wówczas w Instytucie Nielsa Bohra w Kopenhadze naukowiec opublikował pracę, w której stwierdził, że antyneutrino o odpowiedniej energii może wejść w interakcje z elektronem, w wyniku czego dojdzie do pojawienia się nieznanej jeszcze wówczas cząstki. Cząstką tą był odkryty w 1983 roku bozon W.
      Po odkryciu okazało się, że ma on znacznie większą masę, niż przewidywał Glashow. Wyliczono też, że do zaistnienia rezonansu Glashowa konieczne jest antyneutrino o energii 6,3 PeV. To niemal 1000-krotnie większa energia niż nadawana cząstkom w Wielkim Zderzaczu Hadronów. Żaden obecnie działający ani obecnie planowany akcelerator nie byłby zdolny do wytworzenia tak wysokoenergetycznej cząstki.
      IceCube pracuje od 2011 roku. Dotychczas obserwatorium wykryło wiele wysokoenergetycznych zdarzeń, pozwoliło na przeprowadzenie niepowtarzalnych badań. Jednak zaobserwowanie rezonansu Glashowa to coś zupełnie wyjątkowego. Musimy bowiem wiedzieć, że to dopiero trzecie wykryte przez IceCube wydarzenie o energii większej niż 5 PeV.
      Odkrycie jest bardzo istotne dla specjalistów zajmujących się badaniem neutrin. Wcześniejsze pomiary nie dawały wystarczająco dokładnych wyników, by można było odróżnić neutrino od antyneutrina. To pierwszy bezpośredni pomiar antyneutrina w przepływających neutrinach pochodzenia astronomicznego, mówi profesor Lu Lu, jeden z autorów analizy i artykułu, który ukazał się na łamach Nature.
      Obecnie nie jesteśmy w stanie określić wielu właściwości astrofizycznych źródeł neutrin. Nie możemy np. zmierzyć rozmiarów akceleratora czy mocy pól magnetycznych w rejonie akceleratora. Jeśli jednak będziemy w stanie określić stosunek neutrin do antyneutrin w całym strumieniu, bo będziemy mogli badać te właściwości, dodaje analityk Tianlu Yaun z Wisconsin IceCube Particle Astrophysics Center.
      Sheldon Glashow, który obecnie jest emerytowanym profesorem fizyki na Boston University mówi, że aby być absolutnie pewnymi wyników, musimy zarejestrować kolejne takie wydarzenie o identycznej energii. Na razie mamy jedno, w przyszłości będzie ich więcej.
      Niedawno ogłoszono, że przez najbliższych kilka lat IceCube będzie udoskonalany, a jego kolejna wersja – IceCube-Gen2 – będzie w stanie dokonać większej liczby tego typu pomiarów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Co najmniej 30 000 firm i organizacji w USA padło ofiarami ataków, które zostały przeprowadzone dzięki czterem nowo odkrytym dziurom w oprogramowaniu do poczty elektronicznej microsoftowego Exchange Servera. Jak poinformował ekspert ds. bezpieczeństwa, Brian Krebs, chińscy cyberprzestępcy zarazili sieci setki tysięcy organizacji narzędziami,które dają napastnikowi całkowity zdalny dostęp do zarażonych systemów.
      Microsoft opublikował poprawki 2 marca i zachęca użytkowników Exchange Servera do ich pilnego zainstalowania. Jednocześnie jednak firma poinformowała, że pojawienie się poprawek sprowokowało chińskich cyberprzestępców – grupę, której nadano nazwę „Hafnium” – do zintensyfikowania ataków na niezałatane instalacje Exchange Servera. Eksperci ostrzegają, że przestępcy wciąż mają dostęp do serwerów zhakowanych przed zainstalowaniem łatek. Łatanie nie działa, jeśli serwery już wcześniej zostały skompromitowane. Ci, którzy wykorzystują  powinni sprawdzić, czy nie padli ofiarami ataku, oświadczył amerykański National Security Council. Brian Krebs Dodaje, że użytkownicy Outlook Web Access serwera powinni sprawdzić okres pomiędzy 26 lutego a 3 marca. To właśnie w tym czasie mogło dojść do ataków. Zaniepokojenie problemem i rosnącą liczbą ofiar wyraził też Biały Dom.
      Nowo odkryte błędy pozwalają przestępcom na zdalne wykonanie kodu. Do przeprowadzenia pierwszego ataku konieczna jest możliwość ustanowienia niezabezpieczonego połączenia z portem 443 Exchange Servera, informuje Microsoft. Wspomniane błędy odkryto w oprogramowaniu Exchange Server 2013, 2016 i 2019.
      Chińska grupa Hafnium, która przeprowadza wspomniane ataki najpierw wykorzystuje dziury typu zero-day lub ukradzione hasła, by dostać się do atakowanego systemu. Następnie instalowana jest tam powłoka, dająca przestępcom zdalny dostęp. Później system jest stopniowo infiltrowany i kradzione są z niego dane.
      Chiński rząd zapewnił, że nie stoi za atakami.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...