Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Komputery kwantowe o krok bliżej. Przełomowe pomiary dokładności kwantowej bramki logicznej

Rekomendowane odpowiedzi

Po raz pierwszy w historii zmierzono dokładność dwukubitowych operacji logicznych w krzemie. Dokonał tego zespół prof. Andrew Dzuraka z Uniwersytetu Nowej Południowej Walii (UNSW), który w 2015 jako pierwszy stworzył dwukubitową bramkę logiczną w krzemie.

Wszystkie obliczenia kwantowe mogą składać się z jedno- i dwukubitowych operacji. To podstawowe budulce obliczeń kwantowych. Gdy je mamy, możemy wykonać dowolne obliczenia kwantowe, jednak precyzja obu tych rodzajów obliczeń musi być bardzo wysoka, wyjaśnia profesor Dzurak.

Od czasu, gdy w 2015 roku zespół Dzuraka stworzył pierwszą dwukubitową bramkę logiczną umożliwiając w ten sposób prowadzenie obliczeń z użyciem dwóch kubitów, wiele zespołów naukowych zaprezentowało podobne konstrukcje. Jednak dotychczas nie była znana dokładność obliczeń dokonywanych za pomocą takich bramek

Precyzja obliczeń to kluczowy parametr, który decyduje o tym, na ile dana technologia kwantowa może zostać zastosowana w praktyce. Potęgę obliczeń kwantowych można wykorzystać tylko wtdy, jeśli operacja na kubitach są niemal idealne, dopuszczalne są minimalne błędy, mówi doktor Henry Yang, współpracownik Dzuraka.

Australijscy naukowcy opracowali test oparty na geometrii Clifforda i za jego pomocą ocenili wiarygodność dwukubitowej bramki logicznej na 98%. Osiągnęliśmy tak wysoką dokładność dzięki zidentyfikowaniu i wyeliminowaniu podstawowych źródeł błędów, poprawiając w ten sposób dokładność obliczeń do takiego stopnia, że zrandomizowany test o znaczącej dokładności – tutaj 50 operacji na bramce – może zostać przeprowadzony na naszym dwukubitowym urządzeniu, dodał doktorant Wister Huang, główny autor artykułu, który opublikowano na łamach Nature.

Komputery kwantowe będą mogły rozwiązać problemy, z którymi klasyczne komputery nigdy nie będą w stanie sobie poradzić. Jednak większość tych zastosowań będzie wymagała użycia milionów kubitów, więc będziemy musieli korygować błędy kwantowe, nawet jeśli będą one niewielkie. Aby korekcja tych błędów byla możliwa, same kubity muszą być niezwykle dokładne. Dlatego też podstawową rzeczą jest ocena ich dokładności. Im bardziej dokładne kubity, tym mniej będziemy ich potrzebowali, a zatem tym szybciej będziemy w stanie wyprodukować prawdziwy komputer kwantowy, dodaje profesor Dzurak.

Australijczycy zauważają jeszcze jedną świetną informację, która płynie z ich badań. Otóż krzem po raz kolejny dowiódł,; że jest świetną platformą obliczeniową. Jako, że materiał ten jest wykorzystywany w przemyśle elektronicznym od niemal 60 lat jego właściwości, ograniczenia i problemy z nim związane zostały dobrze poznane, zatem już istniejące fabryki będą w stanie przestawić się na nową technologię.

Jeśli okazałoby się, że dokładność kwantowych obliczeń na krzemie jest zbyt niska, to mielibyśmy poważny problem. Fakt, że wynosi ona blisko 99% to bardzo dobra wiadomość. Daje nam to możliwość dalszych udoskonaleń. To pokazuje, że krzem jest odpowiednia platformą dla prawdziwych komputerów kwantowych, cieszy się Dzurak. Myślę, że w najbliższej przyszłości osiągniemy znacznie większą dokładność i otworzymy w ten sposób drzwi do zbudowania prawdziwego odpornego na błędy komputera kwantowego. Obecnie jesteśmy bliscy granicy, poza którą w dwukubitowych systemach będzie można zastosować korekcję błędów, dodaje.

Warto w tym miejscu przypomnieć, że niedawno zespół Dzuraka poinformował na łamach Nature Electronics o osiągnięciu rekordowej dokładności jednokubitowej bramki logicznej. Wyniosła ona 99,96%.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Mam podobne wątpliwości. Niedawno słyszeliśmy że komputery kwantowe mające kilkadziesiąt kubitów już pokonają wszystko co możliwe na ziemi, a że są już niemal takie to lada moment czekają nas epokowe odkrycia. Teraz nagle słyszymy że potrzeba milionów kubitów żeby cokolwiek pożytecznego dokonać. Przy milionie kubitów z precyzją 99% każdy, potrzeba kwadrylionów operacji żeby jedna była prawidłowa. Nawet gdyby wydajność poprawić milion razy to i tak to jest to jakaś fantasmagoria. Jestem totalną laiczką w temacie, ale martwi mnie, że wizja odsuwa się coraz bardziej. Obawiam się że niedługo jakiś naukowiec udowodni, że zasada nieoznaczoności albo cokolwiek innego w ogóle zabrania uzyskania realnej przydatności komputerów kwantowych i całe badania szlag trafi.

Edytowane przez Ergo Sum

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po co te smutki i obawy. Zwykle komputery zanim postawiliśmy je na stole lub biurku w domu, były tworzone jakieś 40 lat. Tutaj też będzie podobnie. Jest wiele barier do przejścia i to powoli się udaje. Wydaje mi się że kwantowym nie będzie zarządzał człowiek a sztuczna inteligencja. Wtedy będzie przydatny. Tak będzie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 15.05.2019 o 09:34, Ergo Sum napisał:

Przy milionie kubitów z precyzją 99% każdy, potrzeba kwadrylionów operacji żeby jedna była prawidłowa.

Całkiem nie tak to wygląda. Na milionie kubitów 99% by można osiągnąć zupełnie abstrakcyjną precyzję pojedynczej operacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, Rowerowiec napisał:

Po co te smutki i obawy. Zwykle komputery zanim postawiliśmy je na stole lub biurku w domu, były tworzone jakieś 40 lat. Tutaj też będzie podobnie. Jest wiele barier do przejścia i to powoli się udaje. Wydaje mi się że kwantowym nie będzie zarządzał człowiek a sztuczna inteligencja. Wtedy będzie przydatny. Tak będzie.

Oduczmy się raz na zawsze używać argumentu typu "okrągła ziemia też była na początku wyśmiewana". Komputery kwantowe, nawet jeśli realne i skuteczne NIE SA ani okrągłą ziemią ani komputerami zwykłymi. Są miliony pomysłów które okazały się utopią. NIE WIEMY czy komputery kwantowe (czy cokolwiek innego) są utopią - a ja zaczynam sądzić że niestety  tak. Moje obawy wynikają z tego że nieoznaczoność chcemy zmusić do pracy w makroskali o czym możemy się przekonać że nie jest możliwe. Dużo lepsze było by stworzenie bramek logicznych w systemie nie zero-jedynkowym lecz np. z 5 możliwymi stanami. To jakby "pół drogi" do komputerów kwantowych a sprawa całkowicie kontrolowana - lub też stworzyć hardwarowy system neuronowy który oprócz 0 i 1 ma też zapamiętaną wagę tego stanu. Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 minut temu, Ergo Sum napisał:

Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję".

hm..a jest jakaś różnica między wyborem hardwerowym a softwerowym? W kontekście tej "intuicji"? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 minut temu, Afordancja napisał:

hm..a jest jakaś różnica między wyborem hardwerowym a softwerowym? W kontekście tej "intuicji"? 

jest - szybkość, energochłonność itp - która w przypadku wielkich symulacji przekracza jakiekolwiek możliwości obecnej techniki. Symulacja mózgu na systemach 0-1 jest obecnie i długo jeszcze będzie poza naszymi możliwościami. Tymczasem w przypadku logicznych bramek  z kilkoma pozycjami i  z pamięcią stanu było by to wielo-wielokrotnie łatwiejsze i skalowalne. IMHO

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hm...

 

26 minut temu, Ergo Sum napisał:

est - szybkość, energochłonność itp - która w przypadku wielkich symulacji przekracza jakiekolwiek możliwości obecnej techniki.

Rozumiem, czyli uważasz, że zmieniać klasycznego bita na komórkę pamięci zmiennoprzecinkową przyspieszy komputery. Bo w zasadzie chodzi o pamięć i manipulację na jej wartościach. Taki pewien tego akurat nie jestem, bo w sumie stworzenie stanów oprócz wysokiego i małego gdzieś po między nie jest technicznie problemem, jednak obliczenia na tym matematyczne w sumie nie muszą już być takie szybkie (binarnie naprawdę szybko i łatwo się liczy).

 

30 minut temu, Ergo Sum napisał:

Symulacja mózgu na systemach 0-1 jest obecnie i długo jeszcze będzie poza naszymi możliwościami.

No ale chodzi tyko o szybkość jak rozumiem, bo same stany pomiędzy nic nie dają bo osiągamy je teraz softwarowo. chociaż tak na boku mogę powiedzieć, że w sumie już są chipy które służą do symulacji sieci neuronowych i tam już hardwerowo mamy neurony (właśnie z pamięcią z przecinkami) jednak ich moc polega nie na tych przecinkach a własnie na równoległym przetwarzaniu tzn. taką samą operację matematyczną robimy równocześnie na N komórkach i dlatego właśnie karty graficzne w tej branży wygrywają ze zwykłym prockiem).

 

33 minuty temu, Ergo Sum napisał:

Tymczasem w przypadku logicznych bramek  z kilkoma pozycjami i  z pamięcią stanu było by to wielo-wielokrotnie łatwiejsze i skalowalne. IMHO

Mam pewne wątpliwości było b to łatwiejsze (no ale kwestia tego jak byś to widziała), lepszej skalowalności też nie widzę (ale znów nie wiem jak Ty to widzisz w praktyce).

 

Podsumowując, jeśli chodzi o "intuicję" przewagi  między systemami binarnymi a N-arnymi ;)  nie ma,

Tylko wg. Ciebie różnica jest w szybkości, energetyczności itd. której nam brakuje aby symulować mózg, 


To poruszając się w klasycznych komputerach uważam, że przyszłość jest w jakiejś zwykłej fizyce czy chemii i równoległej operacji na wielu komórkach pamięci, a nie wpowadzeniu N stanowych bitów bo to jest osiągalne w sumie już teraz (technicznie) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Ergo Sum napisał:

Oduczmy się raz na zawsze używać argumentu typu "okrągła ziemia też była na początku wyśmiewana". Komputery kwantowe, nawet jeśli realne i skuteczne NIE SA ani okrągłą ziemią ani komputerami zwykłymi. Są miliony pomysłów które okazały się utopią. NIE WIEMY czy komputery kwantowe (czy cokolwiek innego) są utopią - a ja zaczynam sądzić że niestety  tak. Moje obawy wynikają z tego że nieoznaczoność chcemy zmusić do pracy w makroskali o czym możemy się przekonać że nie jest możliwe. Dużo lepsze było by stworzenie bramek logicznych w systemie nie zero-jedynkowym lecz np. z 5 możliwymi stanami. To jakby "pół drogi" do komputerów kwantowych a sprawa całkowicie kontrolowana - lub też stworzyć hardwarowy system neuronowy który oprócz 0 i 1 ma też zapamiętaną wagę tego stanu. Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję".

Moim zdaniem powstaną raczej hybrydy niż "czyste" komputery kwantowe. Część kwantowa takiej hybrydy będzie odpowiedzialna za zawężenie zestawu możliwych wyników do jakichś rozsądnch granic, a część klasyczna określi dokładny wynik.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 17.05.2019 o 12:27, Afordancja napisał:

Podsumowując, jeśli chodzi o "intuicję" przewagi  między systemami binarnymi a N-arnymi ;)  nie ma,

Nie udowodniłeś tego. Udowodniłeś jedynie dwa swoje założenia - oszczędność energii na bramkach typu 0-1 i ich szybkość.  Mówiąc o szybkości i energii miała w ogóle na myśli różnicę hard i soft.

Mózg pracuje inaczej niż komputer dlatego żeby go symulować musimy na symulacje jednej synapsy przeznaczać całe paczki tranzystorów, bramek i czego tam jeszcze. Po takim zadaniu problem rośnie wykładniczo w procesie ważenia, następnie kolejny wykładniczy przyrost w procesie utrwalania wyniku i kolejny w procesie ważenia tego utrwalania. A dochodzi jeszcze jeden stopień tworzenia sieci tych elementów. W przypadku miliardów neuronów to długo jeszcze będzie niewykonalne przez systemy 0-1

Symulując mózg musimy wprowadzić wagę operacji i wagę zapamiętywania tej operacji. Wprowadzenie jednego zespołu który ma te wszystkie parametry jednocześnie może na początku wymagało by znacznych energii, i działało by wolno ale przynajmniej było by wykonalne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 godzin temu, Ergo Sum napisał:

Symulując mózg musimy wprowadzić wagę operacji i wagę zapamiętywania tej operacji. Wprowadzenie jednego zespołu który ma te wszystkie parametry jednocześnie może na początku wymagało by znacznych energii, i działało by wolno ale przynajmniej było by wykonalne.

Jest już coś takiego:

https://www.kurzweilai.net/ibm-scientists-emulate-neurons-with-phase-change-technology

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
17 godzin temu, Ergo Sum napisał:

Nie udowodniłeś tego. Udowodniłeś jedynie dwa swoje założenia - oszczędność energii na bramkach typu 0-1 i ich szybkość.  Mówiąc o szybkości i energii miała w ogóle na myśli różnicę hard i soft.

Ja nie chciałem udowadniać. Tylko chciałem raczej dociec Twój tok rozumowania, bo pisałaś (w kontekście "intuicji" )

1) wprowadzić zamiast systemu binarnego N-arny,
2) pisałaś, że "Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję"." Tylko, że softwarowo też może wybierać co mu się "bardziej" podoba (ps. tak na prawdę to tak nie działa, że coś wybiera "bardziej"). 
3) Ostatecznie zrozumiałem, że chodzi tylko o energetyczność i szybkość a  nie o jakąś nową jakość.

 

No i teraz nie wiem :) (jaka jest przewaga systemu N-arnego nad binarnym w kontekście "intuicji" jak i nie wiem jaka jest przewaga  systemu hadrwerowego vs softwerowego, po za oczywiście wspomnianą po za szybkością i energochłonnością. (

 

17 godzin temu, Ergo Sum napisał:

Mózg pracuje inaczej niż komputer dlatego żeby go symulować musimy na symulacje jednej synapsy przeznaczać całe paczki tranzystorów, bramek i czego tam jeszcze. Po takim zadaniu problem rośnie wykładniczo w procesie ważenia, następnie kolejny wykładniczy przyrost w procesie utrwalania wyniku i kolejny w procesie ważenia tego utrwalania. A dochodzi jeszcze jeden stopień tworzenia sieci tych elementów. W przypadku miliardów neuronów to długo jeszcze będzie niewykonalne przez systemy 0-1

hm...rozumiem i nie rozumiem ;) 
otóż już takie systemy hardwerowe odnośnie symulacji neuronów istnieją i to różne, i jedne z nich używają systemu 0-1 bo to i tak wystarcz do prezentacji liczb prawie dowolnej precyzji.  Bo problemem jest tutaj nie sama liczba przecinkowa tylko szybkie mnożenie wielu liczb równolegle (w zasadzie mnożenie macierzy)  i binarne są naprawdę szybkie. Drugim ciekawym podejściem w branży hardwwarowego podejśćia nie jest N-stanowego (bo dalej nie widzę korzyści) jest budowanie układów nazwijmy to ciągłych które symulują bezpośrednio pewien model neuronu.

 


 

17 godzin temu, Ergo Sum napisał:

Symulując mózg musimy wprowadzić wagę operacji i wagę zapamiętywania tej operacji. Wprowadzenie jednego zespołu który ma te wszystkie parametry jednocześnie może na początku wymagało by znacznych energii, i działało by wolno ale przynajmniej było by wykonalne.

Nie rozumiem, co i czy to teraz jest niemożliwe? 

 

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież kilkanaście lat temu powstał układ (nie pamiętam niestety dokładnej nazwy), który potrafił o rząd wielkości szybciej obliczać różne rozwiązania na bazie sieci neuronowej, tyle że miał niestety jak człowiek, pewien stały i wpisany w obliczenia gwarantowany procent błędu. Wydaje mi się, że jeśli nie dojdziemy jeszcze do opanowania korekcji błędów w komputerach kwantowych, gdzie margines błędu będzie duży, to chociaż przybliżymy się bardzo do wyników, które już na ostatnim etapie będą wymagały tylko małej mocy obliczeniowej konwencjonalnego komputera. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
52 minuty temu, Rowerowiec napisał:

Przecież kilkanaście lat temu powstał układ (nie pamiętam niestety dokładnej nazwy), który potrafił o rząd wielkości szybciej obliczać różne rozwiązania na bazie sieci neuronowej, tyle że miał niestety jak człowiek, pewien stały i wpisany w obliczenia gwarantowany procent błędu.

Szybciej niż co? Jakie obliczenia? Chodzi o klasyfikację obiektów?

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe mają rozwiązywać problemy, z którymi nie radzą sobie komputery klasyczne. Maszyny, które udało się zbudować, bazują zwykle na superpozycji stanów elektronicznych, na przykład na dwóch różnych ładunkach. Problem w tym, że kubity elektromagnetyczne szybko ulegają dekoherencji, tracą swój stan kwantowy. Wówczas superpozycja ulega zniszczeniu i nie mamy już do czynienia z kubitem. To obecnie znacząco ogranicza możliwości komputerów kwantowych. Wkrótce jednak może się to zmienić, gdyż naukowcy z Federalnego Instytutu Technologii w Zurychu stworzyli długo działający mechaniczny kubit.
      Szwajcarski kubit to miniaturowa wersja membrany instrumentu perkusyjnego. Zachowuje się ona w sposób podobny do kota Schrödingera – jednocześnie wibruje i nie wibruje. Jest więc w superpozycji. Wykorzystanie mechanicznego kubitu mogłoby doprowadzić do powstania mechanicznych komputerów kwantowych, zdolnych do przeprowadzania długotrwałych, złożonych obliczeń.
      Specjaliści, próbujący stworzyć mechaniczny kubit, mierzyli się z olbrzymim problemem związanym ze stanami energetycznymi. Standardowe kubity elektromagnetyczne zachowują się anharmonicznie, co oznacza, że pomiędzy ich stanami elektronicznymi istnienie nierównowaga energii i to właśnie czyni je użytecznymi kubitami. Z mechanicznymi rezonatorami, takimi jak wspomniana powyżej membrana, problem polega na tym, że są one harmoniczne. Poziomy energii pomiędzy wibracjami są równe, więc wykorzystanie ich jako kubitów jest niemożliwe. Zaproponowano więc rozwiązanie problemu, które miało polegać na połączeniu takiego mechanicznego oscylatora z najlepiej działającym elektromagnetycznym kubitem. Jednak czas działania takiej hybrydy uzależniony był od czasu dekoherencji kubita elektromagnetycznego. Całość nie sprawdzała się dobrze.
      Naukowcy z Zurychu wpadli więc na inny pomysł. Ich kubit składa się z elementu piezoelektrycznego umieszczonego na szafirowej płytce – to część mechaniczna – połączonego z szafirowym anharmonicznym elementem.
      Prototypowy układ osiąga czas koherencji rzędu 200 mikrosekund, działa więc 2-krotnie dłużej niż przeciętny kubit nadprzewodzący. Co prawda obecnie najlepsze kubity osiągają czas koherencji około 1 milisekundy, jest to więc około 5-krotnie dłużej niż mechaniczny kubit z Zurychu, ale mowa tutaj o wyjątkowych kubitach, nad którymi prace trwają od wielu lat.
      Szwajcarscy naukowcy zapewniają, że eksperymentując z różnymi materiałami i architekturami będą w stanie znacząco wydłużyć czas koherencji ich kubitu.
      Twórcy mechanicznego kubitu pracują teraz nad stworzeniem kwantowej bramki logicznej, odpowiednika bramek logicznych w tradycyjnych komputerach, za pomocą których przeprowadzane są obliczenia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy ze szwedzkiego Uniwersytetu Technologicznego Chalmersa poinformowali, że są jednym z pierwszych, którym udało się stworzyć materiał zdolny do przechowywania fermionów Majorany. Fermiony Majorany mogą być stabilnymi elementami komputera kwantowego. Problem z nimi jest taki, że pojawiają się w bardzo specyficznych okolicznościach.
      Na całym świecie trwają prace nad komputerami kwantowymi. Jednym z najpoważniejszych wciąż nierozwiązanych problemów jest niezwykła delikatność stanów kwantowych, które łatwo ulegają dekoherencji, tracąc superpozycję, czyli zdolność do jednoczesnego przyjmowania wielu wartości.
      Jednym z pomysłów na komputer kwantowy jest wykorzystanie do jego budowy fermionów Majorany. Para takich fermionów, umieszczonych w odległych częściach materiału, powinna być odporna na dekoherencję.
      Problem jednak w tym, że w ciałach stałych fermiony Majorany pojawiają się wyłącznie w nadprzewodnikach topologicznych. To nowy typ materiału, który bardzo rzadko jest spotykany w praktyce. Wyniki naszych eksperymentów zgadzają się z teoretycznymi przewidywaniami dotyczącymi topologicznego nadprzewodnictwa, cieszy się profesor Floriana Lombardi z Laboratorium Fizyki Urządzeń Kwantowych na Chalmers.
      Naukowcy rozpoczęli pracę od topologicznego izolatora z tellurku bizmutu (Bi2Te3). Izolatory topologiczne przewodzą prąd wyłącznie na powierzchni. Wewnątrz są izolatorami. Uczeni z Chalmers pokryli swój izolator warstwą aluminium, które w bardzo niskiej temperaturze jest nadprzewodnikiem. W takich warunkach do izolatora topologicznego przeniknęła nadprzewodząca para elektronów, przez co topologiczny izolator wykazywał właściwości nadprzewodzące, wyjaśnia profesor Thilo Bauch.
      Jednak wstępne pomiary wykazywały, że uczeni mają do czynienia ze standardowym nadprzewodnictwem w Bi2Te3. Gdy jednak naukowcy ponownie schłodzili swój materiał, by dokonać kolejnych pomiarów, sytuacja uległa nagłej zmianie. Charakterystyki nadprzewodzących par elektronów różniły się od siebie w zależności o kierunku. Takie zachowanie nie jest zgodne ze standardowym nadprzewodnictwem. Zaczęły zachodzić niespodziewane, ekscytujące zjawiska, mówi Lombardi.
      Istotnym elementem tego, co się wydarzyło był fakt, że zespół Lombardi – w przeciwieństwie do wielu innych grup, które prowadziły podobne eksperymenty – użył platyny do połączenia izolatora topologicznego z aluminium. Wielokrotne chłodzenie doprowadziło do wzrostu napięć w platynie, przez co doszło do zmian właściwości nadprzewodnictwa. Analizy wykazały, że w ten sposób najprawdopodobniej uzyskano topologiczny nadprzewodnik.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Rząd Niemiec zapowiedział, że przeznaczy 3 miliardy euro na zbudowanie do roku 2026 uniwersalnego komputera kwantowego. To część nowej strategii, w ramach której Niemcy chcą na polu informatyki kwantowej dorównać światowej czołówce – USA i Chinom – oraz stać się na tym polu liderem wśród krajów Unii Europejskiej. To kluczowe dla niemieckiej suwerenności technologicznej, stwierdziła Bettina Sark-Watzinger, minister ds. edukacji i badań.
      Ze wspomnianej kwoty 2,2 miliarda trafi do różnych ministerstw, które będą zajmowały się promocją i znalezieniem zastosowań dla komputerów kwantowych. Największa pulę, bo 1,37 miliarda otrzyma ministerstwo ds. edukacji i badań. Pozostałe 800 milionów euro otrzymają duże państwowe instytuty badawcze.
      Rząd w Berlinie zakłada, że kwota ta pozwoli na zbudowanie do roku 2026 komputera kwantowego o pojemności co najmniej 100 kubitów, którego możliwości w niedługim czasie zostaną p powiększone do 500 kubitów. Tutaj warto przypomnieć, że w ubiegłym roku IBM zaprezentował 433-kubitowy komputer kwantowy.
      W Unii Europejskiej nie powstały tak gigantyczne firmy IT jak Google czy IBM, które same są w stanie wydatkować miliardy dolarów na prace nad komputerami kwantowymi. Dlatego też przeznaczone nań będą pieniądze rządowe. Frank Wilhelm-Mauch, koordynator europejskiego projektu komputera kwantowego OpenSuperQPlus mówi, że i w USA finansowanie prac nad maszynami kwantowymi nie jest transparentne, bo wiele się dzieje w instytucjach wojskowych, a z Chin w ogóle brak jakichkolwiek wiarygodnych danych.
      Komputery kwantowe wciąż jeszcze nie są gotowe do większości praktycznych zastosowań, jednak związane z nimi nadzieje są olbrzymie. Mogą one zrewolucjonizować wiele dziedzin życia. Mają przeprowadzać w ciągu sekund obliczenia, które komputerom klasycznym zajmują lata. A to oznacza, że możliwe będzie przeprowadzanie obliczeń, których teraz się w ogóle nie wykonuje, gdyż nie można ich skończyć w rozsądnym czasie. Maszyny kwantowe mogą przynieść rewolucję na tak różnych polach jak opracowywanie nowych leków czy logistyka.
      Wiele niemieckich przedsiębiorstw działa już aktywnie na polu informatyki kwantowe. Na przykład firm Bosch, dostawca podzespołów dla przemysłu motoryzacyjnego, we współpracy z IBM-em wykorzystuje symulacje na komputerach kwantowych do zbadania czym można zastąpić metale ziem rzadkich w silnikach elektrycznych. Z kolei producent laserów Trumpf pracuje nad kwantowymi chipami i czujnikami, a działający na rynku półprzewodników Infineon rozwija układy scalone korzystające z szyfrowania kwantowego. Niemiecka Agencja Kosmiczna wystrzeliła zaś pierwsze satelity testujące systemy dystrybucji kwantowych kluczy szyfrujących.
      Bettina Stark-Watzinger chce, by do roku 2026 w Niemczech z komputerów kwantowych korzystało co najmniej 60 podmiotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie.
      Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa.
      Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym.
      Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Politechniki Wrocławskiej i Uniwersytetu w Würzburgu pochwalili się na łamach Nature Communications dokonaniem przełomu na polu badań kwantowych. Po raz pierwszy w historii udało się uzyskać ekscytony w izolatorze topologicznym. W skład zespołu naukowego weszli Marcin Syperek, Paweł Holewa, Paweł Wyborski i Łukasz Dusanowski z PWr., a obok naukowców z Würzburga wspomagali ich uczeni z Uniwersytetu w Bolonii i Oldenburgu.
      Izolatory topologiczne to jednorodne materiały, które są izolatorami, ale mogą przewodzić ładunki elektryczne na swojej powierzchni, a wystąpienie przewodnictwa nie jest związane ze zmianą fazy materiału, np. z jego utlenianiem się. Pojawienie się przewodnictwa związane jest ze zjawiskami kwantowymi występującymi na powierzchni takich izolatorów. Istnienie izolatorów topologicznych zostało teoretycznie przewidziane w 1985 roku, a eksperymentalnie dowiedzione w 2007 roku właśnie na Uniwersytecie w Würzburgu.
      Dotychczasowe prace nad wykorzystaniem izolatorów topologicznych koncentrowały się wokół prób kontroli przepływu ładunków elektrycznych za pomocą napięcia. Jeśli jednak izolator był wykonany z cząstek obojętnych elektrycznie, takie podejście nie działało. Naukowcy musieli więc wymyślić coś innego. W tym wypadku tym czymś okazało się światło.
      Po raz pierwszy udało się wygenerować kwazicząstki – tak zwane ekscytony – w izolatorze topologicznym i eksperymentalnie udowodnić ich istnienie. W ten sposób uzyskaliśmy nowe narzędzie, za pomocą którego możemy – metodami optycznymi – kontrolować elektrony. Otworzyliśmy nowy kierunek badań nad izolatorami topologicznymi, mówi profesor Ralph Claessen.
      Ekscyton to kwazicząstka, która stanowi parę elektron-dziura połączoną siłami elektrostatycznymi. Uzyskaliśmy ekscytony oddziałując krótkimi impulsami światła na jednoatomową warstwę materiału, mówi profesor Claessen. Przełomowy tutaj jest fakt, że materiałem tym był izolator topologiczny. Dotychczas nie udawało się w nim uzyskać ekscytonów. W tym przypadku izolator zbudowany był z bizmutu, którego atomy ułożono w strukturę plastra miodu.
      Całość badań optycznych przeprowadzono w Laboratorium Optycznej Spektroskopii Nanostruktur Politechniki Wrocławskiej.
      Osiągnięcie to jest o tyle istotne, że od około 10 lat specjaliści badają ekscytony w dwuwymiarowych półprzewodnikach, chcąc wykorzystać je w roli nośników informacji kontrolowanych światłem. Teraz za pomocą światła uzyskaliśmy ekscytony w izolatorze topologicznym. Reakcje zachodzące pomiędzy światłem a ekscytonami mogą prowadzić do pojawienia się nowych zjawisk w takich materiałach. To zaś można będzie wykorzystać, na przykład, do uzyskiwania kubitów, wyjaśnia Claessen. Kubity, czyli kwantowe bity, to podstawowe jednostki informacji w komputerach kwantowych. Badania polsko-niemieckiego zespołu mogą więc doprowadzić do powstania nowych kontrolowanych światłem podzespołów dla komputerów kwantowych.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...