Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Google twierdzi, że zbudowany przez tę firmę komputer osiągnął kwantową supremację, czyli wykonał obliczenia, których klasyczny komputer nie jest w stanie wykonać w rozsądnym casie. Jeśli to prawda, możemy mieć do czynienia z prawdziwym przełomem na polu informatyki kwantowej. Dotychczas bowiem komputery kwantowe nie dorównywały komputerom klasycznym.
Cała sprawa jest jednak otoczona tajemnicą. Prace Google'a zostały bowiem opisane w dokumencie, który niedawno został umieszczony na serwerze NASA. Jednak dokument szybko stamtąd usunięto. Przedstawiciele Google'a odmawiają komentarza w tej sprawie.

W dokumencie opisano procesor kwantowy o nazwie Sycamore, który ma zawierać 54 kubity. To właśnie on miał osiągnąć kwantową supremację. Wymieniony został też tylko jeden autor artykułu, John Martinias z Uniwersytetu Kalifornijskiego w Santa Barbara. Wiadomo, że pracuje on dla Google'a nad sprzętem dla komputerów kwantowych. Wiadomo też, że w 2018 roku Google i NASA zawarły porozumienie, w ramach którego agencja kosmiczna miała pomóc Google'owi w testach kwantowej maszyny. Wspomniany dokument opisuje, w jaki sposób procesor Sycamore rozwiązał problem prawdziwego rozkładu losowego liczb. Tego typu problemy są niezwykle trudne dla komputerów klasycznych.

Ci, którzy czytali dokument mówią, że jeden z kubitów procesora nie działał, ale pozostałe 53 zostały splątane, wygenerowały przypadkowy zestaw liczb w systemie dwójkowym i sprawdziły, czy rzeczywiście ich rozkład jest przypadkowy. Autorzy artykułu obliczyli, że wykonanie takiego zadania zajęłoby Summitowi, najpotężniejszemu klasycznemu superkomputerowi na świecie aż 10 000 lat. Procesor Sycamore wykonał je w 200 sekund.

Autorzy artykułu przyznają, że użyty algorytm nie przyda się do niczego więcej niż do generowania prawdziwych liczb losowych. Jednak w przyszłości podobny procesor może być przydatny w maszynowym uczeniu się, chemii czy naukach materiałowych.
Osiągnięcie kwantowej supremacji przez Google'a to ważny krok w informatyce kwantowej, mówi Jim Clarke z Intel Labs. Ekspert dodaje, że wciąż jesteśmy na początku drogi. To, co osiągnął Google było jedynie demonstracją i to nie wolną od błędów. Jednak w przyszłości będą budowane większe potężniejsze procesory kwantowe, zdolne do wykonywania bardziej użytecznych obliczeń.


« powrót do artykułu

Share this post


Link to post
Share on other sites
20 minut temu, KopalniaWiedzy.pl napisał:

Autorzy artykułu przyznają, że użyty algorytm nie przyda się do niczego więcej niż do generowania prawdziwych liczb losowych.

moment, moment

21 minut temu, KopalniaWiedzy.pl napisał:

wygenerowały przypadkowy zestaw liczb w systemie dziesiętnym i sprawdziły, czy rzeczywiście ich rozkład jest przypadkowy

A "przypadkiem" algorytm taki nie będzie nadawał się do...łamiania szyfrów?

Share this post


Link to post
Share on other sites
23 minuty temu, radar napisał:

A "przypadkiem" algorytm taki nie będzie nadawał się do...łamiania szyfrów?

A coś więcej? Bo nie widzę przesłanek.

Share this post


Link to post
Share on other sites

Obawiam się jednego, że niedługo do zrozumienia jak można zastosować komputer kwantowy ze sztuczną inteligencją będzie potrzebny ... komputer kwantowy ze sztuczną inteligencją ;)

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites
W dniu 23.09.2019 o 15:35, Afordancja napisał:

A coś więcej? Bo nie widzę przesłanek.

No nie widać. Jakoś tak mi się skojarzyło z generowaniem "losowych" liczb pierwszych.

W dniu 23.09.2019 o 23:33, Ergo Sum napisał:

Obawiam się jednego

A ja na prawdę się obawiam. Jako związany mocno z aj ti, jako ojciec, jako osoba dbająca o bezpieczeństwo danych czy prywatności to taki komputer mógłby zmienić bardzo dużo.

Ciekawe tylko czy to był przeciek czy "kontrolowany przeciek"? Jeśli to pierwsze to ciekawe jakie są postępy na płaszczyźnie militarnej.

Share this post


Link to post
Share on other sites
W dniu 23.09.2019 o 15:31, Wuj_Sam napisał:

Troszeczkę obszerniejszy artykuł a propos łamania szyfrów 

https://wolnemedia.net/supremacja-google-w-zakresie-informatyki-kwantowej/

Nie mam wiedzy na ten temat, ale tak na zdrowy rozsądek, to mam wrażenie, że to strachy na lachy. Powiedzmy, że Google zbudował algorytm kwantowy, który łamie dowolne losowe hasło w kilka sekund. Teraz, samo wykorzystanie tego w klasycznych komputerach staje się niemożliwe, bo (a) na takim komputerze samo sprawdzenie jednego hasła zajmuje co najmniej 1 sekundę; (b) producenci oprogramowań i aplikacji zmienią natychmiast swoje standardy i założą zabezpieczenie trochę podobne jak w bankach, gdzie można max 2 razy się pomylić przy wpisywaniu hasła, albo zrobią to co "zlewaczona" Unia Europejska, która nakazała otwierać stronę internetową banku sms-em (wg mnie zupełnie zbyteczna i nadmierna troska o bezpieczeństwo).

To oczywiście tylko przemyślenie laika w tym temacie, ale myślę, że wielu tak rozumuje i jeśli się mylę, to specjalista powinien wyjaśnić gdzie laik popełnia błąd rozumowania.

Share this post


Link to post
Share on other sites
Godzinę temu, Antylogik napisał:

to specjalista powinien wyjaśnić gdzie laik popełnia błąd rozumowania.

Jestem ekspertem, czekam na pytania:)

Godzinę temu, Antylogik napisał:

założą zabezpieczenie trochę podobne jak w bankach, gdzie można max 2 razy się pomylić przy wpisywaniu hasła

Przeczytaj sam co napisałeś wyżej, nie mylisz się wcale, bo hasło (a właściwie klucz prywatny/publiczny) znasz :) Komputer klasyczny nie ma tu nic do rzeczy, hasło możesz wklepać nawet ręcznie :)

A "zlewaczona"  EU chciała niby dobrze (uwierzytelnienie dwuskładnikowe, "coś co wiesz i coś co masz"), szkoda tylko, że w upierdliwej i niezbyt bezpiecznej (smartfon) formie.

Mnie interesuje przez ile Google byłby tego właścicielem. Żaden rząd nie pozwoliłby na coś takiego, a już na pewno nie demokratyczno-amerykański :)

Co z implikacjami na cały świat, przecież tj. uzyskanie przewagi ekonomiczno-militarnej, której nie da się skompensować inaczej niż... no właśnie, czy nie wojną i to nuklearną? "Skoro nie mogę wygrać, to nie chcę przegrać"

 

Share this post


Link to post
Share on other sites
1) Komputery kwantowe całkowicie zdemolują szyfrowanie asymetryczne i poważnie osłabią szyfrowanie symetryczne - liczba bitów klucza prywatnego podzielona przez 2.

2) Rząd i służby mają możliwość pozyskać dane zaszyfrowane, czy to poprzez fizyczne zajęcie komputera czy przechwytywanie ruchu w internecie. W najbliższej przyszłości komputer kwantowy może im umożliwić złamanie szyfrów. Szczególnie wymiana kluczy w SSL/TLS do komunikacji HTTPS jest zdaje się zagrozona.

3) Komputer kwantowy da chwilowo przewagę stronie posiadającej, do czasu kiedy to przeciwnicy czy to inne kraje czy też biznes infosec nadgoni albo wdroży bezpieczniejsze rozwiązania. Przy czym nie będzie miało to wpływu na dane już przechwycone.

4) Komputery tego typu nie będą, przynajmniej początkowo, wykorzystywane do atakowania zwykłych ludzi.
 
5) Zabezpieczenie iPhone, które kasowało hasło do zaszyfrowanych danych po podaniu 10 błędnego hasła było obchodzone przez służby USA przez wylutowanie kości NAND. 
 
6) Co ma "zlewaczenie" Unii Europejskiej do bezpieczeństwa IT? Z tego co widzę na świecie, to im bardziej prawicowy kraj, tym bardziej rząd jest opresyjny w internecie.

7) PSD2 i wprowadzenie wymogu uwierzytelniana dwu składnikowego (2FA) jest bardzo dobrym ruchem. Można dyskutować czy SMS/aplikacja to najlepszy wariant. Z pewnością nie, ale bezpieczeństwo to zawsze kompromis. W tym wypadku przeważyła dostępność telefonów, która i tak znacznie podnosi bezpieczeństwo w porównaniu do samego hasła. W moim banku za granicą mam możliwość korzystania z aplikacji ale i czytnika karty kredytowej/debetowej do generowani kodów z czego skorzystałem.

Share this post


Link to post
Share on other sites
Godzinę temu, cyjanobakteria napisał:

3) Komputer kwantowy da chwilowo przewagę stronie posiadającej, do czasu kiedy to przeciwnicy czy to inne kraje czy też biznes infosec nadgoni albo wdroży bezpieczniejsze rozwiązania. Przy czym nie będzie miało to wpływu na dane już przechwycone.

No tak. Pytanie, jak długo trwać będzie ta "chwila". Zauważ, że do momentu odzyskania równowagi jedna strona może właściwie kontrolować drugą i... np. opóźniać, albo i nie dopuścić do odzyskania równowagi.

Godzinę temu, cyjanobakteria napisał:

4) Komputery tego typu nie będą, przynajmniej początkowo, wykorzystywane do atakowania zwykłych ludzi.

Jeśli technologia zostanie opanowana myślę, że nie zabraknie środków na budowę odpowiedniej infrasrtuktury i dla zwykłych ludzi.

 

Share this post


Link to post
Share on other sites
Godzinę temu, cyjanobakteria napisał:

PSD2 i wprowadzenie wymogu uwierzytelniana dwu składnikowego (2FA) jest bardzo dobrym ruchem. Można dyskutować czy SMS/aplikacja to najlepszy wariant. Z pewnością nie, ale bezpieczeństwo to zawsze kompromis.

Ani pierwsze ani trzecie zdanie nie jest prawdziwe. W mbanku każdą (początkową) operację na kwotach i tak trzeba potwierdzać chyba sms-em. Zatem podwójne zabezpieczanie jest zwykłą przesadą. 

Bezpieczeństwo to zaprzeczenie kompromisu. Kompromis może być pomiędzy bezpieczeństwem a ryzykiem, a więc jedno z tego będzie skrajnością, czyli brakiem kompromisu.

Share this post


Link to post
Share on other sites
3 godziny temu, Antylogik napisał:

Nie mam wiedzy na ten temat, ale tak na zdrowy rozsądek, to mam wrażenie, że to strachy na lachy. Powiedzmy, że Google zbudował algorytm kwantowy, który łamie dowolne losowe hasło w kilka sekund. Teraz, samo wykorzystanie tego w klasycznych komputerach staje się niemożliwe, bo (a) na takim komputerze samo sprawdzenie jednego hasła zajmuje co najmniej 1 sekundę; (b) producenci oprogramowań i aplikacji zmienią natychmiast swoje standardy i założą zabezpieczenie trochę podobne jak w bankach, gdzie można max 2 razy się pomylić przy wpisywaniu hasła, albo zrobią to co "zlewaczona" Unia Europejska, która nakazała otwierać stronę internetową banku sms-em (wg mnie zupełnie zbyteczna i nadmierna troska o bezpieczeństwo).

 

Manko, tu nie chodzi o łamanie haseł do banku, czyli wpisywanie ich szybko lub wolno do strony banku, tu chodzi o, jak już ktoś wspomniał, szyfrowanie asymetryczne. Czyli np. podpisy cyfrowe, pewnie też w przypadku wycieków baz z hasłami (w zasadzie ich skrótami) znajdą sposoby (nie mam wiedzy czy na to też są algorytmy kwantowe) na odgadnięcie haseł. (teraz to trochę brute force). Jednak zgodzę się, że na "technikę" znajdzie się "antytechnika" i spokojnie sobie damy z tym radę, wzrośnie może rola szyfrów symetrycznych. A na asymetryczne znajdą się takie na które nikt nie zna algorytmów kwantowych. No i ostatecznie będzie szyfrowanie kwantowe :)

 

Jednym słowem nie panikował bym, tzn. będzie jeden punkt krytyczny kiedy to jeszcze nie wszyscy ogarną, że trzeba już zmienić technologię, tak jak teraz jeszcze niektórzy trzymają hasła w pain text. 

Share this post


Link to post
Share on other sites
44 minutes ago, Antylogik said:

W mbanku każdą (początkową) operację na kwotach i tak trzeba potwierdzać chyba sms-em. Zatem podwójne zabezpieczanie jest zwykłą przesadą. 

Bezpieczeństwo to zaprzeczenie kompromisu. Kompromis może być pomiędzy bezpieczeństwem a ryzykiem, a więc jedno z tego będzie skrajnością, czyli brakiem kompromisu.

Nie pamiętam, jak jest w mBanku teraz, ale kiedyś można było dodać zaufanego odbiorcę potwierdzając jednorazowo SMS, ewentualnie tak jak piszesz - każda operację. Sporo ataków wymaga od ofiary podania kodu potwierdzającego w celu dodania odbiorcy albo potwierdzenie zmodyfikowanej w locie transakcji, więc rozumiem Twój punkt widzenia. 2FA jednak ujednolica systemy bankowe i wymusza na atakującym wykradzenie dodatkowego kodu, więc jest to dodatkowe zabezpieczenie. Nie zabezpiecza wszystkich możliwych wektorów ataku, ale utrudnia samo zalogowanie się w celu chociażby sprawdzenia rachunku.

Bezpieczeństwo to jest zawsze kompromis pomiędzy wygodą użytkownika a poziomem bezpieczeństwa w odniesieniu do założonego modelu zagrożeń. Nie ma czegoś takiego jak całkowite bezpieczeństwo. Model zagrożeń typowego użytkownika, których jest 99%, jest inny niż działacza opozycyjnego, dilera dragów w darknecie albo terrorysty rekrutującego do IS.

EDIT:

Właśnie się pojawił artykuł na Sekuraku o "sim swap", który odnosi się do dyskusji o PSD2:
https://sekurak.pl/pani-katarzyna-z-gdanska-stracila-275-000-zl-wyrobili-duplikat-karty-sim-i-ogolocili-konto/

Quote

Coraz częściej w Polsce realizowane są ataki SIM Swap (czyli nielegalne wyrobienie duplikatu karty SIM ofiary – w takim przypadku atakowany telefon nagle przestaje działać, a napastnicy uzyskują dostęp do kodów SMS-owych autoryzujących transakcje). W przypadku pani Katarzyny, duplikat karty SIM otrzymano prawdopodobnie na podstawie sfałszowanego dowodu osobistego.

To jest jedna ze słabości SMS. Dlatego wybrałem czytnik kart, który jest najbezpieczniejszą opcję w moim banku.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
31 minut temu, cyjanobakteria napisał:

duplikat karty SIM otrzymano prawdopodobnie na podstawie sfałszowanego dowodu osobistego.

Teraz, przynajmniej częściowo, będzie to ograniczone, koniec z dowodami kolekcjonerskimi.

Ciekawe kiedy zacznie się za to na poważnie obciążać sieci komórkowe (za duplikat-fałszywke)

Share this post


Link to post
Share on other sites
25 minutes ago, radar said:

Ciekawe kiedy zacznie się za to na poważnie obciążać sieci komórkowe (za duplikat-fałszywke)

Dobre pytanie. Może kary finansowe zmusiłyby telcomy do uszczelnienia procedur. Firmy powinny dbać o bezpieczeństwo i uszczelnić systemy, ale z drugiej strony to znowu kompromis. Jeżeli wystawienie duplikatu SIM będzie mocno utrudnione, uderzy to w zwykłych klientów. Numery telefonów nie zostały zaprojektowane z myślą o uwierzytelnianiu, chociaż ten kanał jest często wykorzystywany w 2FA. Krebs w zeszłym roku pisał o pracownikach telcomów, którzy oferowali usługi "SIM swap" przestępcom za opłatą, więc zagrożenie wewnętrzne (insider threat) to kolejny wektor.

Share this post


Link to post
Share on other sites
1 godzinę temu, cyjanobakteria napisał:

Firmy powinny dbać o bezpieczeństwo i uszczelnić systemy

Jeśli firma to bank, to się ubawiłem. Generalnie banki zajmują się raczej kasą, a nie odpowiednimi algorytmami; od tego są inni ludzie.

1 godzinę temu, cyjanobakteria napisał:

więc zagrożenie wewnętrzne (insider threat) to kolejny wektor

To zawsze największe zagrożenie. Generalnie najsłabszym ogniwem zawsze jest człowiek.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
      Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
      Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
      Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
      Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
      Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
      W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Chińscy naukowcy ogłosili, że dotrzymali słowa danego w grudniu ubiegłego roku i ulepszyli swój układ optyczny tak, że przeprowadził kwantowe gaussowskie próbkowanie bozonu na macierzy 144x144. Tym samym potwierdzili, że ich komputer kwantowy osiągnął kwantową supremację, czyli jest w stanie wykonać obliczenia, których komputery klasyczne nie potrafią wykonać w rozsądnym czasie.
      O osiągnięciu kwantowej supremacji słyszeliśmy już kilkukrotnie. Tak na przykład twierdził Google w 2019 roku. Za każdym jednak razem specjaliści wysuwali zastrzeżenia, co do wykorzystanych algorytmów. Tym razem, jak zapewniają Chińczycy, takich zastrzeżeń nie będzie.
      Pracami uczonych z Narodowego Laboratorium Nauk Fizycznych na Chińskim Uniwersytecie Nauki i Technologii w Hefei kierował Jian-Wei Pan. Celem prac było zbudowanie komputera kwantowego, który obliczy prawdopodobieństwo wystąpienia danego wyniku na wyjściu w obwodzie kwantowym. Zadanie takie komputery klasyczne potrafią rozwiązać bez większych problemów, pod warunkiem jednak, że istnieje niewiele punktów wyjścia i wejścia takiego obwodu. Gdy jednak jest ich więcej, czas potrzebny do przeprowadzenia obliczeń za pomocą klasycznych komputerów staje się tak długi, że ich przeprowadzanie traci sens.
      Zespół przeprowadził gaussowskie próbkowanie bozonu (GBS). Na czym ono polega? Wyobraźmy sobie w tym miejscu układ optyczny z wieloma wejściami i wyjściami. Następnie wpuszczamy do niego pojedyncze fotony, które na swojej drodze do wyjścia napotykają różne komponenty optyczne, jak dzielniki wiązki czy lustra. Nasze zadanie obliczeniowe polega na tym, by określić, jakie fotony pojawią się na wyjściu. Taki układ możemy więc postrzegać jako matrycę dokonującą transformacji konfiguracji fotonów wpuszczonych na wejściu w konfigurację wyjściową. Określenie konfiguracji wyjściowej jest bardzo trudne nawet dla niewielkiej matrycy z rozdzielaczy i lusterek.
      Przy rosnącej liczbie punktów wejścia i wyjścia, określenie wyniku takiego eksperymentu jest niezwykle trudne. W grudniu ubiegłego roku Chińczycy wykorzystali GBS składający się ze 100 punktów wejścia i 100 punktów wyjścia. Informowali wówczas, że ich system przeprowadził obliczenia w ciągu około 200 sekund. Tymczasem chiński superkomputer Sunway TaihuLight, 4. najpotężniejszy wówczas komputer na świecie, potrzebowałby do wykonania takich obliczeń... około 2,5 miliarda lat.
      Po udanym eksperymencie naukowcy zapowiedzieli, że udało im się udoskonalić GBS na tyle, że przeprowadzą eksperymenty na matrycy 144x144. W 2021 roku nasza maszyna GBS będzie łatwiejsza w dostrojeniu, mniejsza i bardziej stabilna. Zaczynamy zastanawiać się nad jej wdrożeniem do celów praktycznych, mówili wówczas.
      Teraz dotrzymali złożonej obietnicy. Poinformowali, że przy matrycy 144x144 istnieje 1043 możliwych rozwiązań, a ich GBS dokonał obliczeń 1023 razy szybciej niż superkomputer. Tym samym, zapewniają, osiągnęli kwantową supremację.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wiele współczesnych komputerów kwantowych zapisuje informacje w nietrwałych stanach kwantowych, które bardzo trudno jest utrzymać i skalować. Rozwiązaniem problemu może być trwały nanomechaniczny kubit.
      Kwantowe bity zbudowane z wibrujących węglowych nanorurek i par kropek kwantowych mogą być bardzo odporne na zakłócenia zewnętrzne. Tak przynajmniej wynika z obliczeń wykonanych przez Fabio Pistolesiego z francuskiego Narodowego Centrum Badań Naukowych i jego kolegów z Hiszpanii i USA. Obliczenia wskazują bowiem, że czas dekoherencji takiego nanomechanicznego kubitu były bardzo długi, co czyni tę architekturę obiecującym elementem komputerów kwantowych.
      Komputery kwantowe mogą, przynajmniej teoretycznie, dokonywać wielu obliczeń znacznie szybciej niż maszyny klasyczne. Wynika to z samych zasad fizyki kwantowej. Najmniejszą jednostką informacji, jaką posługują się komputery, jest bit, reprezentowany przez cyfrę „0” lub „1”. W 4 bitach możemy zapisać 16 (24) kombinacji zer i jedynek. W komputerze klasycznym w danym momencie możemy zapisać jedną z tych kombinacji – gdyż każdy z bitów może przyjąć pozycję albo „0” albo „1” – i wykonać na niej działania.
      Jednak komputery kwantowe nie korzystają z bitów, a z kubitów (bitów kwantowych). Kubitem może być np. elektron. A z praw mechaniki kwantowej wiemy, że nie ma on jednej ustalonej wartości „0” lub „1”, ale przyjmuje obie jednocześnie. To tzw. superpozycja. Zatem w komputerze kwantowym w danym momencie zapiszemy wszystkie 16 kombinacji i wykonamy na nich działania. Innymi słowy, 4-bitowy komputer kwantowy powinien być – przynajmniej w teorii – aż 16-krotnie szybszy od swojego klasycznego odpowiednika. Obecnie zaś korzystamy z procesorów 64-bitowych, więc liczba możliwych kombinacji zer i jedynek wynosi w ich przypadku 264.
      Problem jednak w tym, że stany kwantowe są bardzo nietrwałe i w wyniku interakcji z czynnikami zewnętrznymi kubit może ulec dekoherencji, czyli utracić swój stan kwantowy (superpozycję) i stać się „standardową” jedynką albo zerem. Widzimy więc, jak istotny jest czas dekoherencji. Im jest on dłuższy, tym więcej czasu zostaje na przeprowadzenie obliczeń.
      Obiecującymi kandydatami na kubity są obwody nadprzewodzące, jony uwięzione w pułapkach magnetycznych czy kropki kwantowe. Teraz międzynarodowa grupa uczonych przekonuje, że możliwe jest też zbudowanie stabilnego nanomechanicznego kubitu.
      Kubit taki miały się składać z wiszącej węglowej nanorurki działającej jak rezonator, której wibracje zależą od stanów elektronicznych dwóch kropek kwantowych znajdujących się w samej nanorurce. Sprzężenie pomiędzy kropkami a nanorurką powoduje, że rezonator staje się silnie anharmoniczny. To oznacza, że okres drgań jest zależny od jego amplitudy. W takim rezonatorze bardzo łatwo wykryć nawet najmniejsze zmiany amplitudy. Pistolesi uważa, że właśnie amplitudę można wykorzystać do przechowywania kwantowej informacji.
      Innymi słowy, najmniejsza możliwa amplituda drgań (kwantowy stan podstawowy) odpowiada „0”, a kolejna najmniejsza amplituda (pierwszy stan wzbudzenia) odpowiada „1”. Stany te można z łatwością odczytać za pomocą mikrofal. Fakt, że częstotliwość pracy oscylatora zmienia się, gdy zmienia się jego amplituda, pozwala nam na odczytywanie kubitu i manipulowanie nim, wyjaśnia swoją koncepcję Pistolesi. Uczony przekonuje, że taki kubit byłby bardzo trwały. Zanim pojawi się dekoherencja, dojdzie w nim do milionów oscylacji.
      Wyniki badań, chociaż obiecujące, nie rozwiązują wszystkich problemów. Naukowcy wciąż nie wiedzą, w jaki sposób wprowadzić do takiego systemu na tyle silną anharmoniczność, by całość poddawała się kontroli.
      Być może zaproponowana przez Pistolesiego architektura nigdy nie trafi do komputerów kwantowych. Jednak może się ona przydać do budowy niezwykle czułych detektorów kwantowych, gdyż oscylatory takie byłyby podatne na działanie klasycznych sił. Można by je więc wykorzystać do wykrywania niewielkich zmian przyspieszenia, pola elektrycznego czy magnetycznego.
      Teraz badacze chcą zbudować zaproponowany przez siebie kubit i przetestować jego działanie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po raz pierwszy udało się dwukrotnie wykryć poruszający się pojedynczy foton, nie niszcząc go przy tym. To ważna osiągnięcie, gdyż dotychczas foton ulegał zwykle zniszczeniu podczas jego rejestrowania. Najnowsze osiągnięcie może przyczynić się do powstania szybszych i bardziej odpornych na zakłócenia sieci optycznych i komputerów kwantowych.
      Zwykle wykrycie fotonu wiąże się z jego zaabsorbowaniem. Jednak foton może nieść ze sobą cenne informacje, a w takich przypadkach specjaliści woleliby mieć możliwość odczytania tych danych i przepuszczenia fotonu dalej, do miejsca docelowego. Żadna metoda detekcji nie jest w 100% skuteczna, zawsze istnieje ryzyko, że coś się prześliźnie niewykryte, mówi jeden z autorów badań, Stephan Welte, fizyk kwantowy z Instytutu Optyki Kwantowej im. Maxa Plancka w niemieckim Garching. Dlatego też możliwość niedestrukcyjnego wykrywania fotonów jest tak ważna – ustawienie detektorów jeden za drugim zwiększa szanse, że wykryjemy wszystkie interesujące nas fotony.
      Dotychczas opracowano różne sposoby wykrywania fotonu bez jego niszczenia. Często polegają one na interakcji fotonu z jonem, nadprzewodzącym kubitem lub innymi systemami kwantowymi. Jednak w ten sposób możemy albo wykonać pojedynczą niedestrukcyjną rejestrację poruszającego się fotonu, albo liczne niedestrukcyjne odczyty stacjonarnego fotonu uwięzionego we wnęce.
      Teraz naukowcy z Niemiec dwukrotnie wykryli pojedynczy foton wędrujący światłowodem. Wykorzystali w tym celu skonstruowany przez siebie niedestrukcyjny detektor zbudowany z pojedynczego atomu rubidu uwięzionego w odbijającej wnęce. Foton, wpadając do wnęki, odbija się od jej ścian, zmieniając stan kwantowy atomu, co można wykryć za pomocą lasera. Uczeni umieścili dwa takie detektory w odległości 60 metrów od siebie. Wykryły one ten sam foton, nie absorbując go. Welte mówi, że teoretycznie można w ten sposób wykryć pojedynczy foton nieskończoną liczbę razy, jednak w praktyce istnienie 33-procentowe ryzyko, że użycie detektora spowoduje utratę fotonu.
      Nowa technologia może w przyszłości pozwolić na śledzenie trasy fotonów. Pozwoli to na przyspieszenie pracy systemów kwantowych, gdyż będziemy w stanie upewniać się, że zakodowane w fotonach informacje dotrą tam, gdzie powinny.
      Powiedzmy, że chcesz wysłać kwantową informację z Monachium do Nowego Jorku. Możesz w międzyczasie wielokrotnie sprawdzać, czy foton nie został po drodze utracony, np. sprawdzając, czy dotarł do Paryża. Jeśli okaże się, że foton zgubił się po drodze, można będzie natychmiast wysłać go ponownie. Nie trzeba będzie czekać na zakończenie całej transmisji, by upewnić się, że wszystko poszło tak, jak powinno, wyjaśnia główny autor badań, Emanuele Distante.
      Twórcy nowych detektorów uważają, że nie można ich będzie wykorzystać do podsłuchania kwantowej komunikacji. To jak śledzenie przesyłek. Możesz dowiedzieć się, gdzie jest paczka, ale nic nie wiesz o jej zawartości. Foton zawiera w sobie pewną kwantową informację. Możesz w sposób niedestrukcyjny go wykryć, ale nie odczytać, stwierdza Welte.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...