Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Kwantowa architektura von Neumanna

Recommended Posts

Na University of California, Santa Barbara, powstał pierwszy komputer kwantowy, w którym połączono procesor z pamięcią. Odtworzono zatem, tym razem jednak w maszynie kwantowej, architekturę von Neumanna. Był to pierwszy rodzaj architektury komputera (jego autorami, obok von Neumanna byli John Mauchly i John Eckert). Jej najważniejszą cechą było przechowywanie danych wraz z instrukcjami. Zanim powstała architektura von Neumanna przeprogramowywanie komputerów mogło się odbywać jedynie poprzez ich fizyczną rekonfigurację.

Pojawienie się pierwszego w pełni funkcjonalnego komputera kwantowego jest wciąż bardzo odległe w czasie, jednak połączenie procesora i pamięci to ważny krok w stworzeniu kwantowej maszyny. Dzięki temu programowanie i kontrolowanie komputera staje się znacznie prostsze.

Obecnie jedynym dostępnym komercyjnie urządzeniem, które do obliczeń wykorzystuje zjawiska kwantowe, jest komputer firmy D-Wave. Jego architektura przypomina jednak rozwiązania sprzed epoki pojawienia się architektury von Neumanna. Jedyny egzemplarz komputera D-Wave kupił ponoć Lockheed Martin.

Każdy obecnie używany komputer bazuje na architekturze von Neumanna, a my stworzyliśmy jej kwantowy odpowiednik - mówi Matteo Mariantoni, główny autor badań.

Komputer z Uniwersytetu Kalifornijskiego korzysta z obwodów elektrycznych, które są schładzane do temperatury bliskiej zeru absolutnemu. Wówczas działają jak nadprzewodniki i zachodzą w nich zjawiska kwantowe. Mariantoni mówi, że wykorzystano układy, które mogą być tworzone za pomocy współczesnych technik używanych w przemyśle półprzewodnikowym, a dzięki nadprzewodzącym obwodom możliwe było umieszczenie procesora i pamięci na jednym układzie i uzyskanie architektury von Neumanna.

Wspomniany komputer to maszyna wykorzystująca dwa kubity (kwantowe bity), które komunikują się za pomocą kwantowej szyny. Każdy z kubitów jest też połączony z układem pamięci, w którym może zapisać swój obecny stan w celu jego późniejszego wykorzystania. Pamięć działa zatem tak, jak układ RAM w tradycyjnym komputerze. Kubity łączą się z pamięcią za pośrednictwem obwodów zwanych rezonatorami, które przez krótki czas mogą przechowywać stan kubitu.

W kwantowej architekturze von Neumanna uruchomiliśmy kwantową transformację Fouriera oraz trzykubitową bramkę Toffoliego - kluczowe kwantowe obwody logiczne, które posłużą nam do dalszych prac nad kwantowym komptuerem - mówi Mariantoni.

Share this post


Link to post
Share on other sites

"tranfromatę Fouriera" = transformację Fouriera:/

Mylisz się. W Twoim równaniu prawa strona nie jest równa lewej.

Pewnie Ci chodziło o literówkę?. To w tym kontekście i tak właściwe jest: transformatę Fouriera.

 

A kulturalnie, bez szpanowania, literówki zgłasza się opcją: zgłoś do moderatora.

Taka netykieta jest.

Share this post


Link to post
Share on other sites

Mylisz się. ................

Taka netykieta jest.

TrzyGrosze - wyluzuj i zdejmij klapy z oczu, nie bądz hipokrytą. Przeczytaj uwaznie tekst oryginalu i zastanow sie co mieli na mysli autorzy. Po drugie nie bądz taki policjant nie cierpie nadgroliwych obroncow wszystkiego. Zauważ, nie pierwszy raz widze komentarze z poprawkami na wierzchu, strofuj ich a ode mnie sie oddal...

Share this post


Link to post
Share on other sites

Każdy obecnie używany komputer bazuje na architekturze von Neumanna

 

Dziwne, że mówi to naukowiec, ale to nie jest prawda… (swoją drogą nie zauważyłem takiego stwierdzenia w artykule źródłowym) Obecne procesory są w architekturze Harvard-Princeton.

Share this post


Link to post
Share on other sites

Dziwne, że mówi to naukowiec, ale to nie jest prawda… (swoją drogą nie zauważyłem takiego stwierdzenia w artykule źródłowym) Obecne procesory są w architekturze Harvard-Princeton.

Może autorowi chodzilo raczej o to, że architektura von Neumanna była zalążkiem współczesnych komputerów, albo inaczej - pierwszym, lub jednym z pierwszych  typów komputera współczesnego;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Grafenowe bolometry mogą całkowicie zmienić zasady gry na polu komputerów kwantowych, stwierdzają na łamach Nature fińscy naukowcy z Uniwersytetu Aalto i VTT Technical Research Centre of Finland. Stworzyli oni nowy detektor mierzący energię z niedostępnymi wcześniej dokładnością i szybkością. To może pomóc w rozwoju komputerów kwantowych i upowszechnieniu się tych maszyn poza laboratoria.
      Bolometr to urządzenie, które określa ilość promieniowania mierząc, jak bardzo zostało przez to promieniowanie ogrzane. Głównym autorem nowego niezwykle precyzyjnego bolometru jest profesor Mikko Möttönen, który pracował nad nim przez ostatnią dekadę.
      Współczesne komputery kwantowe działają dzięki pomiarom energii kubitów. Większość z nich mierzy napięcie elektryczne indukowane przez kubit. Dokonywanie takich pomiarów jest jest związane z występowaniem trzech problemów. Po pierwsze pomiary takie wymagają rozbudowanych obwodów wzmacniających napięcie, co może ograniczać możliwości skalowania systemów kwantowych. Po drugie obwody takie zużywają sporo energii. W końcu po trzecie, pomiary napięcia wprowadzają szum kwantowy, który z kolei generuje błędy w odczytach kubitów. Specjaliści zajmujący się komputerami kwantowymi od dawna mają nadzieję, że wszystkie trzy problemy można będzie rozwiązać dzięki bolometrom. A profesor Möttönen stworzył właśnie bolometr, który jest wystarczająco czuły i szybki, by sprostać takim zadaniom.
      Bolometry wchodzą do technologii kwantowych i być może ich pierwszym zadaniem będzie odczyt informacji z kubitów. Czułość i dokładność bolometrów właśnie osiągnęła poziom wymagany w takich zadaniach, mówi Möttönen.
      Przed rokiem zespół profesora Möttönena stworzył ze stopu złota i palladu bolometr, którego pomiary charakteryzował niezwykle niski poziom szumu. Jednak urządzenie pracowało zbyt wolno jak na potrzeby komputerów kwantowych. Najnowszy bolometr, którego osiągi pozwalają na zastosowanie go w komputerach kwantowych, został zbudowany z grafenu.
      Grafen charakteryzuje się bardzo niską pojemnością cieplną, co oznacza, że pozwala on na szybkie wykrywanie niewielkich zmian w poziomie energii. Dzięki temu nadaje się do pomiarów w systemach kwantowych. Grafenowy bolometr dokonuje pomiaru w czasie znacznie krótszym niż mikrosekunda, a więc szybkością pracy dorównuje obecnie używanym systemom pomiarowym. Jest jednak pozbawiony ich wad.
      Zmiana stopu złota i palladu na grafen spowodowała 100-krotne przyspieszenie pracy detektora przy zachowaniu niskiego poziomu szumów. Uważamy, że możemy jeszcze bardziej udoskonalić nasze urządzenie, mówi profesor Pertti Hakonen z Aalto.
      To bardzo ważne, gdyż pokazuje, że skoro bolometry dorównują systemom opartym na pomiarach napięcia prądu, to w przyszłości będą od nich bardziej wydaje. Możliwości obecnej technologii są ograniczone przez zasadę nieoznaczoności Heisenberga. Wynika z niej, że – przynajmniej teoretycznie – możliwe jest stworzenie bolometru p pozbawionego szumu kwantowego. Teoria nie pozwala zaś na stworzenie systemu pomiaru napięcia bez szumu kwantowego. Zatem wyższa teoretyczna dokładność, niższe zapotrzebowanie na energię oraz znacznie mniejsze rozmiary czynią z grafenowych bolometrów niezwykle obiecującą technologię, która pozwoli na wprowadzenie komputerów kwantowych pod strzechy.
      Ze szczegółami badań Finów można zapoznać się na łamach Nature.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.
      Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.
      IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.
      Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.
      IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.
      Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.
      Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.
      Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.
      Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.
      IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykańscy fizycy ostrzegają, że w przyszłości komputery kwantowe będą musiały być chronione grubą warstwą ołowiu lub... przechowywane głęboko pod ziemią. Są bowiem niezwykle wrażliwe na zewnętrzne zakłócenia, w tym na promieniowanie jonizujące. Promieniowanie to może znacząco skracać czas koherencji kubitów (kwantowych bitów), a to z kolei niekorzystnie wpłynie na możliwość praktycznego wykorzystania technologii kwantowych.
      William Oliver i jego koledzy z Massachusetts Institute of Technology (MIT) oraz Pacific Northwest National Laboratory zmierzyli i modelowali wpływ promieniowania jonizującego na aluminiowe kubity umieszczone na krzemowym podłożu. Podczas swoich eksperymentów naukowcy wykorzystali dwa kubity, które poddano działaniu dobrze znanego źródła promieniowania jonizującego, cienkiego dysku wykonanego z miedzi-64. Naukowcy mierzyli tempo dekoherencji kubitów. Badali też, jak łatwo w wyniku oddziaływania promieniowania w kubitach pojawiają się kwazicząsteczki. Uzyskane w ten sposób informacje połączyli z danymi dotyczącymi promieniowania jonizującego w laboratorium MIT, pochodzącego zarówno z promieniowania kosmicznego jak i z naturalnych izotopów radioaktywnych. W tym przypadku były to głównie izotopy obecne w betonowych ścianach laboratorium.
      Okazało się, że w warunkach panujących w laboratorium górna granica czasu koherencji kubitów wynosi 3–4 milisekund. Po tym czasie następuje dekoherencja, zatem kubity stają się nieprzydatne do przeprowadzania obliczeń.
      Uczeni zweryfikowali uzyskane wyniki za pomocą dodatkowego niezależnego eksperymentu sprawdzając, jak można kubity chronić przed promieniowaniem jonizującym. W tym eksperymencie siedem kubitów – a raczej pojemnik z chłodziwem, w którym je przechowywano – zostało otoczonych 10-centymetrową warstwą ołowiu. Podnosząc i opuszczając osłonę byli w stanie zbadać wpływ promieniowania jonizującego oraz osłony na te same kubity. Potwierdzili, że limit czasu koherencji wynosi około 4 ms. Jednocześnie odkryli, że 10-centymetrowa osłona wydłuża ten czas o około 10%.
      Jednak biorąc pod uwagę fakt, że istnieją silniejsze od promieniowania jonizującego źródła dekoherencji kubitów, Oliver i jego zespół wyliczają, że 10-centymetrowa osłona wydłuża czas koherencji zaledwie o 0,2%. To niewiele, ale zdaniem naukowców stosowanie takich osłon będzie koniecznością. Zmniejszenie lub pozbycie się wpływu promieniowania jonizującego będzie krytycznym elementem praktycznego wykorzystania nadprzewodzących komputerów kwantowych, napisali na łamach Nature.
      Jedną z opcji, przynajmniej na początku rozwoju informatyki kwantowej, mogłoby być umieszczenie komputerów pod ziemią. To jednak wymaga dalszych badań. Oliver mówi, że najlepszym rozwiązaniem będzie stworzenie kubitów, które są mniej podatne na zakłócenia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W marcu przedstawiciele firmy Honeywell zapowiadali, że w ciągu trzech miesięcy zaprezentują najpotężniejszy komputer kwantowy na świecie. Słowa dotrzymali. Firma poinfomrmowała właśnie, że jej system uzyskał największą wartość „kwantowej objętości”.
      Miara Quantum Volume (QV) została opracowana przez IBM-a. Trzeba jednak podkreślić, że nie jest powszechnie akceptowaną skalą pomiaru wydajności komputerów kwantowych. Nie jest też jasne, jak ma się ona do „kwantowej supremacji” ogłoszonej przez Google'a w ubiegłym roku. Przypomnijmy, że Google ogłosił ją twierdząc, że jego komputer wykonał w ciągu 200 sekund obliczenia, na które klasyczny superkomputer potrzebowałby 10 000 lat, zatem nie wykona ich w rozsądnym czasie. Przedstawiciele IBM-a poinformowali, że to naciągane stwierdzenia, gdyż klasyczny superkomputer poradziłby sobie z nimi w 2,5 doby.
      QV ma być obiektywnym, niezależnym od użytego sprzętu czy rozwiązań technologicznych, sposobem pomiary wydajności komputera kwantowego. Bierze on pod uwagę liczbę kubitów, błędy pomiarowe czy wydajność komputera. Honeywell informuje, że wartość QV jego 6-kubitowego systemu wynosi 64. Zdecydowanie pokonał więc najpotężniejszy z komputerów oceniany tym systemem, IBM-owską 53-kubitową maszynę Raleigh, która osiągnęła QV=32.
      Mimo, że QV nie jest powszechnie akceptowaną miarą, to Honeywell uważa, że jest najlepszą z dostępnych. Bierze ona pod uwagę nie tylko liczbę dostępnych kubitów, mówi Tony Uttlej, prezes działu Quantum Solutions w Honeywell. Jak wyjaśnia, sama liczba kubitów niewiele mówi o możliwościach komputera kwantowego, gdyż w prawdziwych obliczeniach niekoniecznie odnosi się korzyści z większej liczby kubitów.
      Maszyna Honeywella wykorzystuje jony iterbu uwięzione w pułapce elektromagnetycznej. Kubit jest reprezentowany przez spin jonów. Całość chłodzona jest ciekłym helem do temperatur niewiele wyższych od zera absolutnego. Lasery manipulują kubitami, przeprowadzając obliczenia. Główną zaletą tego systemu i tym, co dało mu przewagę w QV jest długotrwałe – trwające kilka sekund – utrzymanie stanu kwantowego kubitów. Tak długi czas koherencji pozwala na wykonanie niezbędnych pomiarów stanu kubitów.
      Honeywell twierdzi zatem, że posiada najpotężniejszy komputer kwantowy na świecie. Firma ma zamiar udostępniać go komercyjnie. Inne przedsiębiorstwa będą mogły dzięki temu wykonywać złożone obliczenia. Uttley mówi, że godzina korzystania z komputera zostanie wyceniona na około 10 000 USD. Firma nie zdradza ilu ma w tej chwili klientów. Poinformowała jednak, że jednym z nich jest bank JPMorgan Chase, którego eksperci wykorzystują maszynę Honeywella do budowania modelu wykrywania oszustw bankowych. Firmy, które nie zatrudniają własnych specjalistów ds. obliczeń kwantowych mogą zaś korzystać z maszyny za pośrednictwem firm Zapata Computing i Cambridge Quantum Computing.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Narodowego Instytutu Standardów i Technologii (NIST) informują o materiale, który może stać się „krzemem komputerów kwantowych”. Nowo odkryte właściwości ditellurku uranu (UTe2) wskazują, że może być on wyjątkowo odporny na jeden z największych problemów trapiących informatykę przyszłości, problem zachowania kwantowej koherencji. Stany kwantowe są niezwykle delikatne i ulegają zniszczeniu pod wpływem czynników zewnętrznych. Dotychczas nikomu nie udało się w sposób praktyczny do masowego zastosowania rozwiązać problemu istnienia kubitów (kwantowych bitów) na tyle długo, by można było przeprowadzić obliczenia zanim ich stany kwantowe ulegną zniszczeniu.
      Materiałem, który może pomóc w przezwyciężeniu tych problemów jest nadprzewodzący UTe2. Okazało się bowiem, że jest on niezwykle odporny na działanie zewnętrznego pola magnetycznego, co jest ewenementem wśród nadprzewodników. Nick Butch, fizyk z NIST mówi, że ta właściwość czyni go atrakcyjnym przedmiotem badań dla specjalistów rozwijających komputery kwantowe. To potencjalny krzem wieku informatyki kwantowej. Można by użyć ditellurku uranu do uzyskania kubitów w wydajnym komputerze kwantowym, stwierdza uczony.
      W zwykłych przewodnikach elektrony podróżują jako indywidualne cząstki. Jednak w nadprzewodnikach tworzą one pary Coopera, czyli oddziałujące ze sobą pary elektronów. Mają one połówkowe spiny skierowane w przeciwne strony i ich spin całkowity wynosi 0. To właśnie istnienie par Coopera zapewnia nadprzewodnictwo.
      Istnieje jednak niewielka liczba nadprzewodników, i UTe2 wydaje się do nich należeć, gdzie spin par Coopera może przyjmować nie jedną, a trzy różne konfiguracje, w tym i taką, gdzie spiny obu elektronów są równoległe, a spin całkowity przyjmuje wartość -1, 0 i +1. Wówczas mówimy o nadprzewodniku topologicznym. Wykazuje on dużą odporność na działania czynników zewnętrznych. Taki równoległy spin może podtrzymać działanie komputera. W tym przypadku nie dochodzi do spontanicznego zaniku stanu z powodu fluktuacji kwantowych, mówi Butch.
      Potrzebujemy topologicznych przewodników, gdyż mogą nam one zapewnić bezbłędnie działające kubity. Mogą mieć one bardzo długie czasy życie. Topologiczne nadprzewodniki to alternatywny sposób na zbudowanie komputera kwantowego, gdyż chronią one stany kwantowe przed wpływami zewnętrznymi, wyjaśnia Butch.
      Wraz ze swoim zespołem prowadził on badania nad magnesami bazującymi na uranie i zainteresował się bliżej ditellurkiem uranu.
      UTe2 został po raz pierwszy pozyskany w latach 70. XX wieku i nawet dość niedawne artykuły naukowe opisywały to jako nieciekawy materiał. My uzyskaliśmy go jako materiał uboczny podczas syntezy innego materiału. Postanowiliśmy go jednak zbadać, by sprawdzić, czy nie ma on jakichś właściwości, które inni przeoczyli. Szybko zdaliśmy sobie sprawę, że mamy w rękach coś specjalnego, mówi Butch.
      Szczegółowe badania wykazały, że UTe2 jest w bardzo niskich temperaturach nadprzewodnikiem, a jego właściwości nadprzewodzące przypominają te rzadkie nadprzewodniki, które są jednocześnie ferromagnetykami. Jednak UTe2 nie jest ferromagnetykiem. Już samo to czyni go wyjątkowym, stwierdza Butch. Okazało się też, że jest wyjątkowo odporny na zewnętrzne pole magnetyczne. Zwykle pole magnetyczne niszczy nadprzewodnictwo. Jednak okazało się, że UTe2 wykazuje właściwości nadprzewodzące w polu magnetycznym o natężeniu do 35 tesli. To wielokrotnie więcej niż wytrzymuje większość niskotemperaturowych nadprzewodników topologicznych.
      Mimo, że jeszcze nie zdobyto jednoznacznego dowodu, iż UTe2 jest nadprzewodnikiem topologicznym, Butch mówi, że jego niezwykła odporność na działanie pola magnetycznego wskazuje, że jest nadprzewodnikiem, w którym pary Coopera przyjmują różne wartości spinu.
      Zdaniem naukowców z NIST dalsze badania nad tym materiałem pozwolą nam lepiej zrozumieć jego właściwości oraz, być może, samo zjawisko nadprzewodnictwa. Może zrozumiemy, co stabilizuje tego typu nadprzewodniki. Głównym celem prac nad nadprzewodnikami jest bowiem zrozumienie tego zjawiska na tyle, byśmy wiedzieli, gdzie szukać materiałów nadprzewodzących. Teraz tego nie potrafimy. Nie wiemy, co jest ich główną cechą. Mamy nadzieję, że ten materiał nam to zdradzi, dodaje Butch.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...