Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Od pewnego czasu fizycy spekulują, że koncepcja zamkniętej pętli czasu (CTC - closed timeline curve) mogłaby przyczynić się do stworzenia komputerów wykorzystujących idealne stany kwantowe, a nawet spowodować powstanie standardowych maszyn, które, po wyposażeniu ich w CTC, byłyby tak samo wydajne, jak komputery kwantowe.

Mowa tutaj o koncepcji, która zakłada, że komputer z dostępem do zamkniętej pętli czasu (a więc takiej, która wraca do swojego początku) mógłby wysłać rezultaty obliczeń do swojej przeszłości. Tym samym bardzo szybko po wprowadzeniu danych otrzymalibyśmy wynik.

Najnowsze badania, przeprowadzone przez naukowców z IBM-a i University of Waterloo wskazują jednak, że jeśli nawet CTC istnieją, to nie przyczynią się do tak znacznego wzrostu mocy obliczeniowej jak sądzono.

Uczeni wyjaśniają, że specjaliści rozważający przydatność zamkniętych pętli czasu wpadli w "pułapkę linearności". Koncepcja CTC zakłada bowiem, że zmiany kwantowe są nielinearne, podczas gdy kwantowe systemy mechaniczne ewoluują w sposób linearny. Zdaniem Charlesa Bennetta, Graeme Smitha, Johna Smolina i Debbie Leung korzyści, które miały przynieść CTC, wynikały z tego, że analizowano ewolucję poszczególnych czystych stanów kwantowych i linearnie rozciągano wnioski tak, by określić ewolucję stanów mieszanych. To właśnie nazywa się "pułapką linearności", gdy teorie nielinearne rozważa się w sposób linearny. Zdaniem wymienionych naukowców, zastosowanie CTC w obliczeniach spowoduje, że dane wyjściowe nie będą skorelowane z danymi wejściowymi, przez co nie będą zbyt użyteczne przy obliczeniach.

Problem z wcześniejszymi teoriami polega na tym, że nie brały one pod uwagę fizycznych procesów wyboru danych wejściowych na potrzeby obliczeń. W teorii nielinearnej dane na wyjściu nie zależą tylko od danych wejściowych ale również od sposobu ich wyboru - mówi Smith.

Scott Aaronson z MIT-u, który też zajmował się możliwymi zaletami wykorzystania CTC w obliczeniach, nie zgadza się z takim postawieniem sprawy. Mówi, że brał pod uwagę problemy nieliniowością systemu, ale nie uważa, by odgrywały aż tak dużą rolę, jak chcą tego Bennett i jego koledzy. Prawdziwy powód niezgody jest następujący: w znanym nam wszechświecie CTC niemal na pewno nie istnieją. A więc zadając pytanie o prawidłowy model komputerowy je wykorzystujący, tak naprawdę zadajemy dziwaczne i źle zdefiniowane pytanie - stwierdza Aaronson.

Share this post


Link to post
Share on other sites

Pierwszy raz słyszę o CTC i źle mi się czyta tekst, który odnosi się do jakichś wcześniejszych doniesień, kiedy nie bardzo wiem, o co chodzi (a nie jest wyjaśnione nawet krótko).

Na KW chyba o tym nie było? Pobieżne guglanie w ogóle nie pokazało mi nic na ten temat po polsku.

Share this post


Link to post
Share on other sites

Szczerze to dla kwantowych komputerów zwykła pętla przestrzenna powinna wystarczyć żeby mogły błyskawicznie rozwiązywać problemy NP-zupełne.

Jeśli natomiast mamy do dyspozycji pętle czasowe, to klasyczny komputer już na to pozwoli:

1) wylosuj wybór używając 'idealnego generatora liczb losowych' - np. mierząc polaryzację światła 45deg od oczekiwanej

2) jeśli dostaniesz z przyszłości wiadomość że to był zły wybór, weź inny (np. następny)

3) dokonaj wyboru i poczekaj na rezultat

4) jeśli rezultat cię nie satysfakcjonuje, do 2) prześlij informację żeby go zmienić.

Gdzie wyborem może być klucz kryptograficzny, dane do problemu NP czy np. sekwencja nukleotydów...

Fizyka powinna ustabilizować tą pętlę czasową, powodując że wylosowaliśmy wybór który nas usatysfakcjonuje, ewentualnie skłamie podczas przesyłania informacji wstecz w czasie.

Takie kanały informacyjne nie mogą być całkiem stabilne - pozwoliłoby to na paradoksy - umożliwianie ich w OTW jest dla mnie jednym z argumentów przeciwko tej teorii.

http://groups.google.com/group/sci.philosophy.tech/browse_thread/thread/56a0e13619778c45

 

Pytanie czy takie przesyłanie informacji wstecz w czasie jest fizycznie możliwe. Jest to bliskie pytaniu o determinizm - czyli coś bez czego aż trudno sobie fizykę wyobrazić. Sporo jest argumentów za, jak np. niezmienniczość CPT, eksperyment Wheelera, to że w OTW czas jest wybierany lokalnie... Jednak tzw. nierówności Bella w mechanice kwantowej spowodowały że determinizm jest dziś dość niepopularnym poglądem.

Napisałem ostatnio pracę w której przekonuję że jak zrozumiemy co to znaczy żyć w czterech wymiarach - że czas nie jest tylko parametrem ewolucji, ale np. cząstki powinny być wyobrażane jako ich trajektorie w czasoprzestrzeni - mechanika kwantowa powstaje naturalnie. Już najprostszy model - rozkład Bolzmana wśród ich trajektorii daje podobną statystykę.

http://arxiv.org/abs/0910.2724

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Scharakteryzowanie i optymalizacja obliczeń kwantowych wykonywanych przez kubity, czyli podstawowe jednostki komputera kwantowego to zadanie, jakie postawili przed sobą polscy fizycy i informatycy, zrzeszeni w projekcie TEAM-NET, kierowanym przez prof. Marka Kusia. Rezultaty ich badań będą kolejną cegiełką dołożoną do budowy komputera kwantowego, nad którym usilnie pracują naukowcy i przedsiębiorstwa z całego świata. Na realizację projektu TEAM-NET uczeni otrzymali dofinansowanie od Fundacji na rzecz Nauki Polskiej, w wysokości ponad 17 mln zł.
      Czym jest komputer kwantowy i czym różni się od komputera klasycznego? We współcześnie używanych na co dzień komputerach dane są zapisywane w systemie binarnym czyli poprzez sekwencje bitów, z których każdy znajduje się w jednym z dwóch stanów: 0 lub 1. Grupy takich bitów są przesyłane między różnymi podzespołami jednego komputera lub też między różnymi komputerami w sieci. Co istotne, komputer klasyczny wykonuje operacje w określonej kolejności, jedna po drugiej, i nie jest w stanie wykonywać kilku czynności jednocześnie. Dlatego im bardziej złożone jest zadanie, tym dłużej trwa szukanie rozwiązań, a do rozwiązania wielu ze współczesnych problemów moc obliczeniowa klasycznych komputerów jest już wręcz niewystarczająca.
      Kilka sekund zamiast kilku lat dzięki kubitom
      Komputery kwantowe pozwolą rozwiązywać skomplikowane problemy z wielu dziedzin nauki i przemysłu dużo szybciej i efektywniej niż najlepsze komputery klasyczne. W ciągu kilka sekund potrafią one wykonać obliczenia, które komputerowi klasycznemu mogą zająć nawet kilka lat – tłumaczy prof. Centrum Fizyki Teoretycznej PAN w Warszawie, czyli ośrodka będącego liderem projektu TEAM-NET. A to dlatego, że w komputerach kwantowych informacje zapisywane są w kubitach (od angielskiego quantum bit). Kubit od zwykłego bitu różni się tym, że nie ma ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją. Oznacza to, że jednocześnie znajduje się i w stanie 0, i w stanie 1. A zatem, kubit niesie w sobie znacznie więcej informacji niż zero-jedynkowy bit. Na dodatek, kubity mogą być ze sobą splątane: dwa kubity to już cztery splątane ze sobą wartości, trzy kubity – osiem wartości, i tak dalej. Stanów pojedynczych kubitów  nie można traktować jako niezależnych, bo zmiana jednego wpływa na wszystkie pozostałe. Właśnie dzięki splątaniu kubitów, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, co daje mu potężną moc obliczeniową. Choć sprawa komplikuje się z uwagi na konieczność „odczytania” wyników takiego obliczenia, co nieuchronnie niszczy stan kwantowy.
      Komputer kwantowy, gdy już powstanie, pozwoli na błyskawiczne wyszukiwanie potrzebnych informacji w ogromnych ilościach danych oraz umożliwi przeprowadzanie najbardziej skomplikowanych, wielopłaszczyznowych symulacji z nieograniczoną liczbą czynników. Technologia ta z pewnością znajdzie zastosowanie w naukach o życiu, medycynie i przemyśle farmaceutycznym, gdzie posłuży do odkrywania nowych leków. Innym sektorem oczekującym na powstanie komputerów kwantowych jest bankowość i cała branża finansowa, która skorzysta m.in. na możliwości doskonałego symulowania zachowań giełdy.
      Kruchość kubitów
      W tej chwili nie możemy jednak określić, kiedy powstanie komputer kwantowy. Wciąż mierzymy się z wieloma bardzo poważnymi ograniczeniami i nie wiadomo, kiedy uda się je przezwyciężyć. Konstrukcja działającego komputera kwantowego jest niezwykle trudna choćby ze względu na nieunikniony wpływ szumu i dekoherencji układów kwantowych – podkreśla prof. Marek Kuś.
      Chodzi o to, że kubity są bardzo niestabilne i ekstremalnie wrażliwe na wpływ otoczenia. Nawet najdrobniejsze wahania temperatury, hałasu, ciśnienia czy pola magnetycznego mogą prowadzić do wybicia kubitów ze stanu współzależnych superpozycji, czyli do zjawiska określanego przez fizyków jako dekoherencja. Jeśli kubity nie utrzymują stanu superpozycji, dochodzi do błędów w obliczeniach, a im więcej kubitów połączymy, tym więcej takich błędów będzie generowanych. Obecnie kubity mogą utrzymać swój stan kwantowy tylko przez około 100 mikrosekund, zanim dojdzie do dekoherencji. Z tego powodu komputery kwantowe muszą znajdować się w specjalnie przygotowanym środowisku. Wymagają m.in. chłodzenia na poziomie temperatury bliskiej zera bezwzględnego oraz umieszczenia w wysokiej próżni, pod ciśnieniem 10 mld razy niższym niż ciśnienie atmosferyczne.
      Oznacza to, że komputery kwantowe szybko nie zagoszczą w naszych domach czy biurach. W niedalekiej przyszłości możemy się spodziewać natomiast urządzeń zbudowanych z niewielu niedoskonałych kubitów. Nasz projekt ma na celu scharakteryzowanie mocy obliczeniowej i zbadanie możliwych praktycznych zastosowań takich urządzeń. Skupiać się będziemy nie na budowie samego urządzenia, ale na przetestowaniu jego oprogramowania i scharakteryzowaniu algorytmów, które zoptymalizują jego działanie. Aby zrealizować ten cel, utworzymy sieć współpracujących ze sobą czterech grup badawczych, zajmujących się nowatorskimi aspektami obliczeń kwantowych: kwantowym uczeniem maszynowym, kontrolą złożonych układów kwantowych, kwantową korekcją błędów i problemem identyfikacji zasobów odpowiedzialnych za tzw. przyspieszenie kwantowe – precyzuje prof. Marek Kuś. W skład konsorcjum naukowego wejdą, oprócz Centrum Fizyki Teoretycznej PAN w Warszawie, także Wydział Nauk Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego oraz Instytut Informatyki Teoretycznej i Stosowanej PAN w Gliwicach.
      O programie TEAM-NET
      Program TEAM-NET Fundacji na rzecz Nauki Polskiej pozwala na sfinansowanie interdyscyplinarnych badań naukowych, realizowanych przez sieć współpracujących zespołów badawczych, kierowanych przez wybitnych, doświadczonych naukowców. Celem tego programu jest, oprócz umożliwienia prowadzenia w Polsce nowatorskich badań naukowych, także wzmocnienie ponadregionalnej współpracy pomiędzy jednostkami naukowymi oraz budowanie kompetencji dotyczących wykorzystywania dostępnej infrastruktury i usług badawczych. Zgodnie z założeniami konkursowymi, budżet każdego zgłoszonego projektu badawczego może wynosić do 3,5 mln zł na zespół na 36 miesięcy. Finansowanie może być przyznane na okres od 36 do 48 miesięcy.
      Nabór wniosków do konkursu TEAM-NET był prowadzony w październiku 2018 r., a w marcu 2019 r. Fundacja na rzecz Nauki Polskiej ogłosiła jego wyniki. Do konkursu zgłoszono 39 projektów, z których po ocenie merytorycznej 11 otrzymało dofinansowanie, na łączną kwotę ponad 201 mln zł.
      Konkurs TEAM-NET jest realizowany przez FNP ze środków UE pochodzących z Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Inteligentny Rozwój.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas odbywającego się właśnie dorocznego spotkania Amerykańskiego Towarzystwa Fizycznego specjaliści z IBM-a poinformowali o dokonaniu trzech przełomowych kroków, dzięki którym zbudowanie komputera kwantowego stanie się możliwe jeszcze za naszego życia.
      Jednym z najważniejszych wyzwań stojących przed ekspertami zajmującymi się kwantowymi komputerami jest dekoherencja. To wywołana oddziaływaniem czynników zewnętrznych utrata właściwości kwantowych przez kubity - kwantowe bity. Koherencja wprowadza błędy do obliczeń kwantowych. Jednak jeśli udałoby się utrzymać kwantowe bity przez wystarczająco długi czas można by przeprowadzić korektę błędów.
      Eksperci z IBM-a eksperymentowali ostatnio z „trójwymiarowymi“ nadprzewodzącymi kubitami, które zostały opracowane na Yale University. Ich prace pozwoliły na dokonanie przełomu. Udało się im utrzymać stan kwantowy kubitu przez 100 mikrosekund. To 2 do 4 razy więcej niż poprzednie rekordy. A co najważniejsze, to na tyle długo by przeprowadzić korekcję błędów na kubitach 3D.
      Drugi z przełomowych kroków to powstrzymanie dekoherencji zwykłego „dwuwymiarowego“ kubitu przez 10 mikrosekund. W przypadku takich kubitów wystarczy to do przeprowadzenia korekcji błędów.
      Utrzymanie przez tak długi czas kubitu pozwoliło na dokonanie trzeciego z przełomów. Udało się bowiem przeprowadzić na dwóch kubitach operację CNOT (controlled-NOT) z dokładnością 95-98 procent. To niezwykle ważne osiągnięcie, gdyż bramka CNOT w połączeniu z prostszymi bramkami kubitowymi może być skonfigurowana do przeprowadzenia dowolnej operacji logicznej.
      Od połowy 2009 roku IBM udoskonalił wiele technik związanych z komputerami kwantowymi. Najprzeróżniejsze aspekty związane z takimi maszynami udoskonalono od 100 do 1000 razy. W sumie wszystkie te techniki są bardzo bliskie spełnienia minimalnych wymagań stawianych przed praktycznym komputerem kwantowym.
    • By KopalniaWiedzy.pl
      Wynikiem współpracy uczonych z Purdue University, University of New South Wales i University of Melbourne jest najmniejszy tranzystor na świecie. Urządzenie zbudowane jest z pojedynczego atomu fosforu. Tranzystor nie tyle udoskonali współczesną technologię, co pozwoli na zbudowanie zupełnie nowych urządzeń.
      To piękny przykład kontrolowania materii w skali atomowej i zbudowania dzięki temu urządzenia. Pięćdziesiąt lat temu gdy powstał pierwszy tranzystor nikt nie mógł przewidzieć, jaką rolę odegrają komputery. Teraz przeszliśmy do skali atomowej i rozwijamy nowy paradygmat, który pozwoli na zaprzęgnięcie praw mechaniki kwantowej do dokonania podobnego jak wówczas technologicznego przełomu - mówi Michelle Simmons z University of New South Wales, która kierowała pracami zespołu badawczego.
      Niedawno ta sama grupa uczonych połączyła atomy fosforu i krzem w taki sposób, że powstał nanokabel o szerokości zaledwie czterech atomów, który przewodził prąd równie dobrze, jak miedź.
      Gerhard Klimeck, który stał na czele grupy uczonych z Purdue prowadzących symulacje działania nowego tranzystora stwierdził, że jest to najmniejszy podzespół elektroniczny. Według mnie osiągnęliśmy granice działania Prawa Moore’a. Podzespołu nie można już zmniejszyć - powiedział.
      Prawo Moore’a stwierdza, że liczba tranzystorów w procesorze zwiększa się dwukrotnie w ciągu 18 miesięcy. Najnowsze układy Intela wykorzystują 2,3 miliarda tranzystorów, które znajdują się w odległości 32 nanometrów od siebie. Atom fosforu ma średnicę 0,1 nanometra. Minie jeszcze wiele lat zanim powstaną procesory budowane w takiej skali. Tym bardziej, że tranzystor zbudowany z pojedynczego atomu ma bardzo poważną wadę - działa tylko w temperaturze -196 stopni Celsjusza. Atom znajduje się w studni czy też kanale. Żeby działał jak tranzystor konieczne jest, by elektrony pozostały w tym kanale. Wraz ze wzrostem temperatury elektrony stają się bardziej ruchliwe i wychodzą poza kanał - wyjaśnia Klimeck. Jeśli ktoś opracuje technikę pozwalającą na utrzymanie elektronów w wyznaczonym obszarze, będzie można zbudować komputer działający w temperaturze pokojowej. To podstawowy warunek praktycznego wykorzystania tej technologii - dodaje.
      Pojedyncze atomy działające jak tranzystory uzyskiwano już wcześniej, jednak teraz po raz pierwszy udało się ściśle kontrolować ich budowę w skali atomowej. Unikatową rzeczą, jaką osiągnęliśmy, jest precyzyjne umieszczenie pojedynczego atomu tam, gdzie chcieliśmy - powiedział Martin Fuechsle z University of New South Wales.
      Niektórzy naukowcy przypuszczają, że jeśli uda się kontrolować elektrony w kanale, to będzie można w ten sposób kontrolować kubity, zatem powstanie komputer kwantowy.
    • By KopalniaWiedzy.pl
      Na University of Bristol powstał fotoniczny układ scalony, który pozwala na tworzenie i manipulowanie stanem splątanym i stanem mieszanym. Stan splatany, zachodzący pomiędzy dwoma niepołączonymi ze sobą cząsteczkami, umożliwi komputerowi kwantowemu wykonywanie obliczeń. Uczeni z Bristolu jako pierwsi pokazali, że stan splątany można uzyskać, manipulować nim i  mierzyć na kawałku krzemu.
      Aby zbudować kwantowy komputer musimy nie tylko umieć kontrolować złożone zjawiska takie jak splątanie czy stan mieszany, ale musimy być w stanie dokonać tego w układzie scalonym - mówi profesor Jeremy O'Brien, dyrektor Centre for Quantum Photonics. Nasze urządzenie to umożliwia i wierzymy, że stanowi ono ważny krok na drodze do stworzenia optycznego komputera kwantowego - dodaje.
      Układ zbudowany jest z sieci kanałów, w których dokonywane są odpowiednie manipulacje fotonami. Do kości dołączonych jest osiem elektrod, których konfigurację można na bieżąco zmieniać. Dzięki tym elektrodom pary fotonów są splątywane we wszelkie możliwe sposoby i dokonywane są na nich operacje. Podobnie manipuluje się stanem mieszanym pojedynczego fotonu.
      Chip z Bristolu jest mniej więcej dziesięciokrotnie bardziej złożony, niż wcześniej budowane układy do manipulacji stanami kwantowymi.
    • By KopalniaWiedzy.pl
      Na University of California, Santa Barbara, powstał pierwszy komputer kwantowy, w którym połączono procesor z pamięcią. Odtworzono zatem, tym razem jednak w maszynie kwantowej, architekturę von Neumanna. Był to pierwszy rodzaj architektury komputera (jego autorami, obok von Neumanna byli John Mauchly i John Eckert). Jej najważniejszą cechą było przechowywanie danych wraz z instrukcjami. Zanim powstała architektura von Neumanna przeprogramowywanie komputerów mogło się odbywać jedynie poprzez ich fizyczną rekonfigurację.
      Pojawienie się pierwszego w pełni funkcjonalnego komputera kwantowego jest wciąż bardzo odległe w czasie, jednak połączenie procesora i pamięci to ważny krok w stworzeniu kwantowej maszyny. Dzięki temu programowanie i kontrolowanie komputera staje się znacznie prostsze.
      Obecnie jedynym dostępnym komercyjnie urządzeniem, które do obliczeń wykorzystuje zjawiska kwantowe, jest komputer firmy D-Wave. Jego architektura przypomina jednak rozwiązania sprzed epoki pojawienia się architektury von Neumanna. Jedyny egzemplarz komputera D-Wave kupił ponoć Lockheed Martin.
      Każdy obecnie używany komputer bazuje na architekturze von Neumanna, a my stworzyliśmy jej kwantowy odpowiednik - mówi Matteo Mariantoni, główny autor badań.
      Komputer z Uniwersytetu Kalifornijskiego korzysta z obwodów elektrycznych, które są schładzane do temperatury bliskiej zeru absolutnemu. Wówczas działają jak nadprzewodniki i zachodzą w nich zjawiska kwantowe. Mariantoni mówi, że wykorzystano układy, które mogą być tworzone za pomocy współczesnych technik używanych w przemyśle półprzewodnikowym, a dzięki nadprzewodzącym obwodom możliwe było umieszczenie procesora i pamięci na jednym układzie i uzyskanie architektury von Neumanna.
      Wspomniany komputer to maszyna wykorzystująca dwa kubity (kwantowe bity), które komunikują się za pomocą kwantowej szyny. Każdy z kubitów jest też połączony z układem pamięci, w którym może zapisać swój obecny stan w celu jego późniejszego wykorzystania. Pamięć działa zatem tak, jak układ RAM w tradycyjnym komputerze. Kubity łączą się z pamięcią za pośrednictwem obwodów zwanych rezonatorami, które przez krótki czas mogą przechowywać stan kubitu.
      W kwantowej architekturze von Neumanna uruchomiliśmy kwantową transformację Fouriera oraz trzykubitową bramkę Toffoliego - kluczowe kwantowe obwody logiczne, które posłużą nam do dalszych prac nad kwantowym komptuerem - mówi Mariantoni.
×
×
  • Create New...