Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcy z Centrum Fotoniki Kwantowej na University of Bristol wierzą, że dzięki ich ostatnim pracom kwantowe komputery mogą pojawić się w ciągu najbliższych 10 lat, a nie, jak dotychczas przypuszczano, nie wcześniej niż za 20-25 lat.

Uczeni z japońskiego Tohoku University, izraelskiego Instytutu Weizmanna oraz holenderskiego Uniwersytetu Twente, pracujący pod kierunkiem naukowców z Bristolu, udoskonalili tzw. kwantowe błądzenie losowe.

Opracowana w Bristolu technika wykorzystuje dwa fotony, poruszające się po obwodach krzemowego układu scalonego. Dotychczas przeprowadzono wiele eksperymentów z kwantowym błądzeniem losowym, a cały proces może być dokładnie modelowany przez współczesną fizykę. Jednak wszystkie eksperymenty wykorzystywały jeden foton. Po raz pierwszy udało się do kwantowego błądzenia losowego zaprząc dwa fotony.

Dzięki wykorzystaniu dwóch fotonów możemy prowadzić obliczenia, które są wykładniczo bardziej skomplikowane, niż wcześniej dokonywane kalkulacje. To początek nowej dziedziny badań nad kwantową informatyką. To przetarcie drogi ku powstaniu kwantowych komputerów, które umożliwią nam zrozumienie najbardziej skomplikowanych problemów naukowych - mówi profesor Jeremy O'Brien, dyrektor Centrum Fotoniki Kwantowej.

Naukowcy już rozpoczęli prace nad laboratoryjnymi narzędziami badawczymi, wykorzystującymi losowe błądzenie dwóch fotonów.

Zwiększenie liczby fotonów z jednego do dwóch było zadaniem bardzo trudnym, gdyż muszą one być identyczne pod każdym względem. Uczeni wierzą jednak, że teraz dodawanie kolejnych fotonów będzie łatwiejsze. Za każdym razem gdy dodamy foton, wykładniczo wzrośnie stopień skomplikowania problemów, które będziemy mogli rozwiązać. Z jednego fotonu mamy 10 wyników, system dwufotonowy daje 100 odpowiedzi, a taki, który składa się z trzech fotonów - 1000 - dodaje O'Brien.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Scharakteryzowanie i optymalizacja obliczeń kwantowych wykonywanych przez kubity, czyli podstawowe jednostki komputera kwantowego to zadanie, jakie postawili przed sobą polscy fizycy i informatycy, zrzeszeni w projekcie TEAM-NET, kierowanym przez prof. Marka Kusia. Rezultaty ich badań będą kolejną cegiełką dołożoną do budowy komputera kwantowego, nad którym usilnie pracują naukowcy i przedsiębiorstwa z całego świata. Na realizację projektu TEAM-NET uczeni otrzymali dofinansowanie od Fundacji na rzecz Nauki Polskiej, w wysokości ponad 17 mln zł.
      Czym jest komputer kwantowy i czym różni się od komputera klasycznego? We współcześnie używanych na co dzień komputerach dane są zapisywane w systemie binarnym czyli poprzez sekwencje bitów, z których każdy znajduje się w jednym z dwóch stanów: 0 lub 1. Grupy takich bitów są przesyłane między różnymi podzespołami jednego komputera lub też między różnymi komputerami w sieci. Co istotne, komputer klasyczny wykonuje operacje w określonej kolejności, jedna po drugiej, i nie jest w stanie wykonywać kilku czynności jednocześnie. Dlatego im bardziej złożone jest zadanie, tym dłużej trwa szukanie rozwiązań, a do rozwiązania wielu ze współczesnych problemów moc obliczeniowa klasycznych komputerów jest już wręcz niewystarczająca.
      Kilka sekund zamiast kilku lat dzięki kubitom
      Komputery kwantowe pozwolą rozwiązywać skomplikowane problemy z wielu dziedzin nauki i przemysłu dużo szybciej i efektywniej niż najlepsze komputery klasyczne. W ciągu kilka sekund potrafią one wykonać obliczenia, które komputerowi klasycznemu mogą zająć nawet kilka lat – tłumaczy prof. Centrum Fizyki Teoretycznej PAN w Warszawie, czyli ośrodka będącego liderem projektu TEAM-NET. A to dlatego, że w komputerach kwantowych informacje zapisywane są w kubitach (od angielskiego quantum bit). Kubit od zwykłego bitu różni się tym, że nie ma ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją. Oznacza to, że jednocześnie znajduje się i w stanie 0, i w stanie 1. A zatem, kubit niesie w sobie znacznie więcej informacji niż zero-jedynkowy bit. Na dodatek, kubity mogą być ze sobą splątane: dwa kubity to już cztery splątane ze sobą wartości, trzy kubity – osiem wartości, i tak dalej. Stanów pojedynczych kubitów  nie można traktować jako niezależnych, bo zmiana jednego wpływa na wszystkie pozostałe. Właśnie dzięki splątaniu kubitów, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, co daje mu potężną moc obliczeniową. Choć sprawa komplikuje się z uwagi na konieczność „odczytania” wyników takiego obliczenia, co nieuchronnie niszczy stan kwantowy.
      Komputer kwantowy, gdy już powstanie, pozwoli na błyskawiczne wyszukiwanie potrzebnych informacji w ogromnych ilościach danych oraz umożliwi przeprowadzanie najbardziej skomplikowanych, wielopłaszczyznowych symulacji z nieograniczoną liczbą czynników. Technologia ta z pewnością znajdzie zastosowanie w naukach o życiu, medycynie i przemyśle farmaceutycznym, gdzie posłuży do odkrywania nowych leków. Innym sektorem oczekującym na powstanie komputerów kwantowych jest bankowość i cała branża finansowa, która skorzysta m.in. na możliwości doskonałego symulowania zachowań giełdy.
      Kruchość kubitów
      W tej chwili nie możemy jednak określić, kiedy powstanie komputer kwantowy. Wciąż mierzymy się z wieloma bardzo poważnymi ograniczeniami i nie wiadomo, kiedy uda się je przezwyciężyć. Konstrukcja działającego komputera kwantowego jest niezwykle trudna choćby ze względu na nieunikniony wpływ szumu i dekoherencji układów kwantowych – podkreśla prof. Marek Kuś.
      Chodzi o to, że kubity są bardzo niestabilne i ekstremalnie wrażliwe na wpływ otoczenia. Nawet najdrobniejsze wahania temperatury, hałasu, ciśnienia czy pola magnetycznego mogą prowadzić do wybicia kubitów ze stanu współzależnych superpozycji, czyli do zjawiska określanego przez fizyków jako dekoherencja. Jeśli kubity nie utrzymują stanu superpozycji, dochodzi do błędów w obliczeniach, a im więcej kubitów połączymy, tym więcej takich błędów będzie generowanych. Obecnie kubity mogą utrzymać swój stan kwantowy tylko przez około 100 mikrosekund, zanim dojdzie do dekoherencji. Z tego powodu komputery kwantowe muszą znajdować się w specjalnie przygotowanym środowisku. Wymagają m.in. chłodzenia na poziomie temperatury bliskiej zera bezwzględnego oraz umieszczenia w wysokiej próżni, pod ciśnieniem 10 mld razy niższym niż ciśnienie atmosferyczne.
      Oznacza to, że komputery kwantowe szybko nie zagoszczą w naszych domach czy biurach. W niedalekiej przyszłości możemy się spodziewać natomiast urządzeń zbudowanych z niewielu niedoskonałych kubitów. Nasz projekt ma na celu scharakteryzowanie mocy obliczeniowej i zbadanie możliwych praktycznych zastosowań takich urządzeń. Skupiać się będziemy nie na budowie samego urządzenia, ale na przetestowaniu jego oprogramowania i scharakteryzowaniu algorytmów, które zoptymalizują jego działanie. Aby zrealizować ten cel, utworzymy sieć współpracujących ze sobą czterech grup badawczych, zajmujących się nowatorskimi aspektami obliczeń kwantowych: kwantowym uczeniem maszynowym, kontrolą złożonych układów kwantowych, kwantową korekcją błędów i problemem identyfikacji zasobów odpowiedzialnych za tzw. przyspieszenie kwantowe – precyzuje prof. Marek Kuś. W skład konsorcjum naukowego wejdą, oprócz Centrum Fizyki Teoretycznej PAN w Warszawie, także Wydział Nauk Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego oraz Instytut Informatyki Teoretycznej i Stosowanej PAN w Gliwicach.
      O programie TEAM-NET
      Program TEAM-NET Fundacji na rzecz Nauki Polskiej pozwala na sfinansowanie interdyscyplinarnych badań naukowych, realizowanych przez sieć współpracujących zespołów badawczych, kierowanych przez wybitnych, doświadczonych naukowców. Celem tego programu jest, oprócz umożliwienia prowadzenia w Polsce nowatorskich badań naukowych, także wzmocnienie ponadregionalnej współpracy pomiędzy jednostkami naukowymi oraz budowanie kompetencji dotyczących wykorzystywania dostępnej infrastruktury i usług badawczych. Zgodnie z założeniami konkursowymi, budżet każdego zgłoszonego projektu badawczego może wynosić do 3,5 mln zł na zespół na 36 miesięcy. Finansowanie może być przyznane na okres od 36 do 48 miesięcy.
      Nabór wniosków do konkursu TEAM-NET był prowadzony w październiku 2018 r., a w marcu 2019 r. Fundacja na rzecz Nauki Polskiej ogłosiła jego wyniki. Do konkursu zgłoszono 39 projektów, z których po ocenie merytorycznej 11 otrzymało dofinansowanie, na łączną kwotę ponad 201 mln zł.
      Konkurs TEAM-NET jest realizowany przez FNP ze środków UE pochodzących z Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Inteligentny Rozwój.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Grupa naukowców z Uniwersytetu w Oksfordzie donosi o udanym splątaniu bakterii z fotonami. W październikowym numerze Journal of Physics ukazał się artykuł zespołu pracującego pod kierunkiem Chiary Marletto, który przeanalizował eksperyment przeprowadzony w 2016 roku przez Davida Colesa i jego kolegów z University of Sheffield.
      Podczas wspomnianego eksperymentu Coles wraz z zespołem umieścili kilkaset chlorobakterii pomiędzy dwoma lustrami i stopniowo zmniejszali odległość pomiędzy nimi tak, aż dzieliło je zaledwie kilkaset nanometrów. Odbijając białe światło pomiędzy lustrami naukowcy chcieli spowodować, by fotosyntetyczne molekuły w bakteriach weszły w interakcje z dziurą, innymi słowy, bakterie miały ciągle absorbować, emitować i ponownie absorbować odbijające się fotony. Eksperyment okazał się sukcesem. Sześć bakterii zostało w ten sposób splątanych z dziurą.
      Jednak Marletto i jej zespół twierdzą, że podczas eksperymentu zaszło coś więcej, niż jedynie połączenie bakterii z dziurą. Przeprowadzone analizy wykazały, że sygnatura energetyczna pojawiająca się podczas eksperymentu jest właściwa dla splątania molekuł wewnątrz bakterii e światłem. Wydaje się, że niektóre fotony jednocześnie trafiały w molekuły i je omijały, a to właśnie dowód na splątanie.
      Nasze modele dowodzą, że zanotowano sygnaturę splątania pomiędzy światłem a bakterią, mówi pani Marletto. Po raz pierwszy udało się dokonać splątania kwantowego w żywym organizmie.
      Istnieje jednak wiele zastrzeżeń, mogących podważać wnioski grupy Marletto. Po pierwsze i najważniejsze, dowód na splątanie zależy od tego, w jaki sposób zinterpretujemy interakcję światła z bakterią. Marletto i jej grupa zauważają, że zjawisko to można opisać też na gruncie klasycznego modelu, bez potrzeby odwoływania się do efektów kwantowych. Jednak, jak zauważają, nie można tego opisać modelem „półklasycznym”, w którym do bakterii stosujemy zasady fizyki newtonowskiej, a do fotonu fizykę kwantową To zaś wskazuje, że mieliśmy do czynienia z efektami kwantowymi dotyczącymi zarówno bakterii jak i fotonu. To trochę dowód nie wprost, ale sądzę, że wynika to z faktu, iż oni próbowali bardzo rygorystycznie podejść do tematu i nie wysuwali twierdzeń na wyrost, mówi James Wootton z IBM Zurich Research Laboratory, który nie był zaangażowany w badania.
      Z kolei Simon Gröblacher z Uniwersytetu Technologicznego w Delft zwraca uwagę na kolejne zastrzeżenie. Otóż energię bakterii i fotonu zmierzono wspólnie, nie osobno. To pewne ograniczenie, ale wydaje się, że miały tam miejsce zjawiska kwantowe. Zwykle jednak gdy chcemy dowieść splątania, musimy osobno zbadać oba systemy.
      Wiele zespołów naukowych próbuje dokonać splątania z udziałem organizmów żywych. Sam Gröblacher zaprojektował eksperyment, w którym chce umieścić niesporczaki w superpozycji. Chodzi o to, by zrozumieć nature rzeczy i sprawdzić czy efekty kwantowe są wykorzystywane przez życie. W końcu u swoich podstaw wszystko jest kwantem, wyjaśnia współpracownik Marletto, Tristan Farrow.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas odbywającego się właśnie dorocznego spotkania Amerykańskiego Towarzystwa Fizycznego specjaliści z IBM-a poinformowali o dokonaniu trzech przełomowych kroków, dzięki którym zbudowanie komputera kwantowego stanie się możliwe jeszcze za naszego życia.
      Jednym z najważniejszych wyzwań stojących przed ekspertami zajmującymi się kwantowymi komputerami jest dekoherencja. To wywołana oddziaływaniem czynników zewnętrznych utrata właściwości kwantowych przez kubity - kwantowe bity. Koherencja wprowadza błędy do obliczeń kwantowych. Jednak jeśli udałoby się utrzymać kwantowe bity przez wystarczająco długi czas można by przeprowadzić korektę błędów.
      Eksperci z IBM-a eksperymentowali ostatnio z „trójwymiarowymi“ nadprzewodzącymi kubitami, które zostały opracowane na Yale University. Ich prace pozwoliły na dokonanie przełomu. Udało się im utrzymać stan kwantowy kubitu przez 100 mikrosekund. To 2 do 4 razy więcej niż poprzednie rekordy. A co najważniejsze, to na tyle długo by przeprowadzić korekcję błędów na kubitach 3D.
      Drugi z przełomowych kroków to powstrzymanie dekoherencji zwykłego „dwuwymiarowego“ kubitu przez 10 mikrosekund. W przypadku takich kubitów wystarczy to do przeprowadzenia korekcji błędów.
      Utrzymanie przez tak długi czas kubitu pozwoliło na dokonanie trzeciego z przełomów. Udało się bowiem przeprowadzić na dwóch kubitach operację CNOT (controlled-NOT) z dokładnością 95-98 procent. To niezwykle ważne osiągnięcie, gdyż bramka CNOT w połączeniu z prostszymi bramkami kubitowymi może być skonfigurowana do przeprowadzenia dowolnej operacji logicznej.
      Od połowy 2009 roku IBM udoskonalił wiele technik związanych z komputerami kwantowymi. Najprzeróżniejsze aspekty związane z takimi maszynami udoskonalono od 100 do 1000 razy. W sumie wszystkie te techniki są bardzo bliskie spełnienia minimalnych wymagań stawianych przed praktycznym komputerem kwantowym.
    • By KopalniaWiedzy.pl
      Wynikiem współpracy uczonych z Purdue University, University of New South Wales i University of Melbourne jest najmniejszy tranzystor na świecie. Urządzenie zbudowane jest z pojedynczego atomu fosforu. Tranzystor nie tyle udoskonali współczesną technologię, co pozwoli na zbudowanie zupełnie nowych urządzeń.
      To piękny przykład kontrolowania materii w skali atomowej i zbudowania dzięki temu urządzenia. Pięćdziesiąt lat temu gdy powstał pierwszy tranzystor nikt nie mógł przewidzieć, jaką rolę odegrają komputery. Teraz przeszliśmy do skali atomowej i rozwijamy nowy paradygmat, który pozwoli na zaprzęgnięcie praw mechaniki kwantowej do dokonania podobnego jak wówczas technologicznego przełomu - mówi Michelle Simmons z University of New South Wales, która kierowała pracami zespołu badawczego.
      Niedawno ta sama grupa uczonych połączyła atomy fosforu i krzem w taki sposób, że powstał nanokabel o szerokości zaledwie czterech atomów, który przewodził prąd równie dobrze, jak miedź.
      Gerhard Klimeck, który stał na czele grupy uczonych z Purdue prowadzących symulacje działania nowego tranzystora stwierdził, że jest to najmniejszy podzespół elektroniczny. Według mnie osiągnęliśmy granice działania Prawa Moore’a. Podzespołu nie można już zmniejszyć - powiedział.
      Prawo Moore’a stwierdza, że liczba tranzystorów w procesorze zwiększa się dwukrotnie w ciągu 18 miesięcy. Najnowsze układy Intela wykorzystują 2,3 miliarda tranzystorów, które znajdują się w odległości 32 nanometrów od siebie. Atom fosforu ma średnicę 0,1 nanometra. Minie jeszcze wiele lat zanim powstaną procesory budowane w takiej skali. Tym bardziej, że tranzystor zbudowany z pojedynczego atomu ma bardzo poważną wadę - działa tylko w temperaturze -196 stopni Celsjusza. Atom znajduje się w studni czy też kanale. Żeby działał jak tranzystor konieczne jest, by elektrony pozostały w tym kanale. Wraz ze wzrostem temperatury elektrony stają się bardziej ruchliwe i wychodzą poza kanał - wyjaśnia Klimeck. Jeśli ktoś opracuje technikę pozwalającą na utrzymanie elektronów w wyznaczonym obszarze, będzie można zbudować komputer działający w temperaturze pokojowej. To podstawowy warunek praktycznego wykorzystania tej technologii - dodaje.
      Pojedyncze atomy działające jak tranzystory uzyskiwano już wcześniej, jednak teraz po raz pierwszy udało się ściśle kontrolować ich budowę w skali atomowej. Unikatową rzeczą, jaką osiągnęliśmy, jest precyzyjne umieszczenie pojedynczego atomu tam, gdzie chcieliśmy - powiedział Martin Fuechsle z University of New South Wales.
      Niektórzy naukowcy przypuszczają, że jeśli uda się kontrolować elektrony w kanale, to będzie można w ten sposób kontrolować kubity, zatem powstanie komputer kwantowy.
    • By KopalniaWiedzy.pl
      Badacze z amerykańskiego Narodowego Laboratorium Energii Odnawialnej (NREL) poinformowali o stworzeniu pierwszego ogniwa słonecznego, którego zewnętrzna wydajność kwantowa wynosi ponad 100%. Dla fotoprądu wartość zewnętrznej wydajności kwantowej - podawaną w procentach - wylicza się na podstawie liczby elektronów przepływających przez obwód w ciągu sekundy podzielonej przez liczbę fotonów z określonej długości fali, wpadających w ciągu sekundy do ogniwa słonecznego. Dotychczas nie istniały ogniwa, których wydajność w jakimkolwiek zakresie fali przekraczałaby 100%. Uczonym z NREL udało się osiągnąć szczytową wydajność kwantową rzędu 114%. W przyszłości może to pozwolić na zbudowanie ogniw słonecznych, z których energia będzie równie tania, lub tańsza, od energii uzyskiwanej z paliw kopalnych czy energii jądrowej.
      Mechanizm uzyskania wydajności większej niż 100% bazuje na procesie zwanym Multiple Exciton Generation (MEG), podczas którego pojedynczy foton o odpowiednio wysokiej energii tworzy więcej niż jedną parę elektron-dziura.
      W roku 2001 pracujący w NREL Arthur J. Nozik przewidział, że MEG będzie lepiej działało w półprzewodnikowych kropkach kwantowych niż w zwykłych półprzewodnikach. Pięć lat później w pracy opublikowanej wraz z Markiem Hanną Nozik stwierdził, że kropki kwantowe użyte w ogniwach słonecznych mogą zwiększyć ich wydajność o około 35% w porównaniu z innymi nowoczesnymi rozwiązaniami. Ogniwa bazujące na kropkach kwantowych nazywane się ogniwami trzeciej (lub kolejnej) generacji. Obecnie buduje się ogniwa pierwszej i drugiej generacji.
      Zjawisko MEG, zwane też Carrier Multiplication (CM), zostało po raz pierwszy zaprezentowane w Los Alamos National Laboratory w 2004 roku. Od tamtej chwili wiele innych ośrodków badawczych potwierdziło jego występowanie w różnych półprzewodnikach. Teraz NREL zaprezentował MEG o wartości większej niż 100%. Badań dokonano przy niskiej intensywności symulowanego światła słonecznego, a mimo to eksperymentalne ogniwo słoneczne osiągnęło wydajność konwersji energii rzędu 4,5%. To bardzo dobry wynik, biorąc pod uwagę fakt, że ogniowo nie było optymalizowane pod kątem wydajności.
×
×
  • Create New...