Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Komputery kwantowe - przyszłość informatyki, która brzmi bardziej niesamowicie, niż technologie z filmów science-fiction. Na drodze do ich realizacji zrobiono kolejny krok - użyto lasera do schłodzenia cząsteczek.

Kwantowe komputery mają działać szybciej dzięki wykorzystaniu kwantowych bitów informacji, czyli kubitów. W tej roli uczeni obsadzali w swoich eksperymentach albo atomy, albo „sztuczne atomy". Czym jest sztuczny atom? To grupa wielu atomów, zachowująca się na poziomie kwantowym jak pojedynczy atom. I jedno, i drugie rozwiązanie ma wady: splątane atomy nie komunikują się ze sobą wystarczająco silnie na potrzeby obliczeń, sztuczne atomy spisują się tu doskonale, ale z powodu swojej masy sprawiają inny problem: zbyt łatwo poddają się zakłóceniom ze świata zewnętrznego. Czy nie da się znaleźć innego rozwiązania? Narzuca się wykorzystanie cząsteczek chemicznych, ale z różnych powodów również się to dotąd nie sprawdzało.

Jeden z tych problemów właśnie rozwiązali naukowcy z Yale University: David DeMille, Edward Shuman i John Barry. Jeśli chcemy stworzyć kwantowy komputer, potrzebujemy możliwości manipulowania jego kubitami, a to jest trudne ponieważ każda manipulacja zakłóca ich stan kwantowy. Ponadto cząsteczki bez przerwy poruszają się, wibrują i obracają. Jak wiadomo, ruch cząsteczek to inaczej temperatura, jeśli chcemy cząsteczkę uciszyć, musimy obniżyć jej temperaturę blisko zera absolutnego, czyli -273,15 °C.

Jak można schłodzić pojedynczą cząsteczkę? Udało się to zrobić z wykorzystaniem lasera. Wielu może zdziwić, w jaki sposób laser, kojarzony raczej z wysoką temperaturą można wykorzystać do chłodzenia? Promień lasera to najprościej mówiąc: strumień fotonów, które trafiając w cząsteczkę, poruszają nią. Jeśli cząsteczkę umieścimy pomiędzy dwoma przeciwległymi promieniami, to ograniczymy jej ruchy i przytrzymamy. A mniej ruchu to niższa temperatura. Chłodzenie laserem wykorzystywano już do pojedynczych atomów, ale nie stosowano wcześniej tej metody do cząsteczek, ponieważ mają one nieregularne kształty i zachowują się nieprzewidywalnie. Dlatego osiągnięcie zespołu DeMille'a jest takim sukcesem. Schłodzili oni niemal do zera absolutnego cząsteczkę monofluorku strontu, ale zamierzają ją rozwinąć i zastosować również do cząsteczek innych związków.

To rewolucja - mówią autorzy. Technika znajdzie zastosowanie nie tylko przy konstruowaniu kwantowych komputerów, ale również do wielu innych eksperymentów. Jednym z nich jest uzyskanie efektu tunelowania kwantowego, ale przyda się również do precyzyjnych pomiarów struktury molekuł, czy wynajdywania nowych, nieznanych dotąd cząsteczek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jest jeszcze taka cecha jak czytanie ze zrozumieniem

ja tez w pierwszej chwili myslalem ze to stary-nius

ale kluczem jest tu

"Chłodzenie laserem wykorzystywano już do pojedynczych atomów, ale nie stosowano wcześniej tej metody do cząsteczek"

 

zatem pogratulowac veyronowi umiejetnosci czytania ze zrozumieniem :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ewentualnie zarzucania lektury po pierwszym akapicie z mniemaniem, że wie się wszystko, na czym iwle osób się nacina. :)

A ja celowo nie streszczam clue na początku. :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm, trafiłem na ten artykuł, jak rozumiem popularno-naukowy, a nie fantastyczno-naukowy i niestety jak często miewam ostatnio po przeczytaniu z artykułami tego typu dotyczącymi fizyki kwantowej, poczułem niesmak. Jak domniemam autor postu nie jest ekspertem w dziedzinie, więc to nie jego wina, ale zachwyt nieproporcjonalny do faktycznego stanu rzeczy (choć oczywiście David DeMille jest wybitnym naukowce i miłym człowiekiem), ze sformułowaniami na poziomie podstawówki, razi w oczy. Zakładam jednak, że może inaczej się nie da, bo albo artykuł się nie sprzeda, albo żaden laik nie dotrwa do drugiego akapitu...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Umożliwia uzyskanie obrazu powierzchni ze zdolnością rozdzielcz/color] dzięki wykorzystaniu sił oddziaływań międzyatomowych, na zasadzie przemiatania ostrza nad lub pod powierzchnią próbki. 

 

http://pl.wikipedia.org/wiki/Mikroskop_si%C5%82_atomowych

 

... o obserwacji pojedynczych atomów (co jest nierealne) bo nie ma czym tego zrobić (atomy to nie kulki z łozyska które wystarczy oświetlić i oglądać pod mikroskopem).

Oczywiście po zaniku pola magnetycznego generowanego przez poruszający się jon mozna wnosić ze się zatrzymał.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe, gdy w końcu staną się rzeczywistością, mają poradzić sobie z obliczeniami niemożliwymi do wykonania przez komputery klasyczne w rozsądnym czasie. Powstaje pytanie, czy istnieje granica wydajności obliczeniowej komputerów kwantowych, a jeśli tak, to czy można ją będzie w przyszłości przesuwać czy też trzeba będzie wymyślić zupełnie nową technologię. Odpowiedzi na nie postanowili poszukać Einar Gabbassov, doktorant z Instytutu Obliczeń Kwantowych University of Waterloo i Perimeter Institute oraz profesor Achim Kempf z Wydziału Fizyki Informacji i Sztucznej Inteligencji University of Waterloo i Perimeter Institute. Ich praca na ten temat ukazała się na łamach Quantum Science and Technology.
      Okazuje się, że jeśli komputer kwantowy ma rozwiązać jakiś problem, to jego złożoność przekłada się na bardziej złożone splątanie kwantowe. To oznacza, że problem obliczeniowy staje się rzeczywistością fizyczną, w której kubity zachowują się różnie w zależności od stopnia splątania. To, co było matematyką, zamienia się w fizykę z głównym problemem w postaci splątania kwantowego.
      Najtrudniejsze z zadań obliczeniowych są klasyfikowane jako problemy NP-trudne. Nie mamy dowodów, że komputery kwantowe będą w stanie szybko poradzić sobie z każdym tego typu problemem, ale mamy wielkiej nadzieję, że tak się stanie. Żeby stworzyć algorytm kwantowy, który umożliwi przyspieszenie prac nad problemami NP-trudnymi, używa się klasyfikacji opisującej złożoność takich procesów w odniesieniu do rzeczywistości fizycznej. Często używa się analogii do krajobrazu. Profesor Kempf mówi, by wyobrazić sobie, że wyskakujemy z samolotu ze spadochronem i mamy za zadanie wylądować w najniższym punkcie okolicy. Tam znajdziemy skarb. W problemie łatwym mamy pod sobą krajobraz, w którym znajduje się jedna wyraźnie widoczna dolina z łagodnie opadającymi stokami. W problemie trudnym pod nami znajduje się teren poprzecinany wieloma dolinami, szczelinami i klifami. Ocena, gdzie należy się kierować jest niezwykle trudna. Komputer kwantowy pozwoliły na przeszukanie całego terenu jednocześnie i od razu wskazałby właściwy punkt lądowania. Jednak, by tego dokonać, splątanie między kubitami musi być tak złożone, jak krajobraz. To właśnie w splątaniu tkwi potęga obliczeń kwantowych.
      Odkryliśmy, że trudne problemy matematyczne są tak trudne dlatego, że wymagają od komputerów kwantowych, by manipulowały, tworzyły i rozprzestrzeniały wewnątrz systemu wysoce złożone układy splątań. W miarę ewolucji systemu, kubity zaczynają tworzyć złożoną sieć. Związki pomiędzy nimi zmieniają się, przemieszczają, tworzące kubity cząstki tracą splątanie i na nowo się splątują. Trudne problemy wymagają ciągłych zmian tego typu, a to właśnie determinuje, jak szybkie mogą być obliczenia, wyjaśnia Gabbassov.
      Obaj uczeni proponują w swoim artykule nowy sposób pomiaru prędkości rozwiązania dowolnego problemu w oparciu o wymagany stopień złożoności splątania kwantowego. Zaproponowana metoda została opracowana na potrzeby adiabatycznych maszyn kwantowych, jednak powinna działać też na innych typach maszy, więc można ją będzie szeroko stosować. Gabbassov i Kempf mają nadzieję, ze ich praca zainspiruje innych specjalistów, którzy wykorzystają ją na swoich polach specjalizacji. Myślę, że badania te przyspieszą pracę nad ekonomicznie opłacalnymi obliczeniami kwantowymi, stwierdził Kempf.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
      Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
      Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
      Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
      Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.

      Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze z QuTech (Uniwersytet Techniczny w Delft), we współpracy z Fujitsu i firmą Element Six, zaprezentowali działający zestaw bramek kwantowych, w których prawdopodobieństwo wystąpienia błędu wynosi poniżej 0,1%. Mimo, że całość wymaga jeszcze wiele pracy, tak niskie prawdopodobieństwo pojawienia się błędu jest jednym z podstawowych warunków prowadzenia w przyszłości powszechnych obliczeń kwantowych na dużą skalę.
      Skomplikowane obliczenia kwantowe wykonywane są za pomocą dużego ciągu podstawowych operacji logicznych prowadzonych na bramkach. Wynik takich obliczeń będzie prawidłowy pod warunkiem, że na każdej z bramek pojawi się minimalna liczba błędów, z którymi będą mogły poradzić sobie algorytmy korekty błędów. Zwykle uznaje się, że błędy nie powinny pojawiać się w więcej niż 0,1% do 1% operacji. Tylko wówczas algorytmy korekty będą działały właściwie i otrzymamy prawidłowy wynik końcowy obliczeń.
      Inżynierowie z QuTech i ich koledzy pracują z procesorami kwantowymi, które w roli kubitów wykorzystują spiny w diamentach. Kubity te składają się z elektronu i spinu powiązanego z defektami struktury krystalicznej diamentu. Defektem takim może być miejsce, w którym atom azotu zastąpił atom węgla w diamencie. Procesory takie działają w temperaturze do 10 K i są dobrze chronione przed zakłóceniami. Współpracują też z fotonami, co pozwala na stosowanie metod przetwarzania rozproszonego.
      Podczas eksperymentów wykorzystano system dwóch kubitów, jednego ze spinu elektronu w centrum defektu sieci krystalicznej, drugiego ze spinu jądra atomu w centrum defektu. Każdy z rodzajów bramek w takim systemie działał z odsetkiem błędów poniżej 0,1%, a najlepsze bramki osiągały 0,001%
      Żeby zbudować tak precyzyjne bramki, musieliśmy usunąć źródła błędów. Pierwszym krokiem było wykorzystanie ultraczystych diamentów, które charakteryzuje niska koncentracja izotopów C-13, będących źródłem zakłóceń, wyjaśnia główny autor badań, Hans Bartling. Równie ważnym elementem było takie zaprojektowanie bramek, by odróżniały kubity od siebie i od szumów tła. W końcu zaś, konieczne było precyzyjne opisanie bramek i zoptymalizowanie ich działania. Naukowcy wykorzystali metodę zwaną gate set tomography, która pozwala na dokładny opis bramek i operacji logicznych w procesorach kwantowych. Uzyskanie pełnej i precyzyjnej informacji o błędach na bramkach było niezwykle ważne dla procesu usuwania niedoskonałości i optymalizowania parametrów bramek, dodaje Iwo Yun.
      To jednak dopiero jeden, chociaż niezmiernie ważny, krok w kierunku wiarygodnego uniwersalnego komputera kwantowego. Nasz eksperyment został przeprowadzony na dwukubitowym systemie i wykorzystaliśmy konkretny rodzaj defektów sieci krystalicznej. Największym wyzwaniem jest utrzymanie i poprawienie jakości bramek w momencie, gdy trafią one do układów scalonych ze zintegrowaną optyką oraz elektroniką i będą pracowały ze znacznie większą liczbą kubitów, wyjaśnia Tim Taminiau, który nadzorował prace badawcze.
      Bramki zostały szczegółowo opisane na łamach Physical Review Applied.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
      W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
      Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
      Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
      Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
      Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mają rozwiązywać problemy, z którymi nie radzą sobie komputery klasyczne. Maszyny, które udało się zbudować, bazują zwykle na superpozycji stanów elektronicznych, na przykład na dwóch różnych ładunkach. Problem w tym, że kubity elektromagnetyczne szybko ulegają dekoherencji, tracą swój stan kwantowy. Wówczas superpozycja ulega zniszczeniu i nie mamy już do czynienia z kubitem. To obecnie znacząco ogranicza możliwości komputerów kwantowych. Wkrótce jednak może się to zmienić, gdyż naukowcy z Federalnego Instytutu Technologii w Zurychu stworzyli długo działający mechaniczny kubit.
      Szwajcarski kubit to miniaturowa wersja membrany instrumentu perkusyjnego. Zachowuje się ona w sposób podobny do kota Schrödingera – jednocześnie wibruje i nie wibruje. Jest więc w superpozycji. Wykorzystanie mechanicznego kubitu mogłoby doprowadzić do powstania mechanicznych komputerów kwantowych, zdolnych do przeprowadzania długotrwałych, złożonych obliczeń.
      Specjaliści, próbujący stworzyć mechaniczny kubit, mierzyli się z olbrzymim problemem związanym ze stanami energetycznymi. Standardowe kubity elektromagnetyczne zachowują się anharmonicznie, co oznacza, że pomiędzy ich stanami elektronicznymi istnienie nierównowaga energii i to właśnie czyni je użytecznymi kubitami. Z mechanicznymi rezonatorami, takimi jak wspomniana powyżej membrana, problem polega na tym, że są one harmoniczne. Poziomy energii pomiędzy wibracjami są równe, więc wykorzystanie ich jako kubitów jest niemożliwe. Zaproponowano więc rozwiązanie problemu, które miało polegać na połączeniu takiego mechanicznego oscylatora z najlepiej działającym elektromagnetycznym kubitem. Jednak czas działania takiej hybrydy uzależniony był od czasu dekoherencji kubita elektromagnetycznego. Całość nie sprawdzała się dobrze.
      Naukowcy z Zurychu wpadli więc na inny pomysł. Ich kubit składa się z elementu piezoelektrycznego umieszczonego na szafirowej płytce – to część mechaniczna – połączonego z szafirowym anharmonicznym elementem.
      Prototypowy układ osiąga czas koherencji rzędu 200 mikrosekund, działa więc 2-krotnie dłużej niż przeciętny kubit nadprzewodzący. Co prawda obecnie najlepsze kubity osiągają czas koherencji około 1 milisekundy, jest to więc około 5-krotnie dłużej niż mechaniczny kubit z Zurychu, ale mowa tutaj o wyjątkowych kubitach, nad którymi prace trwają od wielu lat.
      Szwajcarscy naukowcy zapewniają, że eksperymentując z różnymi materiałami i architekturami będą w stanie znacząco wydłużyć czas koherencji ich kubitu.
      Twórcy mechanicznego kubitu pracują teraz nad stworzeniem kwantowej bramki logicznej, odpowiednika bramek logicznych w tradycyjnych komputerach, za pomocą których przeprowadzane są obliczenia.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...