Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
![KopalniaWiedzy.pl](https://forum.kopalniawiedzy.pl/uploads/monthly_2020_07/kopalniawiedzy.thumb.png.07866968d851589e849bf8f30744d544.png)
Komputery kwantowe trafią pod strzechy dzięki grafenowym bolometrom?
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature.
W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację.
Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową.
Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main.
Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości.
Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
Więcej o unimonie można przeczytać na łamach Nature Communications.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Sposób pomiaru ciśnienia krwi nie zmienił się od czasu wynalezienia w 1881 roku sfigmomanometru z nadmuchiwanym rękawem. Jednak taki sposób pomiaru nie daje nam pełnej wiedzy o stanie układu krążenia. Ciśnienie krwi to ważny wskaźnik. Stres może zabić. Stres prowadzi do zmian ciśnienia, ale nie mamy sposobu, by je mierzyć czy rozumieć, mówi profesor inżynierii Roozbeh Jafari z Texas A&M University.
W ostatnich latach zaczęły pojawiać się urządzenia, za pomocą których osoby cierpiące na choroby układu krążenia mogą na bieżąco monitorować ciśnienie. Urządzenia są jednak dość spore, mogą się przesuwać zakłócając pomiar. Z kolei urządzenia takie jak smartwatche, które korzystają z podczerwieni, mogą mierzyć puls, ale nie ciśnienie.
Jednak wkrótce może się to zmienić.profesor Deji Akinwande z University of Texas w Austin i profesor Jafari opracowali grafenowe elektroniczne tatuaże, które utrzymują się na skórze przez tydzień i bez przerwy monitorują ciśnienie badając bioimpedancję.
Ciągły pomiar ciśnienia ma wiele zalet. Pozwala bowiem na sprawdzenie, jak sprawuje się nasz układ krwionośny w różnych sytuacjach: podczas snu, pracy, intensywnego wysiłku fizycznego, gdy przeżywamy stres i gdy jesteśmy spokojni. Można dzięki temu wykonać tysiące pomiarów w ciągu doby. A to z kolei nie tylko powie nam, w jakim stanie jest nasz układ krążenia, ale pozwoli na wczesne wykrycie problemów.
Naukowcy rozpoczęli pracę od wyhodowania na miedzianej folii pojedynczej lub podwójnej warstwy grafenu. Następnie grafen pokryli 200-nanometrową warstwą akrylu, a całość przenieśli na papier do tatuaży, z którego całość trafiła na skórę. Jako, że warstwa grafenu jest atomowej grubości, bardzo dobrze przylega do skóry, nie musi być w żaden sposób mocowana, nie przesuwa się, a tatuażu w ogóle się nie czuje.
Żeby mierzyć ciśnienie naukowcy wykorzystali dwa rzędy sześciu grafenowych tatuaży. Każdy z rzędów został umieszczony dokładnie nad jedną z dwóch głównych tętnic ramienia: promieniową i łokciową. Skrajne tatuaże w każdym rzędzie wysyłają niewielkie impulsy elektryczne, a tatuaże wewnętrzne mierzą zmiany napięcia, co pozwala na określenie impedancji. Impedancja – jak wyjaśnia Jafari – odzwierciedla zaś zmiany ilości krwi w arteriach. Naukowcy musieli jeszcze stworzyć algorytm maszynowego uczenia się, który na podstawie zmian objętości krwi w arteriach, czasu przejścia impulsu zmiany ciśnienia pomiędzy tatuażami, różnicy czasu zmiany ciśnienia pomiędzy tętnicami oraz elastyczności arterii, dokładnie oblicza ciśnienie krwi.
W ramach eksperymentu tatuaże umieszczono na ramionach 7 osób, a wyniki pomiarów z tatuaży porównywano z wielokrotnie wykonywanymi tradycyjnymi pomiarami. Osoby biorące udział w eksperymencie musiały w czasie badań wykonywać różne czynności. Niektórzy robili pompki, inni spacerowali szybkim krokiem przy temperaturze dochodzącej do 38 stopni Celsjusza. Badania wykazały, że tatuaże nie ulegają degradacji pod wpływem światła, ciepła, kontaktu z wodą czy z potem. Eksperyment trwał przez pięć godzin i zakończył się sukcesem. Jafari mówi, że można dłużej wykorzystywać tatuaże, gdyż pozostają one na skórze przed tydzień.
Prototypowa wersja grafenowego systemu do pomiaru ciśnienia jest zaopatrzona w przewody, którymi dane z tatuaży wędrują do analizującego je urządzenia. Akinwande zapowiada, że powstanie wersja bezprzewodowa. Musimy zaprojektować układ scalony, który będzie bezprzewodowo przesyłał informacje, mówi.
« powrót do artykułu -
przez KopalniaWiedzy.pl
University of Michigan informuje o odkryciu, które przyspieszy prace nad elektroniką przyszłej generacji oraz nowatorskimi źródłami światła. Naukowcy z Ann Arbor opracowali pierwszą niezawodną skalowalną metodę uzyskiwania pojedynczych warstw heksagonalnego azotku boru (hBN) na grafenie. W procesie, w którym mogą powstawać duże płachty hBN, wykorzystano powszechnie stosowany proces epitaksji z wiązek molekularnych.
Urządzenia z grafenu i hBN mogą zostać wykorzystane m.in. do budowy LED emitujących światło z zakresie głębokiego ultrafioletu. Za pomocą współczesnych diod nie można uzyskać takiego zakresu fali. LED z dalekim ultrafioletem pozwoliłyby na stworzenie mniejszych urządzeń o większej wydajności, w tym nowatorskich laserów czy oczyszczaczy powietrza. Obecnie daleki ultrafiolet uzyskujemy za pomocą lamp rtęciowo-ksenonowych. Bardzo się one nagrzewają, są nieporęczne, mało wydajne i zawierają toksyczne materiały. Jeśli moglibyśmy uzyskać taki zakres promieniowania z LED oznaczałoby to taką rewolucję w urządzeniach UV jaka zaszła gdy LED zastąpiły tradycyjne żarówki, mówi profesor Zeitan Mi.
Heksagonalny azotek boru to najcieńszy izolator, z kolei grafen to najcieńszy półmetal. W wyniku połączenia jednoatomowych warstw obu materiałów powstaje materiał o bardzo interesujących właściwościach. Można z niego tworzyć nie tylko LED-y pracujące w dalekim ultrafiolecie, ale też podzespoły do komputerów kwantowych, mniejszą i bardziej wydajną elektronikę oraz optoelektronikę, ma wiele innych zastosowań.
Właściwości hBN są znane od lat, ale w przeszłości jedyną metoda uzyskania cienkich warstw tego materiału było fizyczne złuszczanie ich z kryształu azotku boru. To bardzo pracochłonny proces, w wyniku którego można uzyskać niewielkie płatki materiału. Nasza metoda pozwala na uzyskanie atomowej grubości warstw dowolnych rozmiarów, dodaje Mi.
Grafen i heksagonalny azotek boru są bardzo cienkie, dzięki czemu można by budować z nich znacznie mniejsze i bardziej wydajne urządzenia elektroniczne niż przy użyciu obecnie stosowanych materiałów. Warstwy hBN i grafenu mogą też mieć egzotyczne właściwości pozwalające na przechowywanie kwantowej informacji, możliwość przełączania pomiędzy stanem przewodnika a izolatora czy uzyskania niezwykłych spinów elektronowych.
Dotychczas jednak zawiodły wszelkie próby uzyskania jednorodnych pozbawionych wad warstw hBN, które są potrzebne, by materiał ten dobrze połączył się z grafenem. Do uzyskania użytecznego produktu potrzebne są jednorodne uporządkowane rzędy atomów hBN dopasowane do leżących poniżej atomów grafenu. Dotychczas nie udawało się tego uzyskać, wyjaśnia Ping Wang.
Uczeni z University of Michigan zauważyli, że w wyższych temperaturach równe rzędy atomów hBN są bardziej stabilne niż nieuporządkowane zbiory atomów. Zaczęli więc eksperymentować z techniką epitaksji z wiązek molekularnych. To proces przemysłowy polegający na natryskiwaniu atomów na podłoże.
Wang i jego koledzy użyli płachty grafenu w kształcie schodów, rozgrzali ją do około 1600 stopni Celsjusza, a następnie natryskiwali na nią atomy boru i azotu. Wyniki pozytywnie ich zaskoczyły. Na krawędziach grafenu powstały dobrze uporządkowane paski hBN, które rozszerzyły się w szerokie wstęgi. To wielki krok w kierunku komercjalizacji kwantowych struktur 2D, cieszy się Mi.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.