Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Zespół złożony z naukowców z czterech uczelni wyższych dokonał przełomu, który może przyczynić się do powstania komputerów kwantowych zbudowanych z... krzemu.

Uczeni z University of Surrey, University College London, Herriot-Watt University oraz Instytutu Fizyki Plazmy z Utrechtu byli w stanie, po raz pierwszy w historii, kontrolować w krzemie zdolność elektronu do przebywania w dwóch miejscach jednocześnie.

Elektron umieszczono w dwóch różnych miejscach za pomocą niezwykle intensywnych, krótkotrwałych impulsów lasera pracującego w dalekiej podczerwieni. W ten sposób, dzięki laserowi Dutch Felix stworono kwantową superpozycję elektronu.

Oznacza to, że zbudowanie bazującego na krzemie komputera kwantowego może być w zasięgu ręki - powiedział profesor Ben Murgin z University of Surrey. W najbliższych latach mogą powstać pierwsze urządzenia dokonujące obliczeń dzięki nowej technice opracowanej przez brytyjsko-holenderski zespół.

Share this post


Link to post
Share on other sites
W najbliższych mogą powstać pierwsze urządzenia dokonujące obliczeń dzięki nowej technice opracowanej przez brytyjsko-holenderski zespół.

W najbliższych dniach czy latach?

Share this post


Link to post
Share on other sites

Nie sądzę aby materia (jej kwant) występowała w tym samym czasie w różnych miejscach przestrzeni 3 D. Raczej skłonny jestem dopuścić odbieranie wrażenia multiplikacji ( w tym przypadku duplikacji) materii w przestrzeni 3D przez przenikanie się obrazu istnienia tego samego pojedynczego kwantu materii przestrzeni o  wymiarze n D (gdzie n > 3) z przynajmniej jednym niepowtarzalnym punktem odniesienia w przestrzeni n D. Punkt odniesienia ten rzutowany na przestrzeń  3D z przestrzeni n D mógłby być widoczny podwójnie, stąd możliwe przez analogię byłoby wrażenie zaobserwowanego podwójnego obrazu jedynego materialnego kwantu.Złudzenie zwielokrotnienia przedmiotu w 3D możemy także widzieć używając co najmniej 2 luster. Romano

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Krwawienie z naczyń krwionośnych podczas operacji neurochirurgicznych to poważny problem. Krew zasłania pole widzenia i konieczne jest jej usuwanie. Dlatego pole operacyjne, w którym nie pojawiałaby się krew czyniłoby cały zabieg bardziej precyzyjnym i bezpiecznym. Naukowcy z University of Texas w Austin i University of California, Irvine, opracowali właśnie laserową platformę do bezkrwawej resekcji tkanki mózgowej.
      Obecnie podczas zabiegów neurochirurgicznych, by zapewnić dobre pole widzenia, wykorzystuje się ultradźwiękowe aspiratory, po których stosuje się przyżeganie (elektrokauteryzację). Jako jednak, że obie metody stosowane są jedna po drugiej, wydłuża to operację. Ponadto przyżeganie może prowadzić do uszkodzenia części tkanki.
      Specjaliści z Teksasu i Kalifornii wykazali podczas eksperymentów na myszach, że ich nowy laser pozwala na bezkrwawą resekcję tkanki. Ich system składa się z urządzenia do koherencyjnej tomografii optycznej (OCT), które zapewnia obraz w mikroskopowej rozdzielczości, bazującego na iterbie lasera do koagulacji naczyń krwionośnych oraz wykorzystującego tul lasera do cięcia tkanki.
      Maksymalna moc lasera iterbowego wynosi 3000 W, a urządzenie pozwala na dobranie częstotliwości i długości trwania impulsów w zakresie od 50 mikrosekund do 200 milisekund, dzięki czemu możliwa jest skuteczna koagulacja różnych naczyń krwionośnych. Laser ten emituje światło o długości 1,07 mikrometra. Z kolei laser tulowy pracuje ze światłem o długości fali 1,94 mikrometra, a jego średnia moc podczas resekcji tkanki wynosi 15 W. Twórcy nowej platformy połączyli oba lasery w jednym biokompatybilnym włóknie, którym można precyzyjnie sterować dzięki OCT.
      Opracowanie tej platformy możliwe było dzięki postępowi w dwóch kluczowych dziedzinach. Pierwszą jest laserowa dozymetria, wymagana do koagulacji naczyń krwionośnych o różnych rozmiarach. Wcześniej duże naczynia, o średnicy 250 mikrometrów i większej, nie poddawały się laserowej koagulacji z powodu szybkiego wypływu krwi. Mój kolega Nitesh Katta położył podstawy naukowe pod metodę dozymetrii laserowej pozwalającej na koagulowanie naczyń o średnicy do 1,5 milimetra, mówi główny twórca nowej platformy, Thomas Milner.
      Drugie osiągnięcie to odpowiednia metodologia działań, która pozwala na osiągnięcie powtarzalnej i spójnej ablacji różnych typów tkanki dzięki głębiej penetrującym laserom. Jako, że laserowa ablacja jest zależna od właściwości mechanicznych tkanki, cięcia mogą być niespójne, a w niektórych przypadkach mogą skończyć się katastrofalną niestabilnością cieplną. Nasza platforma rozwiązuje oba te problemy i pozwala na powtarzalne spójne cięcie tkanki miękkiej jak i sztywnej, takiej jak tkanka chrzęstna.
      Na łamach Biomedical Optics Express twórcy nowej platformy zapewniają, że w polu operacyjnym nie pojawia się krew, jakość cięcia jest odpowiednia i obserwuje się jedynie niewielkie uszkodzenia termiczne tkanki.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Łazik Perseverance wylądował na Marsie po trwającej ponad pół roku podróży. W tym czasie był narażony na oddziaływanie dużych dawek promieniowania kosmicznego, które dodatkowo mogło zostać gwałtownie zwiększone przez koronalne wyrzuty masy ze Słońca. Na takie właśnie szkodliwe dla zdrowia promieniowanie narażeni będą astronauci podróżujący na Marsa. W przeciwieństwie do załogi Międzynarodowej Stacji Kosmicznej nie będą oni chronieni przez ziemską magnetosferę. Dlatego też wszelkie metody skrócenia podróży są na wagę zdrowia i życia.
      Emmanuel Duplay i jego koledzy z kanadyjskiego McGill University zaprezentowali na łamach Acta Astronautica interesującą koncepcję laserowego systemu napędowy, który mógłby skrócić załogową podróż na Marsa do zaledwie 45 dni.
      Pomysł na napędzanie pojazdów kosmicznych za pomocą laserów nie jest niczym nowym. Jego olbrzymią zaletą jest fakt, że system napędowy... pozostaje na Ziemi. Jedną z rozważanych technologii jest wykorzystanie żagla słonecznego przymocowanego do pojazdu. Żagiel taki wykorzystywałby ciśnienie fotonów wysyłanych w jego kierunku z laserów umieszczonych na Ziemi. W ten sposób można by rozpędzić pojazd do nieosiągalnych obecnie prędkości.
      Jednak system taki może zadziałać wyłącznie w przypadku bardzo małych pojazdów. Dlatego Duplay wraz z zespołem proponują rozwiązanie, w ramach którego naziemny system laserów będzie rozgrzewał paliwo, na przykład wodór, nadając pęd kapsule załogowej.
      Pomysł Kanadyjczyków polega na stworzeniu systemu laserów o mocy 100 MW oraz pojazdu załogowego z odłączanym modułem napędowym. Moduł składałby się z olbrzymiego lustra i komory wypełnionej wodorem. Umieszczone na Ziemi lasery oświetlałby lustro, które skupiałoby światło na komorze z wodorem. Wodór byłby podgrzewany do około 40 000 stopni Celsjusza, gwałtownie by się rozszerzał i uchodził przez dyszę wylotową, nadając pęd kapsule załogowej. W ten sposób, w ciągu kilkunastu godzin ciągłego przyspieszania kapsuła mogłaby osiągnąć prędkość około 14 km/s czyli ok. 50 000 km/h, co pozwoliłoby na dotarcie do Marsa w 45 dni. Sam system napędowy, po osiągnięciu przez kapsułę odpowiedniej prędkości, byłby od niej automatycznie odłączany i wracałby na Ziemię, gdzie można by go powtórnie wykorzystać.
      Drugim problemem, obok stworzenia takiego systemu, jest wyhamowanie pojazdu w pobliżu Marsa. Naukowcy z McGill mówią, że można to zrobić korzystając z oporu stawianego przez atmosferę Czerwonej Planety, jednak tutaj wciąż jest sporo niewiadomych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
      Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
      Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
      Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
      Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
      Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
      To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
      Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
      Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po raz pierwszy udało się zrekonstruować w laboratorium falową naturę elektronu, jego funkcję falową Blocha. Dokonali tego naukowcy z Uniwersytetu Kalifornijskiego w Santa Barbara (UCSB), a ich praca może znaleźć zastosowanie w projektowaniu kolejnych generacji urządzeń elektronicznych i optoelektronicznych.
      Elektrony zachowują się jednocześnie jak cząstki oraz jak fala. Ich falowa natura opisywane jest przez naukowców za pomocą obiektów matematycznych zwanych funkcjami falowymi. Funkcje te zawierają zarówno składowe rzeczywiste, jak i urojone. Z tego też powodu funkcji falowej Blocha elektronu nie można bezpośrednio zmierzyć. Można jednak obserwować powiązane z nią właściwości. Fizycy od dawna próbują zrozumieć, w jaki sposób falowa natura elektronów poruszających się przez sieć krystaliczną atomów, nadaje tej sieci właściwości elektroniczne i optyczne. Zrozumienie tego zjawiska pozwoli nam projektowanie urządzeń lepiej wykorzystujących falową naturę elektronu.
      Naukowcy z Santa Barbara wykorzystali silny laser na swobodnych elektronach, który posłuży im do uzyskanie oscylującego pola elektrycznego w półprzewodniku, arsenu galu. Jednocześnie za pomocą lasera podczerwonego o niskiej częstotliwości wzbudzali jego elektrony. Wzbudzone elektrony pozostawiały po sobie „dziury” o ładunku dodatnim. Jak wyjaśnia Mark Sherwin, w arsenku galu dziury te występują w dwóch odmianach – lekkiej i ciężkiej – i zachowują się jak cząstki o różnych masach.
      Para elektron-dziura tworzy kwazicząstkę zwaną ekscytonem. Fizycy z UCSB odkryli, że jeśli utworzy się elektrony i dziury w odpowiednim momencie oscylacji pola elektrycznego, to oba elementy składowe ekscytonów najpierw oddalają się od siebie, następnie zwalniają, zatrzymują się, zaczynają przyspieszać w swoim kierunku, dochodzi do ich zderzenia i rekombinacji. W czasie rekombinacji emitują impuls światła – zwany wstęgą boczną – o charakterystycznej energii. Emisja ta zawiera informacje o funkcji falowej elektronów, w tym o ich fazach.
      Jako, że światło i ciężkie dziury przyspieszają w różnym tempie w polu elektrycznym ich funkcje falowe Blocha mają różne fazy przed rekombinacją z elektronami. Dzięki tej różnicy fazy dochodzi do interferencji ich funkcji falowych i emisji, którą można mierzyć. Interferencja ta determinuje też polaryzację wstęgi bocznej. Może ona być kołowa lub eliptyczna.
      Autorzy eksperymentu zapewniają, że sam prosty stosunek pomiędzy interferencją a polaryzacją, który można zmierzyć, jest wystarczającym warunkiem łączącym teorię mechaniki kwantowej ze zjawiskami zachodzącymi w rzeczywistości. Ten jeden parametr w pełni opisuje funkcję falową Blocha dziury uzyskanej w arsenku galu. Uzyskujemy tę wartość mierząc polaryzację wstęgi bocznej, a następnie rekonstruując funkcję falową, która może się różnić w zależności od kąta propagacji dziury w krysztale, dodaje Seamus O'Hara.
      Do czego takie badania mogą się przydać? Dotychczas naukowcy musieli polegać na teoriach zawierających wiele słabo poznanych elementów. Skoro teraz możemy dokładnie zrekonstruować funkcję falową Blocha dla różnych materiałów, możemy to wykorzystać przy projektowaniu i budowie laserów, czujników i niektórych elementów komputerów kwantowych, wyjaśniają naukowcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji.
      Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem.
      Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie.
      W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...