Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Przeprowadzono testy pierwszego uniwersalnego, programowalnego komputera kwantowego. Odbyły się one w warunkach laboratoryjnych i ujawniły sporo problemów, które muszą zostać rozwiązane, zanim tego typu komputer pojawi się poza laboratorium.

Podczas testów prowadzonych przez zespół Davida Hanneke użyto urządzenia skonstruowanego przez amerykański Narodowy Instytut Standardów i Technologii (NIST). Maszyna wykonuje obliczenia na dwóch kubitach (kwantowych bitach).

Obliczenia kwantowe były wykonywane już wcześniej, jednak dotychczas udawało się je przeprowadzać tylko dla pewnych specyficznych algorytmów. Teraz amerykańscy naukowcy pokazali, w jaki sposób wykonywać każdy rodzaj kwantowych obliczeń za pomocą tego samego urządzenia.

Jego sercem jest pokryta złotem płytka aluminium. Umieszczono na niej elektromagnetyczną pułapkę o średnicy 200 nanometrów, w której uwięziono dwa jony magnezu i dwa berylu. Magnez działa jak rodzaj "zamrażarki", eliminując niepożądane wibracje i utrzymując stabilność systemu jonów.

Całość uzupełniały lasery, w których świetle zakodowano kwantowe bramki logiczne. Seria impulsów z zakodowanymi bramkami trafia w jony, a wyniki są odczytywane przez inny laser.

Spośród nieskończonej liczby operacji, które można przeprowadzić na dwóch kubitach, wybrano 160 przypadkowych, by sprawdzić uniwersalny charakter komputera. Podczas każdej z operacji oba jony berylu były ostrzeliwane impulsami lasera, w których zakodowano 31 różnych bramek logicznych. Każdy ze 160 programów został uruchomiony 900 razy. Uzyskane wyniki porównano z teoretycznymi wyliczeniami i okazało się, że maszyna pracuje tak, jak to przewidziano. Stwierdzono, że każda bramka logiczna pracuje z ponad 90-procentową dokładnością, jednak po ich połączeniu system osiągnął dokładność około 79%. Działo się tak dlatego, że istnieją niewielkie różnice w intensywności impulsów z różnymi zakodowanymi bramkami. Ponadto impulsy muszą być rozdzielane, odbijane i przechodzą wiele innych operacji, przez co wprowadzane są kolejne błędy.

Mimo osiągnięcia dobrych rezultatów, system musi być znacznie poprawiony. Naukowcy z NIST mówią, że musi on osiągnąć dokładność rzędu 99,99% zanim trafi do komputerów. By tego dokonać należy poprawić stabilność laserów i zmniejszyć liczbę błędów wynikających z interakcji światła z komponentami optycznymi.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Krwawienie z naczyń krwionośnych podczas operacji neurochirurgicznych to poważny problem. Krew zasłania pole widzenia i konieczne jest jej usuwanie. Dlatego pole operacyjne, w którym nie pojawiałaby się krew czyniłoby cały zabieg bardziej precyzyjnym i bezpiecznym. Naukowcy z University of Texas w Austin i University of California, Irvine, opracowali właśnie laserową platformę do bezkrwawej resekcji tkanki mózgowej.
      Obecnie podczas zabiegów neurochirurgicznych, by zapewnić dobre pole widzenia, wykorzystuje się ultradźwiękowe aspiratory, po których stosuje się przyżeganie (elektrokauteryzację). Jako jednak, że obie metody stosowane są jedna po drugiej, wydłuża to operację. Ponadto przyżeganie może prowadzić do uszkodzenia części tkanki.
      Specjaliści z Teksasu i Kalifornii wykazali podczas eksperymentów na myszach, że ich nowy laser pozwala na bezkrwawą resekcję tkanki. Ich system składa się z urządzenia do koherencyjnej tomografii optycznej (OCT), które zapewnia obraz w mikroskopowej rozdzielczości, bazującego na iterbie lasera do koagulacji naczyń krwionośnych oraz wykorzystującego tul lasera do cięcia tkanki.
      Maksymalna moc lasera iterbowego wynosi 3000 W, a urządzenie pozwala na dobranie częstotliwości i długości trwania impulsów w zakresie od 50 mikrosekund do 200 milisekund, dzięki czemu możliwa jest skuteczna koagulacja różnych naczyń krwionośnych. Laser ten emituje światło o długości 1,07 mikrometra. Z kolei laser tulowy pracuje ze światłem o długości fali 1,94 mikrometra, a jego średnia moc podczas resekcji tkanki wynosi 15 W. Twórcy nowej platformy połączyli oba lasery w jednym biokompatybilnym włóknie, którym można precyzyjnie sterować dzięki OCT.
      Opracowanie tej platformy możliwe było dzięki postępowi w dwóch kluczowych dziedzinach. Pierwszą jest laserowa dozymetria, wymagana do koagulacji naczyń krwionośnych o różnych rozmiarach. Wcześniej duże naczynia, o średnicy 250 mikrometrów i większej, nie poddawały się laserowej koagulacji z powodu szybkiego wypływu krwi. Mój kolega Nitesh Katta położył podstawy naukowe pod metodę dozymetrii laserowej pozwalającej na koagulowanie naczyń o średnicy do 1,5 milimetra, mówi główny twórca nowej platformy, Thomas Milner.
      Drugie osiągnięcie to odpowiednia metodologia działań, która pozwala na osiągnięcie powtarzalnej i spójnej ablacji różnych typów tkanki dzięki głębiej penetrującym laserom. Jako, że laserowa ablacja jest zależna od właściwości mechanicznych tkanki, cięcia mogą być niespójne, a w niektórych przypadkach mogą skończyć się katastrofalną niestabilnością cieplną. Nasza platforma rozwiązuje oba te problemy i pozwala na powtarzalne spójne cięcie tkanki miękkiej jak i sztywnej, takiej jak tkanka chrzęstna.
      Na łamach Biomedical Optics Express twórcy nowej platformy zapewniają, że w polu operacyjnym nie pojawia się krew, jakość cięcia jest odpowiednia i obserwuje się jedynie niewielkie uszkodzenia termiczne tkanki.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Łazik Perseverance wylądował na Marsie po trwającej ponad pół roku podróży. W tym czasie był narażony na oddziaływanie dużych dawek promieniowania kosmicznego, które dodatkowo mogło zostać gwałtownie zwiększone przez koronalne wyrzuty masy ze Słońca. Na takie właśnie szkodliwe dla zdrowia promieniowanie narażeni będą astronauci podróżujący na Marsa. W przeciwieństwie do załogi Międzynarodowej Stacji Kosmicznej nie będą oni chronieni przez ziemską magnetosferę. Dlatego też wszelkie metody skrócenia podróży są na wagę zdrowia i życia.
      Emmanuel Duplay i jego koledzy z kanadyjskiego McGill University zaprezentowali na łamach Acta Astronautica interesującą koncepcję laserowego systemu napędowy, który mógłby skrócić załogową podróż na Marsa do zaledwie 45 dni.
      Pomysł na napędzanie pojazdów kosmicznych za pomocą laserów nie jest niczym nowym. Jego olbrzymią zaletą jest fakt, że system napędowy... pozostaje na Ziemi. Jedną z rozważanych technologii jest wykorzystanie żagla słonecznego przymocowanego do pojazdu. Żagiel taki wykorzystywałby ciśnienie fotonów wysyłanych w jego kierunku z laserów umieszczonych na Ziemi. W ten sposób można by rozpędzić pojazd do nieosiągalnych obecnie prędkości.
      Jednak system taki może zadziałać wyłącznie w przypadku bardzo małych pojazdów. Dlatego Duplay wraz z zespołem proponują rozwiązanie, w ramach którego naziemny system laserów będzie rozgrzewał paliwo, na przykład wodór, nadając pęd kapsule załogowej.
      Pomysł Kanadyjczyków polega na stworzeniu systemu laserów o mocy 100 MW oraz pojazdu załogowego z odłączanym modułem napędowym. Moduł składałby się z olbrzymiego lustra i komory wypełnionej wodorem. Umieszczone na Ziemi lasery oświetlałby lustro, które skupiałoby światło na komorze z wodorem. Wodór byłby podgrzewany do około 40 000 stopni Celsjusza, gwałtownie by się rozszerzał i uchodził przez dyszę wylotową, nadając pęd kapsule załogowej. W ten sposób, w ciągu kilkunastu godzin ciągłego przyspieszania kapsuła mogłaby osiągnąć prędkość około 14 km/s czyli ok. 50 000 km/h, co pozwoliłoby na dotarcie do Marsa w 45 dni. Sam system napędowy, po osiągnięciu przez kapsułę odpowiedniej prędkości, byłby od niej automatycznie odłączany i wracałby na Ziemię, gdzie można by go powtórnie wykorzystać.
      Drugim problemem, obok stworzenia takiego systemu, jest wyhamowanie pojazdu w pobliżu Marsa. Naukowcy z McGill mówią, że można to zrobić korzystając z oporu stawianego przez atmosferę Czerwonej Planety, jednak tutaj wciąż jest sporo niewiadomych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
      Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
      Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
      Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
      Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
      Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
      To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
      Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
      Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji.
      Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem.
      Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie.
      W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Świat zmaga się z rosnącym kryzysem antybiotykooporności. Nadmierne używanie antybiotyków w medycynie, przemyśle spożywczym czy kosmetycznym, prowadzi do pojawiania się bakterii opornych na działanie antybiotyków. Przedostające się do środowiska antybiotyki, a w niektórych rzekach ich stężenie 300-krotnie przekracza bezpieczny poziom, wymuszają na patogenach ciągłą ewolucję w kierunku antybiotykooporności. Nawet w jelitach dzieci odkryto setki bakteryjnych genów antybiotykooporności. Bez nowych antybiotyków lub innych rozwiązań realny staje się scenariusz, w którym ludzie znowu zaczną umierać z powodu zwykłych zakażeń czy niegroźnych obecnie chorób.
      Jedną ze strategii spoza repertuaru środków chemicznych jest wykorzystanie metod fizycznych, jak światło ultrafioletowe, promieniowanie gamma czy ciepło. Metody są skuteczne w dezaktywowaniu patogenów, jednak prowadza do poważnych uszkodzeń tkanek, przez co nie mogą być stosowane w praktyce klinicznej.
      Dlatego też część naukowców zainteresowała się światłem widzialnym. W niskim natężeniu jest ono bezpieczne dla tkanek, a jednocześnie posiada zdolność dezaktywacji bakterii, wirusów i innych patogenów. Zajmujących się tym problemem specjalistów szczególnie interesują lasery femtosekundowe, emitujące ultrakrótkie impulsy światła, których czas trwania liczy się w femtosekundach (1 femtosekunda to 1/1 000 000 000 000 000 sekundy).
      Naukowcy z Washington University School of Medicine wykazali, że ultrakrótkie impulsy w zakresie światła widzialnego – o długości fali 415–425 nm – mogą być efektywną bronią przeciwko antybiotykoopornym bakteriom i ich przetrwalnikom.
      Naukowcy przetestowali laser na na metycylinoopornym gronkowcu złocistym (MRSA) oraz E. coli. Bakterie te są wysoce odporne na działanie licznych środków fizycznych i chemicznych. Laser testowano też na przetrwalnikach Bacillus cereus, które mogą powodować zatrucia pokarmowe i są w stanie przetrwać gotowanie. Testy wykazały, że laser dezaktywuje 99,9% bakterii poddanych jego działaniu.
      Naukowcy wyjaśniają, że przy pewnej mocy ich laser zaczyna dezaktywować wirusy. Po zwiększeniu mocy robi to samo z bakteriami. Jego światło pozostaje jednak bezpieczne dla ludzkich tkanek. Dopiero zwiększenie mocy o cały rząd wielkości zabija komórki. Zatem istnieje pewne okienko terapeutyczne, które pozwala na jego bezpieczne wykorzystanie.
      Ultrakrótkie impulsy laserowe dezaktywują patogeny, nie szkodząc ludzkim białkom i komórkom. Wyobraźmy sobie, że przed zamknięciem rany, operujący chirurg mógłby zdezynfekować ją za pomocą lasera. Myślę, że już wkrótce technologia ta może być wykorzystywana do dezynfekcji produktów biologicznych in vitro, a w niedalekiej przyszłości do dezynfekcji krwioobiegu. Pacjentów można by poddać dializie i jego krew przepuścić przez laserowe urządzenie ją dezynfekujące, mówi główny autor badań Shew-Wei Tsen.
      Tsen wraz z profesorem Samuelem Achilefu od lat badają zdolność ultrakrótkich impulsów laserowych do zabijania patogenów. Już wcześniej wykazali, że dezaktywują one wirusy i „zwykłe” bakterie. Teraz, we współpracy z profesor mikrobiologii Shelley Haydel z Arizona State University, rozszerzyli swoje badania na przetrwalniki oraz antybiotykooporne bakterie.
      Wirusy i bakterie zawierają gęsto upakowane struktury proteinowe. Laser dezaktywuje je wprowadzając te struktury w tak silne wibracje, że niektóre z wiązań w proteinach pękają. Taki pęknięty koniec stara się jak najszybciej z czymś połączyć i najczęściej łączy się z inną strukturą, niż ta, z którą był dotychczas powiązany. W ten sposób wewnątrz patogenu pojawiają się nieprawidłowe połączenia wewnątrz protein i pomiędzy nimi, co powoduje, że białka nie funkcjonują prawidłowo i patogen przestaje funkcjonować.
      Wszystko, co pochodzi od ludzi czy zwierząt może zostać zanieczyszczone patogenami. Wszelkie produkty krwiopochodne, zanim zostaną wprowadzone do organizmu pacjenta, są skanowane pod kątem obecności patogenów. Problem jednak w tym, że musimy wiedzieć, czego szukamy. Jeśli pojawiłby się nowy wirus krążący we krwi, jak np. miało to miejsce w latach 70. i 80. w przypadku wirusa HIV, to mógłby dostać się z takimi preparatami do krwioobiegu. Ultrakrótkie impulsy lasera to metoda, która pozwali upewnić się, że produkty krwiopochodne są wolne od patogenów. Zarówno tych znanych, jak i nieznanych, mówi Tsen.
      Więcej na temat badań grupy Tsena przeczytamy na łamach Journal Biophotonic.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...