-
Similar Content
-
By KopalniaWiedzy.pl
Po raz pierwszy udało się utworzyć i zmierzyć postulowany od dawna stan powiązania pomiędzy atomami. Naukowcy z Wiednia i Innsbrucku wykorzystali laser do spolaryzowania atomów tak bardzo, że z jednej strony miały ładunki dodatnie, z drugiej ujemne. Dzięki temu mogli związać atomy ze sobą. Oddziaływania pomiędzy nimi były znacznie słabsze niż pomiędzy atomami w standardowej molekule, ale na tyle silne, że można było mierzyć ich wartość.
W atomie jądro o ładunku dodatnim otoczone jest przez chmurę elektronów o ładunku ujemnym. Całość jest obojętna. Jeśli teraz włączymy zewnętrzne pole elektryczne, rozkład ładunków nieco się zmieni. Ładunki dodatnie przemieszczą się w jednym kierunku, ujemne w w drugim i atom będzie posiadał stronę dodatnią i ujemną, stanie się spolaryzowany, mówi profesor Philipp Haslinger.
Taką polaryzację atomu można uzyskać też za pomocą światła, które jest szybko zmieniającym się polem elektromagnetycznym. Gdy liczne atomy znajdują się blisko siebie, światło polaryzuje je w ten sam sposób. Więc dwa sąsiadujące ze sobą atomy będą zwrócone do siebie przeciwnymi ładunkami, co spowoduje, że będą się przyciągać.
To bardzo słabe oddziaływanie, zatem eksperyment trzeba prowadzić bardzo ostrożnie, by móc zmierzyć siłę oddziaływania. Gdy atomy mają dużo energii i szybko się poruszają, to przyciąganie natychmiast znika. Dlatego też użyliśmy podczas eksperymentów ultrazimnych atomów, wyjaśnia Mira Maiwöger z Wiedeńskiego Uniwersytetu Technologicznego.
Naukowcy najpierw złapali atomy w pułapkę i je schłodzili. Następnie pułapka została wyłączona, a uwolnione atomy rozpoczęły swobodny spadek. Taka chmura opadających atomów była niezwykle zimna, jej temperatura była niższa niż 1/1 000 000 kelwina, ale miała na tyle dużo energii, że podczas spadku rozszerzała się. Jeśli jednak na tym etapie atomy zostaną spolaryzowane za pomocą lasera i pojawi się pomiędzy nimi przyciąganie, rozszerzanie się chmury zostaje spowolnione. W ten właśnie sposób można zmierzyć siłę oddziaływania pomiędzy atomami.
Polaryzowanie indywidualnych atomów za pomocą lasera nie jest niczym nowym. Kluczowym elementem naszego eksperymentu było jednoczesne spolaryzowanie w sposób kontrolowany wielu atomów i stworzenie mierzalnych oddziaływań pomiędzy nimi, dodaje Matthias Sonnleitner, który opracował teoretyczne założenia eksperymentu.
Autorzy eksperymentu zwracają uwagę, że zmierzone przez nich oddziaływanie może odgrywać ważną rolę w astrofizyce. W pustce kosmosu małe siły mogą odgrywać duża rolę. Po raz pierwszy wykazaliśmy, że promieniowanie elektromagnetyczne może tworzyć oddziaływania pomiędzy atomami, co może rzucić nowe światło na niewyjaśnione obecnie zjawiska astrofizyczne, dodaje Haslinger.
« powrót do artykułu -
By KopalniaWiedzy.pl
„Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery.
Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan.
Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową.
Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny.
Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga.
Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen.
« powrót do artykułu -
By KopalniaWiedzy.pl
Nasz mózg składa się z miliardów neuronów, które muszą być chronione przed wpływem niekorzystnych czynników zewnętrznych. Rolę tej ochrony spełnia bariera krew-mózg. Ta mierząca 650 km wyspecjalizowana bariera między naczyniami krwionośnymi a mózgiem decyduje, jakie substancje mogą do mózgu przeniknąć. Bardzo dobrze spełnia swoją rolę, ale z punktu widzenia chorób neurologicznych jest najgorszym wrogiem współczesnej medycyny. Blokuje bowiem również dostęp leków do mózgu.
Naukowcy z Yale University poinformowali na łamach Nature Communications, że udało im się opracować molekułę, która na kilka godzin otwiera barierę krew-mózg, umożliwiając dostarczenie leków. Po raz pierwszy udało się kontrolować barierę krew-mózg za pomocą molekuły, mówi profesor Anne Eichmann, jedna z głównych autorek badań.
Doktor Kevin Boyé dołączył do zespołu profesor Eichmann w 2017 roku i zaczął badać molekułę Unc5B. To receptor śródbłonka, do którego ekspresji dochodzi w komórkach śródbłonka naczyń włosowatych. Uczony zauważył, że pozbawione tego receptora embriony myszy szybko umierały, gdyż nie tworzył się u nich prawidłowy układ krwionośny. To wskazywało, że Unc5B odgrywa ważną rolę w jego powstawaniu. Ponadto stwierdził, że u takich embrionów doszło do znaczącego spadku poziomu białka Claudin-5, które odpowiada za ścisłe przyleganie do siebie komórek śródbłonka w barierze krew-mózg. Naukowcy doszli więc do wniosku, że Unc5B odgrywa ważną rolę w utrzymaniu bariery krew-mózg.
Nie od dzisiaj wiadomo, że rozwój i funkcjonowanie bariery krew-mózg jest uzależnione od szlaku sygnałowego Wnt. Dotychczas nie były znane powiązania pomiędzy Unc5B a tym szlakiem. Dzięki zaś nowym badaniom naukowcy zauważyli, że Unc5B działa jak regulator tego szlaku.
Boyé poszedł więc o krok dalej. Pozbawił dorosłe myszy, z już rozwiniętą barierą krew-mózg, receptora Unc5B i okazało się, że gdy go zabrakło, bariera pozostała otwarta. Następnie uczony postanowił sprawdzić, który z ligandów – cząsteczek wiążących się z receptorami i wysyłających sygnały pomiędzy i wewnątrz komórkami – ma wpływ na integralność bariery. Okazało się, że bariera jest otwarta, gdy zabraknie ligandu Netrin-1. Naukowcy opracowali więc przeciwciało, które uniemożliwiało Netrin-1 połączenie się z receptorem. Po wstrzyknięciu przeciwciała dochodziło do zaburzenia szlaku sygnałowego Wnt i bariera krew-mózg była przez jakiś czas otwarta.
W najbliższej przyszłości naukowcy chcą skupić się na sprawdzeniu, czy takie otwieranie bariery krew-mózg jest bezpieczne, czy nie niesie ze sobą żadnych ryzyk oraz czy same przeciwciała nie są toksyczne. To otwiera pole do dalszych interesujących badań nad kwestią powstawania samej bariery oraz możliwości manipulowania ją w celu dostarczania leków, mówi Eichmann.
« powrót do artykułu -
By KopalniaWiedzy.pl
Teleskop Webba zarejestrował pierwsze fotony. Z powodzeniem przebyły one całą drogę przez układ optyczny i trafiły do NIRCam. To jedno z najważniejszych osiągnięć zaplanowanego na trzy miesiące etapu dostrajania teleskopu. Dotychczas uzyskane wyniki odpowiadają oczekiwaniom i naziemnym symulacjom.
NIRCam to działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona zarejestruje światło z pierwszych gwiazd i galaktyk, pokaże gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Koronografy blokują światło jasnego obiektu, uwidaczniając obiekty słabo świecące. Dzięki nim astronomowie chcą dokładnie obserwować planety krążące wokół pobliskich gwiazd i poznać ich charakterystyki. NIRCam wyposażono w dziesięć czujników rtęciowo-kadmowo-telurkowych, które są odpowiednikami matryc CCD ze znanych nam aparatów cyfrowych. To właśnie NIRCam jest wykorzystywana do odpowiedniego ustawienia zwierciadła webba.
Żeby zwierciadło główne teleskopu działało jak pojedyncze lustro trzeba niezwykle precyzyjnie ustawić względem siebie wszystkie 18 tworzących je segmentów. Muszę one do siebie pasować z dokładnością do ułamka długości fali światła, w przybliżeniu będzie to ok. 50 nanometrów.
Teraz, gdy zwierciadło jest rozłożone, a instrumenty włączone, rozpoczęliśmy wieloetapowy proces przygotowywania i kalibrowania teleskopu. Będzie on trwał znacznie dłużej niż w przypadku innych teleskopów kosmicznych, gdyż zwierciadło główne Webba składa się z 18 segmentów, które muszą działać jak jedna wielka powierzchnia, wyjaśniają eksperci z NASA.
Najpierw trzeba ustawić teleskop względem jego platformy nośnej. Wykorzystuje się w tym celu specjalne systemy śledzenia gwiazd. Obecnie położenie platformy nośnej i segmentów lustra względem gwiazd nie jest ze sobą zgodne. Dlatego też wybrano jedną gwiazdę, jest nią HD 84406, względem której całość będzie ustawiana.
Każdy z 18 segmentów zwierciadła rejestruje obraz tej gwiazdy, a jako że są one w różny sposób ustawione, na Ziemię trafią różne niewyraźne obrazy. Obsługa naziemna będzie następnie poruszała każdym z segmentów z osobna, by określić, który z nich zarejestrował który z obrazów. Gdy już to będzie wiadomo, segmenty będą obracane tak, by wszystkie z uzyskanych obrazów miały podobny wspólny punkt. Stworzona w ten sposób „macierz obrazów” zostanie szczegółowo przeanalizowana.
Wówczas rozpocznie się drugi etap ustawiania zwierciadła, w ramach którego zredukowane zostaną największe błędy ustawienia. Najpierw obsługa poruszy nieco zwierciadłem wtórnym, co dodatkowo zdeformuje obrazy uzyskiwane z poszczególnych segmentów. Dzięki temu możliwe będzie przeprowadzenie analizy matematycznej, która precyzyjnie określi błędy w ułożeniu każdego z segmentów. Po skorygowaniu tych błędów otrzymamy 18 dobrze skorygowanych ostrych obrazów.
W kolejnym etapie położenie każdego z segmentów lustra będzie zmieniane tak, by generowany przezeń obraz trafił dokładnie do środka pola widzenia teleskopu. Każdy z 18 segmentów został przypisany do jednej z trzech grup (oznaczonych jako A, B i C), więc ten etap prac będzie wykonywany w grupach.
Po zakończeniu trzeciego etapu będziemy już mieli jeden obraz, jednak będzie to nadal obraz uzyskany tak, jakbyśmy nałożyli na siebie obrazy z 18 różnych teleskopów. Zwierciadło główne wciąż nie będzie działało jak jedno lustro. Rozpocznie się, przeprowadzany trzykrotnie, etap (Coarse Phasing) korygowania ustawienia segmentów lustra względem siebie. Po każdej z trzech części tego etapu ustawienia będą sprawdzane i korygowane za pomocą specjalnych elementów optycznych znajdujących się wewnątrz NIRCam (Fine Phasing). W jego trakcie obraz z poszczególnych zwierciadeł celowo będzie ustawiany poza ogniskową i prowadzone będą analizy zniekształceń. Ten ostatni proces superprecyzyjnej korekty ustawień będzie zresztą przeprowadzany rutynowo podczas całej pracy Webba.
Gdy już teleskop zostanie odpowiednio ustawiony, rozpocznie się etap dostrajania pozostałych trzech instrumentów naukowych. Wyłapane zostaną ewentualne błędy i niedociągnięcia, a specjalny algorytm pokaże, jakich poprawek trzeba dokonać. W końcu, w ostatnim etapie prac, obsługa naziemna osobno sprawdzi jakość obrazu uzyskiwanego dzięki każdemu z segmentów zwierciadła głównego i usunie ewentualne błędy.
« powrót do artykułu -
By KopalniaWiedzy.pl
Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii.
Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu.
Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex.
Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów.
Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber.
Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki.
To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin.
Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra.
Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.