Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Pierwsza interferometria atomowa w kosmosie. To zapowiedź superprezycyjnych pomiarów

Recommended Posts

Po raz pierwszy udało się zademonstrować działanie interferometrii atomowej w przestrzeni kosmicznej. Osiągnięcie niemieckich naukowców oznacza, że interferometry atomowe, niezwykle precyzyjne urządzenia pomiarowe, mogą zostać wykorzystane poza Ziemią, np. na Międzynarodowej Stacji Kosmicznej. Posłużyć tam mogą chociażby do pomiarów pola grawitacyjnego Ziemi czy wykrywania fal grawitacyjnych.

Stworzyliśmy technologiczne podstawy do wykorzystania interferometrii atomowej na pokładzie rakiety meteorologicznej i wykazaliśmy, że prowadzenie tego typu eksperymentów jest możliwe nie tylko na Ziemi ale i w kosmosie, mówi profesor Patrick Windpassinger z Instytutu Fizyki z Uniwersytetu Jana Gutenberga w Moguncji.

Prace prowadzili naukowcy z różnych uczelni i instytucji badawczych, a zespołem kierowali specjaliści z Uniwersytetu Hanowerskiego. W styczniu 2017 roku wystrzelili oni misję MAIUS-1. Jest to pierwsza w historii misja, w czasie której kondensat Bosego-Einsteina był generowany w przestrzeni kosmicznej. Ten specjalny stan materii uzyskuje się schładzając atomy – w tym przypadku atomy rubidu – do temperatur bliskich zeru absolutnemu. Ta ultrazimna materia stała się dla nas obiecującym punktem wyjścia do interferometrii atomowej, mówi Windpassinger. Niskie temperatury odgrywają tutaj kluczową rolę, gdyż pozwalają na prowadzenie bardzo precyzyjnych i dłuższych pomiarów.

W czasie eksperymentów wykorzystywano laser do odseparowywania od siebie atomów rubidu i tworzenia ich superpozycji. Możliwe było w ten sposób wytworzenie różnych wzorców interferencji pomiędzy atomami, co z kolei można wykorzystać do badania sił wpływających na atomy, w tym do badania grawitacji.

Misja MAIUS-1 przyniosła więc potwierdzenie słuszności opracowanej koncepcji oraz jej technicznej wykonalności. To zaś oznacza, że możliwe będzie wykorzystanie interferometru atomowego utworzonego z kondensatu Bosego-Einsteina do prowadzenia różnych badań i pomiarów.

W najbliższym czasie niemieccy naukowcy chcą sprawdzić, czy taki interferometr zda egzamin. W roku 2022 wystartuje MAIUS-2, a w roku 2023 – MAIUS-3. Uczeni chcą użyć interferometrów stworzonych nie tylko z atomów rubidu, ale też potasu. Porównując przyspieszenie podczas spadku swobodnego pomiędzy tymi dwoma typami atomów można będzie przetestować Einsteinowską zasadę równoważności z niedostępną dotychczas precyzją.

W przyszłości tego typu eksperymenty można będzie prowadzić na satelitach lub Międzynarodowej Stacji Kosmicznej, gdzie prawdopodobnie uda się do tego wykorzystać planowane właśnie BECCAL czyli Bose Einstein Condensate and Cold Atom Laboratory. W tym wypadku precyzja pomiarów nie będzie ograniczona krótkim czasem swobodnego spadku rakiety, wyjaśnia doktor Andre Wenzlawski z grupy badawczej Windpassingera.

Szczegóły badań opisano na łamach Nature Communications.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Wywiadu udzielił nam profesor Grzegorz Pietrzyński z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którego zespół dokonał najbardziej precyzyjnych w historii pomiarów odległości do Wielkiego Obłoku Magellana.
      1. Czy astronomia/astrofizyka mają jakieś bezpośrednie przełożenie na życie codzienne? Czy badania kosmosu, poza oczywistymi przykładami satelitów komunikacyjnych i meteorologicznych, mają znaczenie dla ludzi żyjących tu i teraz czy też są przede wszystkim badaniami wybiegającymi w przyszłość (tzn. mogą mieć ewentualnie znaczenie w przyszłości) i poszerzającymi naszą wiedzę, ale nie rozwiązującymi obecnych praktycznych problemów.
      Astronomia należy do tzw nauk podstawowych, których wyniki nie są bezpośrednio komercjalizowane. Proszę zauważyć, że opracowanie jakiejkolwiek nowej technologii wymaga odpowiedniego postępu w badaniach podstawowych. Dlatego wszystko co dziś mamy zawdzięczamy naukom podstawowym.
      2. Co rodzi w umyśle naukowca pytanie "Ciekawe, jaka jest dokładna odległość między Ziemią, a Obłokiem Magellana"?

      Takie pytanie rodzi kolejne - jak zmierzyć taką odleglość ?
      3. Ile czasu zajęło wyznaczenie aktualnej odległości do Obłoku (wliczając w to obserwacje, symulacje, wyliczenia)?
      Naszej grupie Araucaria zajęło to około 12 lat. W międzyczasie mierzyliśmy odległości do Wielkiego Obłoku Magellana używając innych technik (gwiazd red clump, Cefeid, RR Lyrae, etc). Jednak od początku wiadomo było, że układy zaćmieniowe mają największy potencjał bardzo dokładnego pomiaru odległości do tej galaktyki.
      4. Jak wygląda proces i jakie instrumenty zostały wykorzystane?
      Proces był długi i bardzo złożony. W skrócie: w opariu o dane fotometryczne zgromadzone przez zespół Optical Gravitational Lensing Experiment znaleziono najlepsze kandydatki do dalszych badań. Następnie przez okolo 8 lat w ramach projektu Araucaria obserwowaliśmy widma wybranych systemów za pomoca 6,5-metrowego teleskopu Magellan w Las Campanas Observatory, wyposażonego w spektrograf MIKE oraz 3,6-metrowego teleskopu w La Silla, ESO, wyposażonego w spektrograf HARPS. Dodatkowo wykonaliśmy pomiary jasności naszych układów w bliskiej podczerwieni używając instrumentu SOFI dostępnego na 3,5-metrowym teleskopie NTT, ESO, La Silla. Po obróbce otrzymanych obrazów wykonano odpowiednie pomiary.
      5. W jaki sposób dokładniejszy pomiar odległości od najbliższego Obłoku przełoży się na skalę kosmiczną?
      Wszystkie pomiary odległości do galaktyk wykonuje się względem Wielkiego Obłoku Magellana. Dlatego pomiar odległości do WOM definiuje bezpośrednio punkt zerowy całej kosmicznej skali odległości.
      6. Co umożliwi uzyskanie jeszcze dokładniejszego wyniku? Lepszy kandydat (para analizowanych gwiazd podwójnych)?
      Trudno wyobrazić sobie jeszcze lepsze układy podwójne do pomiaru odleglosci do WOM. Największym źródłem błędu jest zależność pomiędzy temperaturą gwiazdy a jej rozmiarami kątowymi. Jej dokładność wynosi obecnie około 2%. Nasz zespół prowadzi badania mające na celu dokładniejsze skalibrowanie tej zależności. Spodziewamy się, że w niedalekiej przyszłości uda nam się zmierzyć odleglość do WOM z dokładnością około 1%.
      7. Zawsze mnie intrygowało to, że w mediach, a i na oficjalnych portalach prezentowane są artystyczne wizje gwiazd i planet, które co prawda spełniają swoje zadanie przed typowym odbiorcą, ale faktycznie przecież często jest to zlepek kilku lub jeden piksel zdjęcia. Nie potrafię sobie wyobrazić jak stąd wyciągnąć informacje o rozmiarze, masie, orbicie, temperaturze takich ciał. Jak dla mnie to daleko trudniejsze niż próba odczytania Hubblem napisu "Made in USA" na Curiosity. W jaki sposób z takich kilku pikseli można cokolwiek powiedzieć o obserwowanym obiekcie?
      Oczywiście nie jesteśmy w stanie rozdzielić tych obiektów. W przypadku układów zaćmieniowych badając zmiany blasku (zaćmienia to efekt czysto geometryczny) oraz widma (z nich wyznaczymy predkości gwiazd na orbicie) w oparciu o proste prawa fizyczne jesteśmy w stanie wyznaczyć parametry fizyczne gwiazd. Jest to klasyczna metoda stosowana od dawna w astronomii. Aby jej użyć  nie musimy rozdzielać obrazów gwiazd wchodzacych w skład danego układu podwójnego.
      8. Czy rodowisko naukowców astronomów ma w naszym kraju problemy z finansowaniem i rozwijaniem projektów?
      Oczywiscie tak! Z mojego punktu widzenia jest obecnie dużo różnych źródeł finansowania, więc najlepsze projekty mają duże szanse na finansowanie. Dużo gorzej jest z realizacją i rozwojem projektów.Tysiące bezsensownych przepisów, rozdęta do granic absurdu biurokracja, brak wyobraźni i dobrej woli urzędników. To tylko niektóre czynniki, które sprawiają, że wykonanie ambitnego projektu naukowego w Polsce jest niezmiernie trudne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dzięki kombinacji laserów i wyjątkowej pułapki, w którą schwytano niezwykle zimne atomy, naukowcom z Lawrence Berkeley National Laboratory i University of California Berkeley udało się zmierzyć najmniejszą znaną nam siłę. Wynosi ona... 42 joktoniutony. Joktoniuton to jedna kwadrylionowa (10-24) niutona.
      Przyłożyliśmy zewnętrzną siłę do centrum masy superzimnej chmury atomów i optycznie zmierzyliśmy jej ruch. […] czułość naszego pomiaru jest zgodna z teoretycznymi przewidywaniami i jest jedynie czterokrotnie mniejsza od limitu kwantowego, który wyznacza granicę najbardziej dokładnego pomiaru - mówi fizyk Dan Stamper-Kurn.
      Prowadzenie tak dokładnych pomiarów jest niezbędne, jeśli chcemy potwierdzić istnienie fal grawitacyjnych. Dlatego też wiele zespołów naukowych stara się udoskonalać metody pomiarowe. Na przykład naukowcy w Laser Interferometer Gravitational-Wave Observatory próbują zmierzyć przesunięcie zaledwie o 1/1000 średnicy protonu.
      Kluczem do sukcesu wszelkich superdokładnych pomiarów jest wykorzystanie mechanicznych oscylatorów, które przekładają zewnętrzną siłę, której oddziaływaniu został poddany obiekt, na jego ruch. Gdy jednak pomiary siły i ruchu staną się tak dokładne, że dotrzemy do limitu kwantowego, ich dalsze wykonywanie nie będzie możliwe, gdyż sam pomiar – zgodnie z zasadą nieoznaczoności Heisenberga – będzie zakłócany ruchem oscylatora. Naukowcy od dziesiątków lat próbują przybliżyć się do tego limitu kwantowego. Dotychczas jednak najlepsze pomiary były od niego gorsze o 6-8 rzędów wielkości. Zmierzyliśmy siłę z dokładnością najbliższą limitowi kwantowemu. Było to możliwe, gdyż nasz mechaniczny oscylator składa się z zaledwie 1200 atomów - stwierdził Sydney Schreppler. Oscylatorem wykorzystanym przez Schrepplera, Stampera-Kurna i innych były atomy rubidu schłodzone niemal do zera absolutnego. Pułapkę stanowiły dwa promienie lasera o długości fali wynoszącej 860 i 840 nanometrów. Stanowiły one równe i przeciwstawne siły osiowe oddziałujące na atomy. Ruch centrum masy został wywołany w gazie poprzez modulowanie amplitudy drgań promienia światła o długości fali 840 nanometrów.
      Gdy do oscylatora przyłożyliśmy siłę zewnętrzną, było to tak, jakbyśmy uderzyli batem w wahadło i zbadali jego reakcję - mówi Schreppler.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Firma World View Enterprises z Arizony poinformowała o udanym teście balonu, który będzie wynosił turystów na wysokość 32 kilometrów nad Ziemią. Przedsiębiorstwo wykorzystuje balon podobnego typu, który w 2012 roku pozwolił Feliksowi Baumgartnerowi na wykonanie skoku z największej wysokości w dziejach.
      Dyrektor wykonawcza World View Enterprises, Jane Poynter, powiedziała, że ubiegłotygodniowy test był pierwszą próbą wszystkich komponentów połączonych w jedną całość. W czasie testu wykorzystano balon trzykrotnie mniejszy niż ten, który będzie wynosił turystów. Był on obciążony ładunkiem 10-krotnie mniejszym niż kapsuła z turystami.
      Pierwsze komercyjne loty balonu mają rozpocząć się w 2016 roku, a bilet na lot będzie kosztował 75 000 USD. Podczepiona pod balon kapsuła zabierze sześciu turystów i dwóch członków załogi. Przez dwie godziny będą oni znajdowali się na wysokości 32 kilometrów. Kapsuła będzie na tyle duża, że pozwoli pasażerom na spacerowanie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ludzkie ciało nie jest dostosowane do pobytu w przestrzeni kosmicznej. Dlatego zachowanie zdrowia i kondycji kosmonautów to jeden z priorytetów misji pozaziemskich. Wiemy, że długotrwały pobyt w stanie nieważkości prowadzi do utraty masy mięśniowej, osłabia kości, negatywnie wpływa na oczy. Nowe badania opublikowane na łamach JAMA Neurology sugerują, że poza ochronną powłoką ziemskiej atmosfery dochodzi też do uszkodzeń mózgu i przyspieszonej degeneracji komórek nerwowych.
      Badania przeprowadzono na pięciu rosyjskich kosmonautach, którzy przebywali na Międzynarodowej Stacji Kosmicznej. Przed misją i po niej pobrano im próbki krwi, w których określono koncentrację białek specyficznych dla mózgu. Badania wykazały, że w czasie pobytu w przestrzeni kosmicznej dochodzi do niewielkich uszkodzeń mózgu, które mogą jednak mieć długofalowe niekorzystne skutki dla zdrowia. Badania takie mogą mieć poważne konsekwencje dla planowanych załogowych misji na Marsa.
      Każdy z kosmonautów, a byli to mężczyźni, których średnia wieku wynosiła 49 lat, spędził w przestrzeni kosmicznej około pół roku. Na 20 dni przed startem pobrano od nich krew. Później badania powtórzono dzień, tydzień i trzy tygodnie po wylądowaniu. Henrik Zetterberg z Uniwersytetu w Göteborgu, Alexander Choukér z Uniwersytetu Ludwika Maksymiliana w Monachium oraz Glina Wassilijewa z Rosyjskiej Akademii Nauk określili poziom pięciu protein we krwi: lekkiego białka neurofilamentu (NfL), kwaśnego białka włókienkowego (GFAP), białka tau oraz amyloidu beta Aβ40 i Aβ42.
      Poziom tych białek we krwi pozwala określić integralność komórek mózgowych. Na przykład podwyższony poziom NfL świadczy o uszkodzeniu aksonów, a poziom amyloidu beta jest wykorzystywany w diagnostyce chorób neurodegeneracyjnych.
      Badania wykazały, że nawet 3 tygodnie po powrocie na Ziemię poziom NfL, GFAP oraz Aβ40 był u wszystkich znacznie podniesiony. Jednak spadał, gdyż największą koncentrację tych białek zarejestrowano tydzień po wylądowaniu. Zetterberg i Choukér informują, że z ich badań wynika, iż długoterminowy pobyt w przestrzeni kosmicznej wpływa na różne tkanki w mózgu.
      Wydaje się, że problem dotyczy wszystkich tkanek odpowiednich dla badanych biomarkerów, mówi pomysłodawca badań, Peter zu Eulenburg z Göteborga.
      Naukowcy przypuszczają, że przyczyną problemów jest zmiana dystrybucji płynów w czasie pobytu w przestrzeni kosmicznej oraz powrót sytuacji do normy po zakończeniu misji. Zwracają przy tym uwagę, że problemy dotykają kosmonautów przez całe tygodnie po powrocie, gdyż czas półrozpadu każdego z badanych biomarkerów jest znacznie krótszy niż trzy tygodnie. Utrzymywanie się wysokiego poziomu przez tak długi czas pokazuje, że problemy wciąż mają miejsce.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W ubiegłym roku grupa specjalistów skupiona w organizacji EMP Taskforce on National and Homeland Security opublikowała raport, w którym ostrzega, że Chiny są w stanie zaatakować USA za pomocą impulsu elektromagnetycznego (EMP) wygenerowanego na dużej wysokości. Amerykanie nie są w swoich obawach osamotnieni. Niedawno chińscy eksperci zaapelowali do rządu w Pekinie, by lepiej przygotował Państwo Środka na podobny atak ze strony USA. Specjaliści z różnych krajów ostrzegają, że użycie broni atomowej nie po to, by zabić ludzi, ale by zniszczyć sieci energetyczne i uszkodzić urządzenia elektroniczne, staje się coraz bardziej realnym zagrożeniem.
      O tym, jakie zagrożenia niesie ze sobą detonacja broni atomowej w wysokich partiach atmosfery, wiadomo od kilkudziesięciu lat. W lipcu 1962 roku Stany Zjednoczone przeprowadziły Starfish Prime, najpotężniejszy w historii test broni atomowej w przestrzeni kosmicznej. Na wysokości 400 kilometrów nad atolem Johnston zdetonowano ładunek o mocy 1,4 megatony. Wygenerowany podczas wybuchu impuls elektromagnetyczny doprowadził do awarii sieci energetycznych i telefonicznych w części Hawajów, odległych o 1300 kilometrów od miejsca eksplozji. Ponadto promieniowanie uszkodziło liczne satelity, z których sześć nie nadawało się do użytku. Był wśród nich Telstar 1, pierwszy satelita przekazujący sygnały telefoniczne i telewizyjne. Rok po Starfish Prime podpisano międzynarodowe porozumienie, zakazujące testów broni jądrowej nad powierzchnią ziemi.
      Kilkadziesiąt lat później, w kwietniu 2008 roku ukazał się amerykański raport, w którym czytamy, że impuls elektromagnetyczny wygenerowany przez eksplozję atomową na dużej wysokości jest jednym z niewielu zagrożeń, które mogą narazić nasze społeczeństwo na katastroficzne konsekwencje. Rosnąca zależność od wszelkich form elektroniki to największa słabość w przypadku ataku EMP. Elektronika używana jest do kontroli, komunikacji, obliczeń, przetwarzania, przechowywania, zarządzania i wdrażania w niemal każdym cywilnym aspekcie w USA. Gdy dojdzie do eksplozji atomowej na dużej wysokości, wygenerowany sygnał EMP dotrze do rozległych obszarów znajdujących się w polu widzenia z punktu detonacji. Taki impuls ma zdolność do wywołania szeroko zakrojonych długotrwałych zniszczeń infrastruktury stanowiącej postawę funkcjonowania amerykańskiego społeczeństwa.
      Okazuje się jednak, że dotychczas używano zbyt uproszczonego modelu ryzyka związanego z atakiem EMP. Jak bowiem wykazały najnowsze badania specjalistów z amerykańskiej Służby Geologicznej (USGS) i University of Colorado, oddziaływanie impulsu EMP na sieci energetyczne zależy od rozkładu skał w skorupie ziemskiej.
      Główny autor opracowania, geofizyk Jeffrey J. Love z USGS, wyjaśnia, że w wyniku EMP wygenerowanego na dużej wysokości, pojawiają się trzy następujące po sobie rodzaje fal (E1, E2 i E3) o różnym wpływie na systemy elektryczne.
      E1 to impuls o wysokiej częstotliwości. To on zniszczy elektronikę konsumencką i to jemu poświęcano dotychczas najwięcej uwagi. Drugi z impulsów, E2, działa podobnie do pioruna. Jego możemy obawiać się najmniej, gdyż sieci energetyczne są w dużej mierze odporne na wyładowania atmosferyczne.
      Największe zagrożenie dla linii przesyłowych dostarczających nam prąd stanowi natomiast E3. To część sygnału EMP o najniższej amplitudzie. Jednak jest to impuls najbardziej długotrwały. Może on trwać od 0,1 sekundy do kilkuset sekund. Dlatego też to właśnie on ma potencjał dokonania katastrofalnych zniszczeń, a jego niszcząca moc wynika z interakcji ze skałami w skorupie ziemskiej.
      Na poziom ryzyka dla sieci przesyłowych wpływają trzy czynniki. To siła zakłóceń magnetycznych wywoływanych przez EMP, przewodnictwo gruntu otaczającego sieci przesyłowe oraz parametry samych sieci. Dlatego też specjaliści z USGS i University of Colorad, chcąc lepiej poznać to zagadnienie, wykorzystali dane geologiczne z niewielkiego regionu wschodnich Stanów Zjednoczonych, obejmujących fragmenty stanów Arkansas, Missouri, Illinois, Mississippi, Kentucky i Tennessee. Uczeni przez kilkanaście tygodni badali na tych terenach naturalne zmiany pola magnetycznego ziemi oraz mierzyli zmiany pola elektrycznego. Te dwa pomiary dały im informacje o impedancji falowej powierzchni, która jest zależna od właściwości skał. Następnie wykorzystali te dane do obliczenia wpływu na sieci energetyczne E3 EMP wygenerowanego w wyniku detonacji ładunku jądrowego o mocy kilkuset kiloton.
      Z obliczeń wynika, że dotychczasowe zagrożenia powodowane przez EMP były źle oceniane. Niedostatecznie bowiem wzięto pod uwagę budowę geologiczną różnych regionów. Problem jest tym poważniejszy, że na negatywne skutki EMP najbardziej narażone są wschodnie tereny Stanów Zjednoczonych, a to właśnie tam znajdują się największe miasta.
      Konieczna jest lepsza koordynacja prac pomiędzy specjalistami z różnych dziedzin. Muszą ze sobą współpracować specjaliści od uzbrojenia, naukowcy zajmujący się przestrzenią kosmiczną oraz geofizycy. Dopiero wówczas uzyskamy pełen obraz zagrożeń powodowanych przez impuls elektromagnetyczny i będziemy w stanie opracować środki zapobiegawcze, mówi Love.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...