Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Teleskop Webba zarejestrował pierwsze fotony. Z powodzeniem przebyły one całą drogę przez układ optyczny i trafiły do NIRCam. To jedno z najważniejszych osiągnięć zaplanowanego na trzy miesiące etapu dostrajania teleskopu. Dotychczas uzyskane wyniki odpowiadają oczekiwaniom i naziemnym symulacjom.

NIRCam to działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona zarejestruje światło z pierwszych gwiazd i galaktyk, pokaże gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Koronografy blokują światło jasnego obiektu, uwidaczniając obiekty słabo świecące. Dzięki nim astronomowie chcą dokładnie obserwować planety krążące wokół pobliskich gwiazd i poznać ich charakterystyki. NIRCam wyposażono w dziesięć czujników rtęciowo-kadmowo-telurkowych, które są odpowiednikami matryc CCD ze znanych nam aparatów cyfrowych. To właśnie NIRCam jest wykorzystywana do odpowiedniego ustawienia zwierciadła webba.

Żeby zwierciadło główne teleskopu działało jak pojedyncze lustro trzeba niezwykle precyzyjnie ustawić względem siebie wszystkie 18 tworzących je segmentów. Muszę one do siebie pasować z dokładnością do ułamka długości fali światła, w przybliżeniu będzie to ok. 50 nanometrów.

Teraz, gdy zwierciadło jest rozłożone, a instrumenty włączone, rozpoczęliśmy wieloetapowy proces przygotowywania i kalibrowania teleskopu. Będzie on trwał znacznie dłużej niż w przypadku innych teleskopów kosmicznych, gdyż zwierciadło główne Webba składa się z 18 segmentów, które muszą działać jak jedna wielka powierzchnia, wyjaśniają eksperci z NASA.

Najpierw trzeba ustawić teleskop względem jego platformy nośnej. Wykorzystuje się w tym celu specjalne systemy śledzenia gwiazd. Obecnie położenie platformy nośnej i segmentów lustra względem gwiazd nie jest ze sobą zgodne. Dlatego też wybrano jedną gwiazdę, jest nią HD 84406, względem której całość będzie ustawiana.

Każdy z 18 segmentów zwierciadła rejestruje obraz tej gwiazdy, a jako że są one w różny sposób ustawione, na Ziemię trafią różne niewyraźne obrazy. Obsługa naziemna będzie następnie poruszała każdym z segmentów z osobna, by określić, który z nich zarejestrował który z obrazów. Gdy już to będzie wiadomo, segmenty będą obracane tak, by wszystkie z uzyskanych obrazów miały podobny wspólny punkt. Stworzona w ten sposób „macierz obrazów” zostanie szczegółowo przeanalizowana.

Wówczas rozpocznie się drugi etap ustawiania zwierciadła, w ramach którego zredukowane zostaną największe błędy ustawienia. Najpierw obsługa poruszy nieco zwierciadłem wtórnym, co dodatkowo zdeformuje obrazy uzyskiwane z poszczególnych segmentów. Dzięki temu możliwe będzie przeprowadzenie analizy matematycznej, która precyzyjnie określi błędy w ułożeniu każdego z segmentów. Po skorygowaniu tych błędów otrzymamy 18 dobrze skorygowanych ostrych obrazów.
W kolejnym etapie położenie każdego z segmentów lustra będzie zmieniane tak, by generowany przezeń obraz trafił dokładnie do środka pola widzenia teleskopu. Każdy z 18 segmentów został przypisany do jednej z trzech grup (oznaczonych jako A, B i C), więc ten etap prac będzie wykonywany w grupach.

Po zakończeniu trzeciego etapu będziemy już mieli jeden obraz, jednak będzie to nadal obraz uzyskany tak, jakbyśmy nałożyli na siebie obrazy z 18 różnych teleskopów. Zwierciadło główne wciąż nie będzie działało jak jedno lustro. Rozpocznie się, przeprowadzany trzykrotnie, etap (Coarse Phasing) korygowania ustawienia segmentów lustra względem siebie. Po każdej z trzech części tego etapu ustawienia będą sprawdzane i korygowane za pomocą specjalnych elementów optycznych znajdujących się wewnątrz NIRCam (Fine Phasing). W jego trakcie obraz z poszczególnych zwierciadeł celowo będzie ustawiany poza ogniskową i prowadzone będą analizy zniekształceń. Ten ostatni proces superprecyzyjnej korekty ustawień będzie zresztą przeprowadzany rutynowo podczas całej pracy Webba.

Gdy już teleskop zostanie odpowiednio ustawiony, rozpocznie się etap dostrajania pozostałych trzech instrumentów naukowych. Wyłapane zostaną ewentualne błędy i niedociągnięcia, a specjalny algorytm pokaże, jakich poprawek trzeba dokonać. W końcu, w ostatnim etapie prac, obsługa naziemna osobno sprawdzi jakość obrazu uzyskiwanego dzięki każdemu z segmentów zwierciadła głównego i usunie ewentualne błędy.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie.
      Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa.
      Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym.
      Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ekosfera jest tradycyjnie definiowana, jako odległość pomiędzy gwiazdą, a planetą, która umożliwia istnienie wody w stanie ciekłym na planecie. To obszar wokół gwiazdy, w którym na znajdujących się tam planetach może istnieć życie. Jednak grupa naukowców z University of Georgia uważa, że znacznie lepsze byłoby określenie „ekosfery fotosyntezy”, czyli wzięcie pod uwagi nie tylko możliwości istnienia ciekłej wody, ale również światła, jakie do planety dociera z gwiazdy macierzystej.
      O życiu na innych planetach nie wiemy nic pewnego. Jednak poglądy na ten temat możemy przypisać do jednej z dwóch szkół. Pierwsza z nich mówi, że na innych planetach ewolucja mogła znaleźć sposób, by poradzić sobie z pozornie nieprzekraczalnymi barierami dla życia, jakie znamy z Ziemi. Zgodnie zaś z drugą, życie w całym wszechświecie ograniczone jest uniwersalnymi prawami fizyki i może istnieć jedynie w formie podobnej do życia na Ziemi.
      Naukowcy z Georgii rozpoczęli swoje badania od przyznania racji drugiej ze szkół i wprowadzili pojęcie „ekosfery fotosyntezy”. Znajdujące się w tym obszarze planety nie tylko mogą utrzymać na powierzchni ciekłą wodę – zatem nie znajdują się ani zbyt blisko, ani zbyt daleko od gwiazdy – ale również otrzymują wystarczająca ilość promieniowania w zakresie od 400 do 700 nanometrów. Promieniowanie o takich długościach fali jest na Ziemi niezbędne, by zachodziła fotosynteza, umożliwiające istnienie roślin.
      Obecność fotosyntezy jest niezbędne do poszukiwania życia we wszechświecie. Jeśli mamy rozpoznać biosygnatury życia na innych planetach, to będą to sygnatury atmosfery bogatej w tlen, gdyż trudno jest wyjaśnić istnienie takiej atmosfery bez obecności organizmów żywych na planecie, mówi główna autorka badań, Cassandra Hall. Pojęcie „ekosfery fotosyntezy” jest zatem bardziej praktyczne i dające szanse na znalezienie życia, niż sama ekosfera.
      Nie możemy oczywiście wykluczyć, że organizmy żywe na innych planetach przeprowadzają fotosyntezę w innych zakresach długości fali światła, jednak istnieje pewien silny przekonujący argument, że zakres 400–700 nm jest uniwersalny. Otóż jest to ten zakres fal światła, dla którego woda jest wysoce przezroczysta. Poza tym zakresem absorpcja światła przez wodę gwałtownie się zwiększa i oceany stają się dla takiego światła nieprzezroczyste. To silny argument za tym, że oceaniczne organizmy w całym wszechświecie potrzebują światła w tym właśnie zakresie, by móc prowadzić fotosyntezę.
      Uczeni zauważyli również, że życie oparte na fotosyntezie może z mniejszym prawdopodobieństwem powstać na planetach znacznie większych niż Ziemia. Planety takie mają bowiem zwykle bardziej gęstą atmosferę, która będzie blokowała znaczną część światła z potrzebnego zakresu. Dlatego też Hall i jej koledzy uważają, że życia raczej należy szukać na mniejszych, bardziej podobnych do Ziemi planetach, niż na super-Ziemiach, które są uważane za dobry cel takich poszukiwań.
      Badania takie, jak przeprowadzone przez naukowców z University of Georgia są niezwykle istotne, gdyż naukowcy mają ograniczony dostęp do odpowiednich narzędzi badawczych. Szczegółowe plany wykorzystania najlepszych teleskopów rozpisane są na wiele miesięcy czy lat naprzód, a poszczególnym grupom naukowym przydziela się ograniczoną ilość czasu. Dlatego też warto, by – jeśli ich badania polegają na poszukiwaniu życia – skupiali się na badaniach najbardziej obiecujących obiektów. Tym bardziej, że w najbliższych latach ludzkość zyska nowe narzędzia. Od 2017 roku w Chile budowany jest europejski Extremely Large Telescope (ELT), który będzie znacznie bardziej efektywnie niż Teleskop Webba poszukiwał tlenu w atmosferach egzoplanet. Z kolei NASA rozważa budowę teleskopu Habitable Exoplanet Observatory, który byłby wyspecjalizowany w poszukiwaniu biosygnatur na egzoplanetach wielkości Ziemi. Teleskop ten w 2035 roku miałby trafić do punktu L2, gdzie obecnie znajduje się Teleskop Webba.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Kosmiczny Jamesa Webba prawdopodobnie znalazł galaktyki, których istnienie przeczy standardowemu modelowi kosmologicznemu. Wydaje się, że są one zbyt masywne jak na czas swoich narodzin.
      Astronomowie z The University of Texas at Austin informują na łamach Nature Astronomy, że sześć z najstarszych i najbardziej masywnych galaktyk zaobserwowanych przez JWST wydaje się przeczyć najbardziej rozpowszechnionym poglądom obowiązującym w kosmologii. Naukowcy szacują bowiem, że galaktyki te narodziły się w ciągu 500–700 milionów lat po Wielkim Wybuchu, a ich masa wynosi ponad 10 miliardów mas Słońca. Jedna z nich wydaje się nawet równie masywna co Droga Mleczna, a jest od niej o miliardy lat młodsza.
      Jeśli szacunki dotyczące masy są prawidłowe, to wkraczamy na nieznane terytorium. Wyjaśnienie tego zjawiska będzie wymagało dodania czegoś całkowicie nowego do teorii formowania się galaktyk lub modyfikacji poglądów kosmologicznych. Jednym z najbardziej niezwykłych wyjaśnień byłoby stwierdzenie, że wkrótce po Wielkim Wybuchu wszechświat rozszerzał się szybciej, niż sądzimy. To jednak mogłoby wymagać dodania nowych sił i cząstek, mówi profesor Mike Boylan-Kolchin, który kierował zespołem badawczym. Co więcej, by tak masywne galaktyki uformowały się tak szybko, w gwiazdy musiałoby zamienić się niemal 100% zawartego w nich gazu. Zwykle w gwiazdy zamienia się nie więcej niż 10% gazu galaktyki. I o ile konwersja 100% gazu w gwiazdy mieści się w teoretycznych przewidywaniach, to taki przypadek wymagałby zupełnie innych zjawisk, niż obserwujemy, dodaje uczony.
      Dane, jakich dostarczył JWST, mogą postawić astronomów przed poważnym problemem. Jeśli bowiem masy i wiek wspomnianych galaktyk zostaną potwierdzone, mogą być potrzebne fundamentalne zmiany w obowiązującym modelu kosmologicznym. Takie, które dotkną też ciemnej materii i ciemnej energii. Jeśli istnieją inne, szybsze sposoby formowania się galaktyk, albo też więcej materii było dostępnej we wczesnym wszechświecie, konieczna będzie radykalna zmiana poglądów.
      Oceny wieku i masy wspomnianych 6 galaktyk to wstępne szacunki. Następnym etapem prac powinno być przeprowadzenie badań spektroskopowych. W ich trakcie może się np. okazać, że czarne dziury w centrach galaktyk tak bardzo podgrzewają otaczający je gaz, że galaktyki są jaśniejsze, zatem wydają się bardziej masywne niż w rzeczywistości. Nie można też wykluczyć, że galaktyki tak naprawdę są młodsze, ale znajdujący się pomiędzy nami a nimi pył zmienia kolor docierającego z nich światła tak, iż jest ono bardziej przesunięte ku czerwieni, zatem wydaje się dochodzić z większej odległości, a zatem z młodszych galaktyk.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wystrzelenie i rozłożenie teleskopu kosmicznego to bardzo skomplikowana i kosztowna procedura, mówi Sebastian Rabien z Instytutu Fizyki Pozaziemskiej im. Maxa Plancka. Nowa metoda, tak bardzo różna od typowego produkowania i polerowania zwierciadła, może rozwiązać problemy z wagą i pakowaniem zwierciadła teleskopu, pozwalając na wysłanie w przestrzeń kosmiczną znacznie większych, a zatem i znacznie czulszych, teleskopów.
      Na łamach pisma Applied Optics Rabien pochwalił się właśnie opracowaniem wraz ze swoimi kolegami nowej metody produkcji parabolicznych membran, z których powstaje zwierciadło teleskopu. Stworzone przez grupę Rabiena prototypy mają do 30 centymetrów średnicy. Można je skalować do rozmiarów wymaganych dla teleskopu, który chcemy stworzyć. Membrany powstają metodą osadzania z fazy gazowej i są tworzone na obracającej się cieczy umieszczonej wewnątrz komory próżniowej. Naukowcy opracowali tez metodę, która – za pomocą ciepła – koryguje niedoskonałości takiego lustra już po tym, jak zostało rozwinięte.
      Chociaż nasza praca to tylko pokaz, że metoda działa, kładzie ona podstawy pod budowę wielkich tanich zwierciadeł. Mogą dzięki niej powstać lekkie zwierciadła o średnicy 15–20 metrów, dzięki którym teleskopy kosmiczne będą o rząd wielkości bardziej czułe od obecnie budowanych czy planowanych, wyjaśnia Rabien.
      Naukowiec wykorzystuje molekuły monomerów, które są osadzane z fazy gazowej, tworząc polimer. Zwykle wytwarza się tak np. powłoki chroniące elektronikę przed wpływem wilgoci. Teraz po raz pierwszy wykorzystano tę metodę do uzyskania parabolicznych membran o parametrach optycznych wymaganych przez teleskopy. Niezbędnym elementem całości jest wykorzystanie obracającego się pojemnika zawierającego niewielką ilość cieczy, która utworzy idealny paraboliczny kształt.
      Pojemnik ten to rodzaj formy, którą można skalować do odpowiednich rozmiarów. Gdy już uzyskamy w ten sposób warstwę polimeru odpowiedniej grubości, należy nałożyć nań metaliczną warstwę odbijającą. W ten sposób powstaje zwierciadło, które z łatwością można zwinąć, zapakować do rakiety nośnej i rozwinąć w przestrzeni kosmicznej. Problem jednak w tym, że byłoby niemal niemożliwością odzyskanie idealnego parabolicznego kształtu to rozwinięciu zwierciadła. Dlatego też powstał system kontroli, w którym kształt zwierciadła jest modyfikowany za pomocą ciepła generowanego przez oświetlanie poszczególnych części zwierciadła.
      W kolejnym etapie badań uczeni chcą stworzyć bardziej wyrafinowany system kontroli kształtu. Sprawdzą tez, jak duże zniekształcenia mogą być tolerowane. Mają też zamiar zbudować komorę o średnicy metra, by lepiej zbadać powierzchnię większych zwierciadeł oraz udoskonalić proces ich zwijania i rozwijania.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy znaleźli nowy sposób na wejrzenie w głąb jądra atomu. Okazuje się, że można tego dokonać śledząc interakcje pomiędzy światłem a gluonami, bezmasowymi cząstkami, które pośredniczą w oddziaływaniach silnych. Nowo opracowana metoda wykorzystuje nowo odkryty rodzaj kwantowej interferencji pomiędzy różnymi cząstkami.
      Protony i neutrony, z których składa się jądro atomowe, są zbudowane z kwarków. Jednak same kwarki byłyby niestabilne, potrzebują gluonów, nośnika oddziaływań silnych, które na podobieństwo kleju utrzymują je razem. Gluony są zbyt małe, byśmy mogli je dostrzec, ale wchodzą w interakcje z fotonami, w wyniku czego powstają krótko żyjące mezony ρ (rho), które rozpadają się do pionów.
      Uczeni z Brookhaven National Laboratory użyli akceleratora Relativistic Heavy Ion Collider (RHIC), w którym przyspieszane są jądra atomów złota i uranu. Podróżujące jądra były otoczone chmurą spolaryzowanych fotonów. Minęły się one z olbrzymią prędkością w odległości równej kilku średnicom jądra. Dzięki tak małej odległości chmury fotonów otaczające każde z jąder weszły w interakcje z gluonami drugiego jądra. Śledząc prędkości i kąty cząstek pochodzących z tych interakcji można bardzo precyzyjnie określić polaryzację fotonów, a to z kolei pozwala na stworzenie mapy dystrybucji gluonów zarówno w kierunku polaryzacji oraz prostopadle do niego. Taka technika daje nam możliwość znacznie bardziej precyzyjnych pomiarów rozkładu gluonów.
      Naukowcy badali w akceleratorze kąty i prędkości pionów o ładunku dodatnim i ujemnym pochodzących ze wspomnianych interakcji. W ten sposób mogli stworzyć szczegółową mapę rozkładu gluonów w jądrach atomów złota i uranu. Technika obserwacji jest podobna do pozytonowej tomografii emisyjnej, ale działa w skali femtometrów (10-15 m). Pozwoli ona lepiej zrozumieć, w jaki sposób gluony biorą udział w tworzeniu jądra atomowego.
      Wcześniejsze badania pozwalały jedynie określić, jak daleko od centrum jądra znajduje się każdy z gluonów, gdyż brakowało wówczas precyzyjnych informacji o polaryzacji. Skutkiem tego były błędy interpretacyjne, w wyniku których tak badane jądra wydawały się większe niż wykazywały to inne eksperymenty oraz modele teoretyczne. Naukowcy rozwiązali więc zagadkę trapiącą fizyków od 20 lat. Teraz wiemy, że podczas poprzednich, mniej precyzyjnych pomiarów, mylono pęd i energię fotonu z gluonami. Uzyskane przez nas obrazy są tak precyzyjne, że możemy nawet zauważyć, gdzie w dużym jądrze znajdują się protony, a gdzie neutrony, cieszą się autorzy badań.
      Ponadto wzorce interferencji pomiędzy funkcjami falowymi obserwowanych pionów wykazały, że – mimo iż miały przeciwne ładunki – były one splątane. To pierwsza eksperymentalna obserwacja interferencji między niepodobnymi cząstkami. Niewykluczone, że uda się dzięki temu opracować nowe sposoby uzyskiwania stanów splątanych.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...