Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Głos z kosmicznych zaświatów. Martwy satelita nadał sygnał po dziesięcioleciach
dodany przez
KopalniaWiedzy.pl, w Ciekawostki
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Czy można naprawić urządzenie, które znajduje się w odległości ponad 600 milionów kilometrów i uległo mechanicznemu uszkodzeniu? Jak się okazuje, można. Dokonali tego naukowcy odpowiedzialni za misję Juno krążącą na orbicie Jowisza. Naukowcy z Southwest Research Institute właśnie podzielili się szczegółami niezwykłego przedsięwzięcia, jakiego podjęli się w grudniu 2023 roku.
JunoCam to kamera działająca w kolorze i w zakresie światła widzialnego, której głównym celem jest robienie zdjęć przeznaczonych dla opinii publicznej. W ten sposób NASA chce zwiększyć zainteresowanie przeciętnego zjadacza chleba misjami w kosmosie. Dostarczone przez nią obrazy przyczyniły się też do dokonania ważnych odkryć. Jednostka optyczna JunoCam znajduje się poza wzmocnioną tytanem osłoną przed promieniowaniem, która chroni instrumenty naukowe Juno przed szkodliwym promieniowaniem kosmicznym.
Twórcy misji byli przekonani, że JunoCam przetrwa osiem orbit wokół Jowisza, nie wiedzieli jednak, jak będzie sprawowała się dalej. Okazało się, ze przez pierwsze 34 orbity kamera pracowała niemal idealnie. Podczas 47. orbity na zdjęciach zaczęły pojawiać się błędy. Inżynierowie wiedzieli, że prawdopodobną przyczyną uszkodzenia jest promieniowanie, jednak który element uległ uszkodzeniu? Zaczęto szukać odpowiedzi i okazało się, że doszło do uszkodzenia regulatora napięcia. Opcji naprawy zepsutego urządzenia, znajdującego się ponad 600 milionów kilometrów od Ziemi nie było zbyt wiele. Eksperci zdecydowali się na wyżarzanie. To technika obróbki metali, podczas której materiał jest podgrzewany, utrzymywany w wysokiej temperaturze, a następnie powoli studzony. Mimo, że proces ten nie jest do końca przez naukę rozumiany, może on prowadzić do zmniejszenia liczby defektów w materiale.
Wiedzieliśmy, że wyżarzanie może czasem zmienić strukturę takiego materiału jak krzem na poziomie mikroskopowym. Nie wiedzieliśmy, czy to coś pomoże. Nakazaliśmy więc jednemu z podgrzewaczy JunoCam podniesienie temperatury do 25 stopni Celsjusza – to dużo cieplej niż typowa temperatura pracy kamery – i czekaliśmy wstrzymując oddech, mówi Jacob Schaffner z Malin Space Science Systems, który zaprojektował kamerę.
Wkrótce po wyżarzaniu kamera zaczęła dostarczać obrazów dobrej jakości, jednak pojazd coraz bardziej zbliżał się do planety, był narażony na coraz silniejsze promieniowanie. I do 55. orbity błędy były już na wszystkich zdjęciach. Eksperci próbowali różnych metod obróbki obrazu, ale nic nie pomagało. Zostało kilka tygodni do przelotu w pobliżu księżyca Jowisza, Io. Postanowiliśmy postawić wszystko na jedną kartę, maksymalnie rozgrzać podgrzewacz JunoCam i przekonać się, czy więcej wyżarzania coś da, stwierdził Michael Ravine.
Obrazy przesłane w pierwszym tygodniu wyżarzania były nieco lepsze. Później zaś doszło do dramatycznej poprawy jakości obrazu. Do dnia 30 grudnia 2023 roku, kiedy Juno przeleciała zaledwie 1500 kilometrów od powierzchni Io, JunoCam pracowała niemal tak dobrze, jak w dniu wystrzelenia misji.
Do dzisiaj satelita Juno okrążył Jowisza 74 razy. Podczas ostatniej, 74. orbity, znowu pojawiły się błędy na zdjęciach. Inżynierowie mają nadzieję, że kolejne wyżarzanie ponownie poprawi jakość fotografii.
Od czasu pierwszych eksperymentów z naprawą JunoCam zespół odpowiedzialny za misję zastosował różne wersje wyżarzania w różnych instrumentach naukowych i podsystemach inżynieryjnych. Uzyskano świetne wyniki. Juno uczy nas, jak zbudować i utrzymywać pojazd kosmiczny zdolny do tolerowania promieniowania. To ważna lekcja nie tylko dla misji Juno, ale też dla satelitów krążących wokół Ziemi. Sądzę, że zdobyte doświadczenia zostaną zastosowane w przypadku satelitów wojskowych i komercyjnych oraz w innych misjach NASA, główny naukowiec misji Juno z Southwest Research Institute, Scott Bolton.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W miarę jak zwiększa się liczba pojazdów w przestrzeni kosmicznej, im bardziej skomplikowane są misje kosmiczne i w im większej odległości się odbywają, tym większą rolę odgrywa automatyzacja zadań. Dużą liczbą satelitów nie da się ręcznie zarządzać, dlatego większość z nich korzysta z systemów automatycznych, a ludzka interwencja potrzebna jest w sytuacjach awaryjnych, w przypadku aktualizacji oprogramowania czy zmiany orbity. Z kolei w przypadku misji w dalszych częściach Układu Słonecznego ręczne sterowanie pojazdami jest wręcz niemożliwe z powodu dużych odległości i opóźnień sygnału.
Coraz większa automatyzacja jest więc niezbędna, gdyż wysyłamy poza Ziemię coraz więcej pojazdów i chcemy eksplorować coraz dalsze zakątki przestrzeni kosmicznej. W ostatnich latach na MIT uruchomiono Kerbal Space Program Differential Game Challenge. To rodzaj zawodów, opartych o grę Kerbal Space Program, których celem jest zachęcenie specjalistów do rozwijania autonomicznych systemów dla programów kosmicznych. Gra Kerbal Space Program powstała w 2015 roku i jest to pseudorealistyczny symulator lotów kosmicznych, uwzględniających prawdziwe manewry orbitalne, jak na przykład dokowanie w przestrzeni kosmicznej czy manewr transferowy Hohmanna. Zawody na MIT uwzględniają różne scenariusze, na przykład zadaniem uczestników jest podążanie za satelitą i jego przechwycenie.
Alejandro Carrasco, Victor Rodriguez-Fernandez i Richard Linares postanowili sprawdzić, jak w zawodach poradzą sobie komercyjne wielkie modele językowe, jak ChatGPT czy Llama. Zdecydowali się oni użyć LLM, gdyż tradycyjne metody tworzenia systemów autonomicznych wymagają wielokrotnych sesji treningowych i poprawkowych. Ciągłe udoskonalanie modelu jest niepraktyczne, gdyż każda z misji w Kerbal trwa jedynie kilka godzin. Tymczasem wielkie modele językowe są już wytrenowane na olbrzymiej liczbie tekstów i wymają jedynie niewielkiego doszlifowania pod kątem inżynieryjnym. Badacze najpierw musieli opracować metodę, która przekładała stan pojazdu kosmicznego i zadania na tekst. Był on następnie wysyłany do wielkich modeli językowych z prośbą o rekomendacje, co do odpowiednich działań. Zalecenia LLM były następnie przekładane na kod, który sterował pojazdem.
Po krótkiej nauce ChatGPT poradził sobie doskonale. Uplasował się na 2. miejscu w zawodach. Pierwsze miejsce zajął inny, wyspecjalizowany kod. Co więcej, badania – których wyniki mają zostać wkrótce opublikowane na łamach Journal of Advances in Space Research – zostały przeprowadzone jeszcze zanim dostępna była wersja ChatGPT 4. Co prawda LLM nie jest jeszcze gotowy do sterowania misją kosmiczną. Szczególnie poważny problem stanowią podawane przezeń czasem nonsensowne przypadkowe rozwiązania, które zakończyłyby się katastrofą w przypadku prawdziwej misji. Jednak przeprowadzone badania pokazują, że nawet standardowy komercyjny LLM może być wykorzystany do pracy w sposób, którego jego twórcy z pewnością nie przewidzieli.
Źródło: Large Language Models as Autonomous Spacecraft Operators in Kerbal Space Program, https://arxiv.org/abs/2505.19896
« powrót do artykułu -
przez KopalniaWiedzy.pl
Krążący wysoko nad Antarktydą wykrywacz promieniowania kosmicznego, zarejestrował nietypowe sygnały, które wykraczają poza nasze obecne rozumienie fizyki cząstek. ANITA (Antarctic Impulsive Transient Antenna) to zespół wyspecjalizowanych anten, które za pomocą balonu wypuszczane były nad Antarktyką i przez około miesiąc krążyły na wysokości do 40 kilometrów, unoszone przez wiatry obiegające kontynent. Celem eksperymentu jest obserwowanie promieniowania kosmicznego po tym, jak dotarło do Ziemi. W trakcie badań co najmniej 2-krotnie zarejestrowano sygnały, które nie pochodzą od promieniowania odbitego przez lód, a kierunek, z którego napłynęły, nie pozwala wyjaśnić ich pochodzenia na gruncie znanych zjawisk fizycznych.
Sygnały radiowe, które odkryliśmy, nadeszły z bardzo ostrego kąta, około 30 stopni spod powierzchni lodu, mówi profesor Stephanie Wissel. Z obliczeń wynika, że taki sygnał musiałby przejść przez tysiące kilometrów skał, z których zbudowana jest Ziemia, ale wówczas byłby niewykrywalny, gdyż zostałby przez Ziemię zaabsorbowany. To interesujący problem, bo obecnie nie potrafimy wyjaśnić, czym jest ten sygnał. Wiemy jednak, że to najprawdopodobniej nie pochodzi z neutrin, dodaje uczona.
Neutrina to cząstki bardzo pożądane przez naukowców. Niosą ze sobą ogrom informacji. W każdej sekundzie przez nasze ciała przechodzą biliony neutrin i nie czynią nam szkody. Neutrina niemal nigdy nie wchodzą w interakcje, trudno więc je wykryć.
Źródłem neutrin mogą być na przykład wydarzenia, do których doszło miliary lat świetlne od nas. Wykrycie takiego neutrina to dla naukowców okazja, by dowiedzieć się czegoś więcej o wydarzeniu, które było jego źródłem.
ANITA ma wykrywać też neutrina. Została umieszczona nad Antarktyką, gdyż tam istnienie najmniejsze ryzyko zakłócenia jej pracy przez inne sygnały. Unoszony przez balon zespół anten skierowany jest w dół i rejestruje wielkie pęki atmosferyczne odbite od lodu. Wielki pęk atmosferyczny, to wywołana pojedynczą cząstką promieniowania atmosferycznego kaskada cząstek powstających w atmosferze Ziemi.
ANITA rejestruje takie pęki odbite od lodu, naukowcy są w stanie przeanalizować sam pęk, jak i pęk odbity od lodu i na tej podstawie określić, jaka cząstka wywołała pęk. Na podstawie kąta odbicia sygnału można zaś określić jego źródło. I tutaj pojawia się problem, gdyż zarejestrowano też sygnały, których nie można prześledzić do źródła. Kąt ich odbicia jest bowiem znacznie bardziej ostry, niż przewidują istniejące modele.
Naukowcy przeanalizowali dane z wielu przelotów, porównali je z modelami matematycznymi, przeprowadzili liczne symulacje i wykluczyli zakłócenia tła i inne źródła sygnałów. Porównali swoje dane z niezależnie zbieranymi danymi innych instrumentów naukowych, takich jak IceCube Experiment czy Pierre Auger Observatory, by sprawdzić, czy i one odebrały podobne nietypowe sygnały. Okazało się, że nie. Dlatego też Wissel i jej koledzy określają znalezione sygnały jako „nietypowe” i wykluczają, by były one spowodowane przez neutrina. Sygnały nie pasują do standardowych modeli fizyki cząstek. Być może wyjaśnieniem tkwi w mniej popularnych teoriach, z których wynika, że sygnały te mogą pochodzić od ciemnej materii, jednak brak na to dowodów.
Obecnie naukowcy budują nowe urządzenie, PUEO. Będzie ono większe i bardziej czułe. Badacze mają nadzieję, że rzuci ono nowe światło na nietypowe sygnały. Sądzę, że przy powierzchni lodu i blisko horyzontu dochodzi do jakichś interesujących zjawisk związanych z rozprzestrzenianiem się sygnałów radiowych. Nie rozumiemy tego. Sprawdzaliśmy różne hipotezy i do niczego nie doszliśmy. To tajemnica. Bardzo się cieszę na myśl o tym, że powstaje bardziej czułe PUEO. Powinniśmy uchwycić więcej takich anomalii, dzięki czemu być może zrozumiemy, z czym mamy do czynienia, dodaje Wissel.
Źródło: Search for the Anomalous Events Detected by ANITA Using the Pierre Auger Observatory, https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.134.121003
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy potrafią przygotować bakterie tak, by wyczuwały różnego typu molekuły obecne w środowisku, jak składniki odżywcze czy zanieczyszczenia w glebie. Jednak by odczytać takie sygnały, by stwierdzić, że bakterie wyczuły obecność interesujących nas molekuł, trzeba przyjrzeć się samym bakteriom pod mikroskopem. Przez to dotychczas nie mogły być wykorzystywane do monitorowania środowiska na duża skalę. Jednak właśnie się to zmieniło. Naukowcy z MIT stworzyli bakterie, od których sygnały można odczytywać z odległości 90 metrów. W przyszłości mogą więc powstać bakterie, które będzie można monitorować za pomocą dronów lub satelitów.
Wyprodukowane na MIT bakterie wytwarzają molekuły generujące unikatowe połączenie kolorystyczne. To nowy sposób na uzyskiwanie informacji z komórki. Jeśli staniesz obok, niczego nie zauważysz, ale z odległości setek metrów, wykorzystując specjalną kamerę, możesz odczytać potrzebne informacje, mówi jeden z autorów badań, Christopher Voigt, dziekan Wydziału Inżynierii Biologicznej MIT.
Naukowcy stworzyli dwa różne typy bakterii, które wytwarzają molekuły emitujące światło o specyficznej długości fali w zakresie widma widzialnego i podczerwieni. Światło to można zarejestrować za pomocą specjalnej kamery. Generowanie molekuł jest uruchamiane po wykryciu sąsiadujących bakterii, jednak tę samą technikę można wykorzystać do wytwarzania molekuł w obecności np. zanieczyszczeń. W ten sposób można bakterie zamieniać w czujniki wykrywające dowolne substancje.
Generowane przez bakterie molekuły można obserwować za pomocą kamer hiperspektralnych, które pokazują zawartość różnych kolorów w każdym z pikseli obrazu. Każdy z nich zawiera bowiem informację o setkach fal światła o różnej długości.
Obecnie kamery hiperspektralne wykorzystywane są na przykład do wykrywania promieniowania. Wykorzystuje się je chociażby wokół Czarnobyla do rejestrowania niewielkich zmian koloru, powodowanych przez pierwiastki radioaktywne w chlorofilu roślin.
Uczeni z MIT wykorzystali podczas testów bakterie Pseudomonas putida i Rubrivivax gelatinosus. Pierwszą z nich przygotowali tak, by wydzielała biliwerdynę, drugą wyposażono w możliwość wytwarzania pewnego typu bakteriochlorofilu. Testowe skrzynki zawierające bakterie umieszczono w różnych miejscach, a następnie były one obserwowane przez kamery hiperspektralne.
Kamery w ciągu 20–30 sekund skanowały skrzynki, a algorytm komputerowy analizował sygnały i zgłaszał, czy doszło do emisji wspomnianych związków. Największa odległość, z której udało się wykryć emisję molekuł przez bakterie wynosiła 90 metrów.
Autorzy badań pracują już nad zwiększeniem odległości, z jakiej można odczytywać sygnały. Mówią, że ich technologia przyda się zarówno do badania ilości składników odżywczych w glebie, jak i do wykrywania min.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Inżynierowie lotniczy i kosmiczni z MIT odkryli, że sposób, w jaki emisja gazów cieplarnianych wpływa na atmosferę, zmniejszy liczbę satelitów, które można będzie umieścić na niskiej orbicie okołoziemskiej (LEO). Na łamach Nature Sustainability stwierdzają, że rosnąca emisja gazów cieplarnianych zmniejsza zdolność atmosfery do usuwania odpadków krążących wokół Ziemi.
Badacze zauważyli, że dwutlenek węgla i inne gazy cieplarniane powodują, iż górne warstwy atmosfery się kurczą. Głównie interesuje ich termosfera, w której krąży Międzynarodowa Stacja Kosmiczna i większość satelitów. Gdy termosfera się kurczy, jej zmniejszająca się gęstość prowadzi do zmniejszenia oporów, a to właśnie opór aerodynamiczny jest tym czynnikiem, który powoduje, że kosmiczne śmieci – chociażby pozostałości po nieczynnych satelitach – opadają w kierunku Ziemi i płoną w atmosferze. Mniejszy opór oznacza, że odpady takie będą dłużej znajdowały się na orbicie, zatem ich liczba będzie rosła, a to zwiększa ryzyko kolizji z działającymi satelitami i innymi urządzeniami znajdującymi się w tych samych rejonach.
Naukowcy przeprowadzili symulacje, których celem było sprawdzenie, jak emisja dwutlenku węgla wpłynie na górne partie atmosfery i astrodynamikę. Wynika z nich, że do roku 2100 pojemność najpopularniejszych regionów orbity zmniejszy się o 50–66 procent właśnie z powodu gazów cieplarnianych.
Nasze zachowanie na Ziemi w ciągu ostatnich 100 lat wpływa na to, w jaki sposób będziemy używali satelitów przez kolejnych 100 lat, mówi profesor Richard Linares z Wydziału Aeronautyki i Astronautyki MIT. Emisja gazów cieplarnianych niszczy delikatną równowagę górnych warstw atmosfery. Jednocześnie gwałtownie rośnie liczba wystrzeliwanych satelitów, szczególnie telekomunikacyjnych, zapewniających dostęp do internetu. Jeśli nie będziemy mądrze zarządzali satelitami i nie ograniczymy emisji, orbita stanie się zbyt zatłoczona, co będzie prowadziło do większej liczby kolizji i większej liczby krążących na niej szczątków, dodaje główny autor badań, William Parker.
Termosfera kurczy się i rozszerza w 11-letnich cyklach, związanych z cyklami aktywności słonecznej. Gdy aktywność naszej gwiazdy jest niska, do Ziemi dociera mniej promieniowania, najbardziej zewnętrzne warstwy atmosfery tymczasowo się ochładzają i kurczą. W okresie zwiększonej aktywności słonecznej są one cieplejsze i rozszerzają się.
Już w latach 90. naukowcy stworzyli modele, z których wynikało, że w miarę ocieplania się klimatu na Ziemi, górne warstwy atmosfery będą się schładzały, co doprowadzi do kurczenia się termosfery i zmniejszania jej gęstości.
W ciągu ostatniej dekady nauka zyskała możliwość precyzyjnych pomiarów oporu aerodynamicznego działającego na satelity. Pomiary te pokazały, że termosfera kurczy się w odpowiedzi na zjawisko wykraczające poza naturalny 11-letni cykl. Niebo dosłownie spada, w tempie liczonych w dziesięcioleciach. A widzimy to na podstawie zmian oporów doświadczanych przez satelity, wyjaśnia Parker.
Naukowcy z MIT postanowili sprawdzić, w jaki sposób to zmierzone zjawisko wpłynie na liczbę satelitów, które można bezpiecznie umieścić na niskiej orbicie okołoziemskiej. Ma ona wysokość do 2000 kilometrów nad powierzchnią Ziemi. Obecnie na orbicie tej znajduje się ponad 10 000 satelitów. Ich liczba jest już tak duża, że operatorzy satelitów standardowo muszą wykonywać manewry unikania kolizji. Każda taka kolizja oznacza nie tylko zniszczenie satelity, ale też pojawienie się olbrzymiej liczby szczątków, które będą krążyły na orbicie przez kolejne dekady i stulecia, zwiększając ryzyko kolejnych kolizji.
W ciągu ostatnich 5 lat ludzkość umieściła na LEO więcej satelitów, niż przez wcześniejszych 60 lat. Jednym z głównych celów badań było sprawdzenie, czy sposób, w jaki obecnie prowadzimy działania na niskiej orbicie okołoziemskiej można będzie utrzymać w przyszłości. Naukowcy symulowali różne scenariusze emisji gazów cieplarnianych i sprawdzali, jak wpływa to na gęstość atmosfery i opór aerodynamiczny. Następnie dla każdego z tych scenariuszy sprawdzali jego wpływ na astrodynamikę i ryzyko kolizji w zależności od liczby obiektów znajdujących się na orbicie. W ten sposób obliczali „zdolność ładunkową” orbity. Podobnie jak sprawdza się, ile osobników danego gatunku może utrzymać się w danym ekosystemie.
Z obliczeń wynika, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to liczba satelitów, jakie można umieścić na wysokości od 200 do 1000 kilometrów nad Ziemią będzie o 50–66 procent mniejsza niż w scenariuszu utrzymania poziomu emisji z roku 2000. Jeśli „zdolność ładunkowa” orbity zostanie przekroczona, nawet lokalnie, dojdzie do całej serii kolizji, przez co pojawi się tyle szczątków, że orbita stanie się bezużyteczna.
Autorzy badań ostrzegają, że niektóre regiony orbity już zbliżają się do granicy ich „zdolności ładunkowej”. Dzieje się tak głównie przez nowy trend, budowanie megakonstelacji olbrzymiej liczby małych satelitów, takich jak Starlink SpaceX.
Polegamy na atmosferze, która oczyszcza orbitę z pozostawionych przez nas odpadów. Jeśli atmosfera się zmienia, zmienia się też środowisko, w którym znajdują się odpady. Pokazujemy, że długoterminowe możliwości usuwania odpadów z orbity są uzależnione od zmniejszenia emisji gazów cieplarnianych, podsumowuje Richard Linares.
Specjaliści szacują, że obecnie na orbicie znajduje się 40 500 odpadków o rozmiarach większych niż 10 cm, 1 milion 100 tysięcy odpadków wielkości od 1 do 10 cm oraz 130 milionów śmieci wielkości od 1 mm do 1 cm. Nawet te najmniejsze odpady stanowią duże zagrożenie. Średnia prędkość kolizji, do jakich między nimi dochodzi, to 11 km/s czyli około 40 000 km/h.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.