Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Przed dwoma tygodniami firma SpaceX wystrzeliła na orbitę 60 satelitów Starlink. Do połowy przyszłej dekady konstelacja Starlink ma liczyć około 12 000 satelitów. Wielu astronomów już wyraziło obawy, że tak olbrzymia liczba sztucznych obiektów znacznie utrudni lub a nawet uniemożliwi prowadzenie wielu badań. Tym bardziej, że SpaceX nie jest jedyną firmą, która chce budować olbrzymie konstelacje satelitów. Z podobnymi zamiarami noszą się OneWeb i Amazon.

Nawet jeśli te niewielkie satelity nie są widoczne gołym okiem, to będą rejestrowane przez teleskopy. Satelity będą przesłaniały gwiazdy i świeciły światłem odbitym, generując olbrzymie ilości fałszywych danych, których często nie da się odróżnić od danych prawdziwych. Jakby tego było mało, satelity komunikują się za pomocą sygnałów radiowych, co może zaburzać prace radioteleskopów.

Międzynarodowa Unia Astronomiczna wydała właśnie oświadczenie, które odzwierciedla obawy astronomów, i wezwała do lepszego regulowania konstelacji satelitów. Ostatnie postępy radioastronomii, takie jak stworzenie pierwszego obrazu czarnej dziury były możliwe tylko dzięki temu, że nieboskłon jest wolny od interferencji sztucznych sygnałów radiowych, czytamy w oświadczeniu. Obecnie na orbicie pracuje mniej niż 5000 satelitów. Tylko część z nich to satelity komunikacyjne, które ciągle wysyłają i odbierają sygnały. Jeśli w ciągu kilku najbliższych lat na orbicie znajdzie się kilkadziesiąt tysięcy satelitów komunikacyjnych, badania prowadzone przez radioteleskopy mogą napotkać na poważne trudności.

Podczas startu rakiety z satelitami Starlink Elon Musk zapewniał, że nie będą miały one wpływu na astronomię. Nie wyjaśnił jednak, jak tysiące tego typu obiektów miałoby pozostać bez wpływu na badania naukowe.

Międzynarodowa Unia Astronomiczna wezwała właścicieli i projektantów satelitów, by przyjrzeli się ich wpływowi na naukę i opracowali metody pozwalające wpływ ten zminimalizować.

Wzywamy również agendy rządowe do jak najszybszego przygotowania odpowiednich uregulowań, które pozwolą na uniknięcie lub eliminację negatywnego wpływu konstelacji satelitów na badania naukowe, czytamy w wydanym oświadczeniu.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W miarę jak zwiększa się liczba pojazdów w przestrzeni kosmicznej, im bardziej skomplikowane są misje kosmiczne i w im większej odległości się odbywają, tym większą rolę odgrywa automatyzacja zadań. Dużą liczbą satelitów nie da się ręcznie zarządzać, dlatego większość z nich korzysta z systemów automatycznych, a ludzka interwencja potrzebna jest w sytuacjach awaryjnych, w przypadku aktualizacji oprogramowania czy zmiany orbity. Z kolei w przypadku misji w dalszych częściach Układu Słonecznego ręczne sterowanie pojazdami jest wręcz niemożliwe z powodu dużych odległości i opóźnień sygnału.
      Coraz większa automatyzacja jest więc niezbędna, gdyż wysyłamy poza Ziemię coraz więcej pojazdów i chcemy eksplorować coraz dalsze zakątki przestrzeni kosmicznej. W ostatnich latach na MIT uruchomiono Kerbal Space Program Differential Game Challenge. To rodzaj zawodów, opartych o grę Kerbal Space Program, których celem jest zachęcenie specjalistów do rozwijania autonomicznych systemów dla programów kosmicznych. Gra Kerbal Space Program powstała w 2015 roku i jest to pseudorealistyczny symulator lotów kosmicznych, uwzględniających prawdziwe manewry orbitalne, jak na przykład dokowanie w przestrzeni kosmicznej czy manewr transferowy Hohmanna. Zawody na MIT uwzględniają różne scenariusze, na przykład zadaniem uczestników jest podążanie za satelitą i jego przechwycenie.
      Alejandro Carrasco, Victor Rodriguez-Fernandez i Richard Linares postanowili sprawdzić, jak w zawodach poradzą sobie komercyjne wielkie modele językowe, jak ChatGPT czy Llama. Zdecydowali się oni użyć LLM, gdyż tradycyjne metody tworzenia systemów autonomicznych wymagają wielokrotnych sesji treningowych i poprawkowych. Ciągłe udoskonalanie modelu jest niepraktyczne, gdyż każda z misji w Kerbal trwa jedynie kilka godzin. Tymczasem wielkie modele językowe są już wytrenowane na olbrzymiej liczbie tekstów i wymają jedynie niewielkiego doszlifowania pod kątem inżynieryjnym. Badacze najpierw musieli opracować metodę, która przekładała stan pojazdu kosmicznego i zadania na tekst. Był on następnie wysyłany do wielkich modeli językowych z prośbą o rekomendacje, co do odpowiednich działań. Zalecenia LLM były następnie przekładane na kod, który sterował pojazdem.
      Po krótkiej nauce ChatGPT poradził sobie doskonale. Uplasował się na 2. miejscu w zawodach. Pierwsze miejsce zajął inny, wyspecjalizowany kod. Co więcej, badania – których wyniki mają zostać wkrótce opublikowane na łamach Journal of Advances in Space Research – zostały przeprowadzone jeszcze zanim dostępna była wersja ChatGPT 4. Co prawda LLM nie jest jeszcze gotowy do sterowania misją kosmiczną. Szczególnie poważny problem stanowią podawane przezeń czasem nonsensowne przypadkowe rozwiązania, które zakończyłyby się katastrofą w przypadku prawdziwej misji. Jednak przeprowadzone badania pokazują, że nawet standardowy komercyjny LLM może być wykorzystany do pracy w sposób, którego jego twórcy z pewnością nie przewidzieli.
      Źródło: Large Language Models as Autonomous Spacecraft Operators in Kerbal Space Program, https://arxiv.org/abs/2505.19896

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Właśnie uruchomione Obserwatorium im. Very C. Rubin – o jego publicznym debiucie informowaliśmy tutaj  – pokazało swoją moc. W ciągu zaledwie 10 godzin obserwacji, przeprowadzonych w ciągu 7 nocy, obserwatorium astronomiczne okryło 2104 nowe asteroidy, w tym 7 asteroid bliskich Ziemi, 11 asteroid trojańskich i 9 obiektów transneptunowych.
      Na prezentowanym poniżej wideo możecie zobaczyć 7 nieznanych wcześniej asteroid bliskich Ziemi. To te szybko poruszające się żółto-pomarańczowe. Kolejnych 2015 obiektów to obiekty z głównego pasa asteroid, który znajduje się między Marsem a Jowiszem.
      Wspomnianych 11 asteroid trojańskich (tzw. Trojańczyków) to asteroidy, które dzielą z Jowiszem orbitę wokółsłoneczną. W dwóch punktach libracyjnych Jowisza znajdują się dwie grupy asteroid. Jedna to „Grecy”, druga „Trojańczycy”. Trojańczycy gonią Greków, a w każdej z grup znajduje się szpieg strony przeciwnej. Więcej o nich znajdziecie w naszym tekście na temat misji Lucy. Mamy też w końcu 9 obiektów transneptunowych, czyli takich, które znajdują się poza orbitą Neptuna.
      Powtórzmy jeszcze raz: 1 wyjątkowe obserwatorium astronomiczne, 10 godzin obserwacji i 2104 nieznane dotychczas asteroidy. Wszystkie naziemne i kosmiczne obserwatoria wykrywają około 20 000 nowych asteroid w ciągu roku. To pokazuje, jak olbrzymie możliwości ma Vera C. Rubin Observatory. A musimy pamiętać, że wciąż nie pracuje ono pełną mocą.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niedawno astronomowie usłyszeli głos z kosmicznych zaświatów. Potężny krótkotrwały impuls na chwilę przyćmił wszystkie źródła sygnałów radiowych. Clancy James z australijskiego Curtin University i jego zespół skanowali nieboskłon za pomocą Australian Square Kilometre Array Pathfinder (ASKAP) – zestawu 36 radioteleskopów znajdujących się w Zachodniej Australii – odebrali krótki, bardzo silny sygnał. 
      Niezwykle podekscytowani stwierdzili, być może odkryli nowy pulsar lub inny obiekt, a że źródło sygnału  wydawało się pochodzić z naszej galaktyki, stwierdzili, że nowy obiekt powinien być widoczny za pomocą teleskopów optycznych. Jednak gdy bardziej szczegółowo przeanalizowali sygnał okazało się, że jego źródło było tak blisko, iż ASKAP nie skupić na nim jednocześnie wszystkich swoich anten. A to oznaczało, że źródło sygnału musi znajdować się mniej niż 20 tysięcy kilometrów od Ziemi. Impuls trwał zaledwie 30 nanosekund i przez tę chwilę silniejszy, niż wszystko inne rejestrowane za pomocą radioteleskopów.
      Gdy Australijczycy przeanalizowali pozycję źródła sygnału i porównali ją z pozycjami wszystkich znanych satelitów okazało się, że jedynym możliwym źródłem sygnału jest Relay 2. To jeden z pierwszych satelitów w historii. Został wystrzelony w 1964 roku i służył NASA jako eksperymentalne urządzenie komunikacyjne. Agencja przestała używać Relay 2 już w 1965 roku, natomiast pokładowa elektronika satelity działała do roku 1967. Wówczas Relay 2 zamilkł i od tej pory krąży wokół Ziemi jako bezwładny kawałek metalu.
      Teraz, po niemal 60 latach satelita znowu wysłał sygnał. Jednak jego urządzenie nie działają, więc źródłem sygnału musiały być czynniki zewnętrzne. Clancy i jego koledzy sądzą, że albo na powierzchni satelity zebrały się ładunki elektrostatyczne i doszło do wyładowania, albo uderzył w niego mikrometeoryt, który wywołał pojawienie się chmury plazmy. Sygnały z obu tych wydarzeń wyglądają podobnie, więc trudno byłoby je odróżnić. Przede wszystkim ktoś musiałby chcieć przeprowadzić takie badania. Tylko po co?
      Źródło: A nanosecond-duration radio pulse originating from the defunct Relay 2 satellite, https://arxiv.org/abs/2506.11462

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie lotniczy i kosmiczni z MIT odkryli, że sposób, w jaki emisja gazów cieplarnianych wpływa na atmosferę, zmniejszy liczbę satelitów, które można będzie umieścić na niskiej orbicie okołoziemskiej (LEO). Na łamach Nature Sustainability stwierdzają, że rosnąca emisja gazów cieplarnianych zmniejsza zdolność atmosfery do usuwania odpadków krążących wokół Ziemi.
      Badacze zauważyli, że dwutlenek węgla i inne gazy cieplarniane powodują, iż górne warstwy atmosfery się kurczą. Głównie interesuje ich termosfera, w której krąży Międzynarodowa Stacja Kosmiczna i większość satelitów. Gdy termosfera się kurczy, jej zmniejszająca się gęstość prowadzi do zmniejszenia oporów, a to właśnie opór aerodynamiczny jest tym czynnikiem, który powoduje, że kosmiczne śmieci – chociażby pozostałości po nieczynnych satelitach – opadają w kierunku Ziemi i płoną w atmosferze. Mniejszy opór oznacza, że odpady takie będą dłużej znajdowały się na orbicie, zatem ich liczba będzie rosła, a to zwiększa ryzyko kolizji z działającymi satelitami i innymi urządzeniami znajdującymi się w tych samych rejonach.
      Naukowcy przeprowadzili symulacje, których celem było sprawdzenie, jak emisja dwutlenku węgla wpłynie na górne partie atmosfery i astrodynamikę. Wynika z nich, że do roku 2100 pojemność najpopularniejszych regionów orbity zmniejszy się o 50–66 procent właśnie z powodu gazów cieplarnianych.
      Nasze zachowanie na Ziemi w ciągu ostatnich 100 lat wpływa na to, w jaki sposób będziemy używali satelitów przez kolejnych 100 lat, mówi profesor Richard Linares z Wydziału Aeronautyki i Astronautyki MIT. Emisja gazów cieplarnianych niszczy delikatną równowagę górnych warstw atmosfery. Jednocześnie gwałtownie rośnie liczba wystrzeliwanych satelitów, szczególnie telekomunikacyjnych, zapewniających dostęp do internetu. Jeśli nie będziemy mądrze zarządzali satelitami i nie ograniczymy emisji, orbita stanie się zbyt zatłoczona, co będzie prowadziło do większej liczby kolizji i większej liczby krążących na niej szczątków, dodaje główny autor badań, William Parker.
      Termosfera kurczy się i rozszerza w 11-letnich cyklach, związanych z cyklami aktywności słonecznej. Gdy aktywność naszej gwiazdy jest niska, do Ziemi dociera mniej promieniowania, najbardziej zewnętrzne warstwy atmosfery tymczasowo się ochładzają i kurczą. W okresie zwiększonej aktywności słonecznej są one cieplejsze i rozszerzają się.
      Już w latach 90. naukowcy stworzyli modele, z których wynikało, że w miarę ocieplania się klimatu na Ziemi, górne warstwy atmosfery będą się schładzały, co doprowadzi do kurczenia się termosfery i zmniejszania jej gęstości.
      W ciągu ostatniej dekady nauka zyskała możliwość precyzyjnych pomiarów oporu aerodynamicznego działającego na satelity. Pomiary te pokazały, że termosfera kurczy się w odpowiedzi na zjawisko wykraczające poza naturalny 11-letni cykl. Niebo dosłownie spada, w tempie liczonych w dziesięcioleciach. A widzimy to na podstawie zmian oporów doświadczanych przez satelity, wyjaśnia Parker.
      Naukowcy z MIT postanowili sprawdzić, w jaki sposób to zmierzone zjawisko wpłynie na liczbę satelitów, które można bezpiecznie umieścić na niskiej orbicie okołoziemskiej. Ma ona wysokość do 2000 kilometrów nad powierzchnią Ziemi. Obecnie na orbicie tej znajduje się ponad 10 000 satelitów. Ich liczba jest już tak duża, że operatorzy satelitów standardowo muszą wykonywać manewry unikania kolizji. Każda taka kolizja oznacza nie tylko zniszczenie satelity, ale też pojawienie się olbrzymiej liczby szczątków, które będą krążyły na orbicie przez kolejne dekady i stulecia, zwiększając ryzyko kolejnych kolizji.
      W ciągu ostatnich 5 lat ludzkość umieściła na LEO więcej satelitów, niż przez wcześniejszych 60 lat. Jednym z głównych celów badań było sprawdzenie, czy sposób, w jaki obecnie prowadzimy działania na niskiej orbicie okołoziemskiej można będzie utrzymać w przyszłości. Naukowcy symulowali różne scenariusze emisji gazów cieplarnianych i sprawdzali, jak wpływa to na gęstość atmosfery i opór aerodynamiczny. Następnie dla każdego z tych scenariuszy sprawdzali jego wpływ na astrodynamikę i ryzyko kolizji w zależności od liczby obiektów znajdujących się na orbicie. W ten sposób obliczali „zdolność ładunkową” orbity. Podobnie jak sprawdza się, ile osobników danego gatunku może utrzymać się w danym ekosystemie.
      Z obliczeń wynika, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to liczba satelitów, jakie można umieścić na wysokości od 200 do 1000 kilometrów nad Ziemią będzie o 50–66 procent mniejsza niż w scenariuszu utrzymania poziomu emisji z roku 2000. Jeśli „zdolność ładunkowa” orbity zostanie przekroczona, nawet lokalnie, dojdzie do całej serii kolizji, przez co pojawi się tyle szczątków, że orbita stanie się bezużyteczna.
      Autorzy badań ostrzegają, że niektóre regiony orbity już zbliżają się do granicy ich „zdolności ładunkowej”. Dzieje się tak głównie przez nowy trend, budowanie megakonstelacji olbrzymiej liczby małych satelitów, takich jak Starlink SpaceX.
      Polegamy na atmosferze, która oczyszcza orbitę z pozostawionych przez nas odpadów. Jeśli atmosfera się zmienia, zmienia się też środowisko, w którym znajdują się odpady. Pokazujemy, że długoterminowe możliwości usuwania odpadów z orbity są uzależnione od zmniejszenia emisji gazów cieplarnianych, podsumowuje Richard Linares.
      Specjaliści szacują, że obecnie na orbicie znajduje się 40 500 odpadków o rozmiarach większych niż 10 cm, 1 milion 100 tysięcy odpadków wielkości od 1 do 10 cm oraz 130 milionów śmieci wielkości od 1 mm do 1 cm. Nawet te najmniejsze odpady stanowią duże zagrożenie. Średnia prędkość kolizji, do jakich między nimi dochodzi, to 11 km/s czyli około 40 000 km/h.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Soczewki od wieków wyglądają podobnie. Są zagięte, by skupiać padające światło. Zwiększając ich możliwości musimy zwiększyć rozmiary i masę. A to poważny problem, szczególnie w astronomii i astrofotografii. Istnieją co prawda lżejsze i cieńsze alternatywy, jednak są kosztowne, trudne w produkcji i mają ograniczone możliwości. Profesor Rajesh Menon i jego koledzy z University of Utah opracowali obiecujące rozwiązanie – płaskie soczewki o dużej aperturze, które równie efektywnie jak tradycyjne skupiają światło, zachowując jednocześnie kolory.
      Soczewki powiększają obserwowane obiekty dzięki zaginaniu i skupianiu światła. Im są większe, grubsze i cięższe, tym mocniej powiększają. W przypadku rozwiązań amatorskich ich wielkość i masa nie są dużym problemem. Jednak w teleskopach profesjonalnych i urządzeniach wysyłanych w kosmos, które obserwują galaktyki odległe od nas o miliony lat, wielkość soczewek może być tak poważnym problemem, że stają się one niepraktyczne. Dlatego profesjonalna astronomia wykorzystuje zwierciadła, które są znacznie cieńsze i lżejsze niż soczewki.
      Naukowcy od dawna próbują rozwiązać problem grubości i ciężaru soczewek, projektując płaskie urządzenia. Przykładem takiego rozwiązania jest soczewka Fresnela. Jest znacznie cieńsza od tradycyjnej soczewki o takiej samej ogniskowej. Jej wadą jest jednak brak możliwości odzwierciedlenia prawdziwych kolorów.
      Rajes Menon i jego zespół mają pomysł na płaskie soczewki o możliwościach podobnych do soczewek tradycyjnych, ale pozbawionych wad soczewki Fresnela. Z naszych obliczeń wynika, że można stworzyć płaskie soczewki dyfrakcyjne o dużej aperturze, które skupiałyby światło z całego widzialnego spektrum. W Utah Nanofab mieliśmy zasoby potrzebne do ich wyprodukowania, mówi Menon.
      Główną innowacją jest zastosowanie mikroskopijnie małych koncentrycznych pierścieni, które naukowcy nanieśli na powierzchnię swojej soczewki. W przeciwieństwie do krawędzi w soczewce Fresnela, które są zoptymalizowane pod kątem konkretnej długości fali światła, rozmiar i odległości pomiędzy pierścieniami nowej soczewki pozwala na odzwierciedlenie pełnego zakresu fal.
      Zaprojektowanie soczewek i sprawdzenie ich działania w zakresie od światła widzialnego po bliską podczerwień wymagało zaangażowania dużych mocy obliczeniowych i wielkich baz danych. Gdy już zakończono część teoretyczną i zoptymalizowano projekt, można było przystąpić do wytwarzania soczewek. Nie było to łatwe, gdyż wymagało niezwykle precyzyjnej kontroli wszystkich elementów.
      Wyprodukowane soczewki spełniły wszystkie założenia i pomyślnie przeszły testy, podczas których wykonano za ich pomocą zdjęcia Słońca i Księżyca. Ze szczegółami ich budowy można zapoznać się w artykule Color astrophotography with a 100 mm-diameter f/2 polymer flat lens.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...