Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Konstelacje sztucznych satelitów stanowią coraz większe zagrożenie dla badań naukowych

Rekomendowane odpowiedzi

Naukowcy czekają na uruchomienie Vera C. Rubin Observatory, obserwatorium astronomicznego, którego budowa dobiega końca w Chile. Na jego potrzeby powstał najpotężniejszy aparat fotograficzny na świecie. Obserwatorium ma co trzy tygodnie wykonywać fotografie całego nieboskłonu. Jego główny program badawczy – Legacy Survey of Space and Time – zakłada utworzenie mapy Drogi Mlecznej, dokonanie spisu obiektów w Układzie Słonecznym czy zbadanie niewyjaśnionych sygnałów dobiegających z głębi wszechświata. Jednak obserwatorium może nigdy nie spełnić pokładanych w nim nadziei.

Niedawno opublikowane raporty przygotowane przez zespół obserwatorium, a także amerykańskie Government Accountability Office – odpowiednik polskiej NIK – rysują przyszłość astronomii w ciemnych barwach. Konstelacje sztucznych satelitów, których panele słoneczne i anteny odbijają światło, mogą praktycznie uniemożliwić naziemne badania astronomiczne w świetle widzialnym. Niemożliwe mogą stać się badania kolizji czarnych dziur czy obserwacje asteroid bliskich Ziemi. Specjaliści ostrzegają, że mamy ostatnią możliwość, by temu zapobiec.

Obecnie na orbicie okołoziemskiej znajduje się ponad 5400 satelitów. Większość z nich, umieszczona na niskich orbitach, okrąża Ziemię w ciągu około 1,5 godziny. Od czasu, gdy w 2019 roku firma SpaceX wystrzeliła swoją pierwszą grupę pojazdów i rozpoczęła budowę konstelacji Starlink, liczba sztucznych satelitów szybko rośnie, a będzie rosła jeszcze szybciej, gdyż dołączają kolejne przedsiębiorstwa. Z danych amerykańskiej Federalnej Komisji Komunikacji oraz Międzynarodowej Unii Telekomunikacji wynika, że tylko do tych dwóch organizacji wpłynęły wnioski o zezwolenie na wystrzelenie w najbliższych latach 431 713 satelitów, które będą tworzyły 16 konstelacji.

Jeśli nad naszymi głowami będzie krążyło 400 000 satelitów, to będą one widoczne na każdym zdjęciu wykonanym w ramach badań astronomicznych. I nawet jeśli udałoby się automatycznie usunąć je z fotografii, to przy okazji utracona zostanie olbrzymia liczba informacji. Wyeliminowanie takich satelitów z obrazów będzie jednak bardzo trudne, między innymi dlatego, że będą się one poruszały w różny sposób i w różny sposób wyglądały w zależności od stosowanych filtrów kolorów. Eksperci, którzy pracują nad systemem wysyłającym automatyczne alerty do społeczności astronomów, gdyby Vera C. Rubin Observatory odkryło coś nowego – np. supernową – na nieboskłonie, obliczają, że konstelacje satelitów mogą doprowadzić do pojawienia się... 10 milionów fałszywych alertów na dobę. To pokazuje, jak ważne jest usuwania satelitów ze zdjęć. Nie wiadomo jednak, czy uda się uniknąć wszystkich takich fałszywych alertów, jak wiele informacji zostanie przy okazji utraconych i ile interesujących obiektów pozostanie przez to niezauważonych.

Konstelacje sztucznych satelitów mogą też znacznie utrudnić obserwację asteroid bliskich Ziemi. Dotychczas było wiadomo, że najlepszym momentem do ich wyszukiwania jest zmierzch. Jednak o zmierzchu panele słoneczne satelitów będą dobrze oświetlone, zaburzając możliwość obserwacji.

Problem narasta. We wrześniu ubiegłego roku firma AST SpaceMobile wystrzeliła swojego prototypowego satelitę o nazwie BlueWalker3. Gdy dwa miesiące później rozwinął on anteny o powierzchni ponad 64 metrów kwadratowych, stał się jednym z najjaśniejszych obiektów na niebie. Jaśniejszym niż 99% gwiazd widocznych gołym okiem. A to dopiero początek. AST SpaceMobile chce w najbliższych latach wystrzelić 168 jeszcze większych satelitów.

Obok pytania o wpływ konstelacji satelitów na badania naukowe rodzi się też pytanie o kwestie kulturowe czy filozoficzne. Czy kilka wielkich koncernów ma prawo kontrolować to, co ludzie widzą na nocnym niebie. Czy niebo, które przez wieki wpływało na literaturę, malarstwo, filozofię może zostać de facto sprywatyzowane przez kilka przedsiębiorstw liczących na kolosalne zyski. Istnieje bowiem poważne niebezpieczeństwo, że już za kilka lat, chcąc spojrzeć w rozgwieżdżone niebo, zobaczymy na nim więcej odbijających światło słoneczne sztucznych satelitów niż gwiazd. I nie będzie miało znaczenia, w którym miejscu Ziemi będziemy mieszkali.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, KopalniaWiedzy.pl napisał:

Czy kilka wielkich koncernów ma prawo kontrolować to, co ludzie widzą na nocnym niebie. Czy niebo, które przez wieki wpływało na literaturę, malarstwo, filozofię może zostać de facto sprywatyzowane przez kilka przedsiębiorstw liczących na kolosalne zyski.

Te satelity są potrzebne ludziom, a nie korporacjom. Tak, potrzebujemy konstelacji satelitów dokoła Ziemi, jak ktoś chce prowadzić badania naukowe to najwyższy czas wynieść się w kosmos. Te same powody które umożliwiły miniaturyzację satelitów i wynoszenie ich dużej ilości umożliwiają wyniesienie setek obserwatoriów klasy Hubbla w przyzwoitej cenie - pod warunkiem wprowadzenia produkcji seryjnej i sprytniejszego zaprojektowania konstrukcji lustra.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, peceed napisał:

Te satelity są potrzebne ludziom, a nie korporacjom.

Czyżby? A do czego? No i rozumiem, że korporacje to tak charytatywnie robią, nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, lester napisał:

Czyżby? A do czego?

Do szybkiej globalnej łączności.

2 godziny temu, lester napisał:

No i rozumiem, że korporacje to tak charytatywnie robią, nie?

Oby nie. Powinny to robić dla zysku.
Swoją drogą - pracujesz bez wynagrodzenia dla idei?

W dniu 1.02.2023 o 10:45, KopalniaWiedzy.pl napisał:

Jeśli nad naszymi głowami będzie krążyło 400 000 satelitów, to będą one widoczne na każdym zdjęciu wykonanym w ramach badań astronomicznych. I nawet jeśli udałoby się automatycznie usunąć je z fotografii, to przy okazji utracona zostanie olbrzymia liczba informacji. Wyeliminowanie takich satelitów z obrazów będzie jednak bardzo trudne, między innymi dlatego, że będą się one poruszały w różny sposób i w różny sposób wyglądały w zależności od stosowanych filtrów kolorów.

Już opisywałem pomysł na proste rozwiązanie problemu - system w którym detektory dysponują dynamicznymi mikroprzesłonami blokującymi światło od przelatujących satelitów.
Jedno udoskonalenie - zamiast modelu numerycznego konstelacji satelitów wystarczy niewielka szerokokątna kamera pomocnicza śledząca satelity, choć model numeryczny obliczany online dla dowolnego punktu powierzchni Ziemi powinien być dostępny za darmo.
Trzeba się zaadaptować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, peceed napisał:

Do szybkiej globalnej łączności.

A to teraz nie mamy takiej? Hmm...

21 godzin temu, peceed napisał:

Te satelity są potrzebne ludziom, a nie korporacjom.

 

6 godzin temu, peceed napisał:

Powinny to robić dla zysku.

No to zdecyduj się, dla ludzi czy dla korporacji by mieć zysk? Sprawiasz wrażenie konsumenta doskonałego. Korporacja wymyśla produkt, tworzy na niego rynek i wypuszcza do sprzedaży, a pelikany łykają.

6 godzin temu, peceed napisał:

Już opisywałem pomysł na proste rozwiązanie problemu

Opracuj, opatentuj, zbuduj, sprzedaj, zarób skoro to takie proste.

21 godzin temu, peceed napisał:

jak ktoś chce prowadzić badania naukowe to najwyższy czas wynieść się w kosmos.

Jak ktoś chce czystej okolicy, najwyższy czas wynieść się na Marsa.

 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 godzin temu, lester napisał:

No to zdecyduj się, dla ludzi czy dla korporacji by mieć zysk?

Ta wypowiedź nie ma sensu do którego można się odnieść, nie dyskutuję ze sztuczkami erystycznymi.
Z Marksistami zresztą też.

14 godzin temu, lester napisał:

Opracuj, opatentuj, zbuduj, sprzedaj, zarób skoro to takie proste.

Nie zależy mi, przekazałem pomysł w domenę publiczną. A co do prostoty nie ma ona żadnego znaczenia - rozwiązanie jest nieodzowne, bez alternatywy jeśli chce się pozostać na Ziemi.

15 godzin temu, lester napisał:

Jak ktoś chce czystej okolicy, najwyższy czas wynieść się na Marsa.

Prawidłową analogią jest narzekanie malarza na samoloty co mu to latają po "jego niebie" i smugami kondensacyjnymi psują malowane pejzaże.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W miarę jak zwiększa się liczba pojazdów w przestrzeni kosmicznej, im bardziej skomplikowane są misje kosmiczne i w im większej odległości się odbywają, tym większą rolę odgrywa automatyzacja zadań. Dużą liczbą satelitów nie da się ręcznie zarządzać, dlatego większość z nich korzysta z systemów automatycznych, a ludzka interwencja potrzebna jest w sytuacjach awaryjnych, w przypadku aktualizacji oprogramowania czy zmiany orbity. Z kolei w przypadku misji w dalszych częściach Układu Słonecznego ręczne sterowanie pojazdami jest wręcz niemożliwe z powodu dużych odległości i opóźnień sygnału.
      Coraz większa automatyzacja jest więc niezbędna, gdyż wysyłamy poza Ziemię coraz więcej pojazdów i chcemy eksplorować coraz dalsze zakątki przestrzeni kosmicznej. W ostatnich latach na MIT uruchomiono Kerbal Space Program Differential Game Challenge. To rodzaj zawodów, opartych o grę Kerbal Space Program, których celem jest zachęcenie specjalistów do rozwijania autonomicznych systemów dla programów kosmicznych. Gra Kerbal Space Program powstała w 2015 roku i jest to pseudorealistyczny symulator lotów kosmicznych, uwzględniających prawdziwe manewry orbitalne, jak na przykład dokowanie w przestrzeni kosmicznej czy manewr transferowy Hohmanna. Zawody na MIT uwzględniają różne scenariusze, na przykład zadaniem uczestników jest podążanie za satelitą i jego przechwycenie.
      Alejandro Carrasco, Victor Rodriguez-Fernandez i Richard Linares postanowili sprawdzić, jak w zawodach poradzą sobie komercyjne wielkie modele językowe, jak ChatGPT czy Llama. Zdecydowali się oni użyć LLM, gdyż tradycyjne metody tworzenia systemów autonomicznych wymagają wielokrotnych sesji treningowych i poprawkowych. Ciągłe udoskonalanie modelu jest niepraktyczne, gdyż każda z misji w Kerbal trwa jedynie kilka godzin. Tymczasem wielkie modele językowe są już wytrenowane na olbrzymiej liczbie tekstów i wymają jedynie niewielkiego doszlifowania pod kątem inżynieryjnym. Badacze najpierw musieli opracować metodę, która przekładała stan pojazdu kosmicznego i zadania na tekst. Był on następnie wysyłany do wielkich modeli językowych z prośbą o rekomendacje, co do odpowiednich działań. Zalecenia LLM były następnie przekładane na kod, który sterował pojazdem.
      Po krótkiej nauce ChatGPT poradził sobie doskonale. Uplasował się na 2. miejscu w zawodach. Pierwsze miejsce zajął inny, wyspecjalizowany kod. Co więcej, badania – których wyniki mają zostać wkrótce opublikowane na łamach Journal of Advances in Space Research – zostały przeprowadzone jeszcze zanim dostępna była wersja ChatGPT 4. Co prawda LLM nie jest jeszcze gotowy do sterowania misją kosmiczną. Szczególnie poważny problem stanowią podawane przezeń czasem nonsensowne przypadkowe rozwiązania, które zakończyłyby się katastrofą w przypadku prawdziwej misji. Jednak przeprowadzone badania pokazują, że nawet standardowy komercyjny LLM może być wykorzystany do pracy w sposób, którego jego twórcy z pewnością nie przewidzieli.
      Źródło: Large Language Models as Autonomous Spacecraft Operators in Kerbal Space Program, https://arxiv.org/abs/2505.19896

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niedawno astronomowie usłyszeli głos z kosmicznych zaświatów. Potężny krótkotrwały impuls na chwilę przyćmił wszystkie źródła sygnałów radiowych. Clancy James z australijskiego Curtin University i jego zespół skanowali nieboskłon za pomocą Australian Square Kilometre Array Pathfinder (ASKAP) – zestawu 36 radioteleskopów znajdujących się w Zachodniej Australii – odebrali krótki, bardzo silny sygnał. 
      Niezwykle podekscytowani stwierdzili, być może odkryli nowy pulsar lub inny obiekt, a że źródło sygnału  wydawało się pochodzić z naszej galaktyki, stwierdzili, że nowy obiekt powinien być widoczny za pomocą teleskopów optycznych. Jednak gdy bardziej szczegółowo przeanalizowali sygnał okazało się, że jego źródło było tak blisko, iż ASKAP nie skupić na nim jednocześnie wszystkich swoich anten. A to oznaczało, że źródło sygnału musi znajdować się mniej niż 20 tysięcy kilometrów od Ziemi. Impuls trwał zaledwie 30 nanosekund i przez tę chwilę silniejszy, niż wszystko inne rejestrowane za pomocą radioteleskopów.
      Gdy Australijczycy przeanalizowali pozycję źródła sygnału i porównali ją z pozycjami wszystkich znanych satelitów okazało się, że jedynym możliwym źródłem sygnału jest Relay 2. To jeden z pierwszych satelitów w historii. Został wystrzelony w 1964 roku i służył NASA jako eksperymentalne urządzenie komunikacyjne. Agencja przestała używać Relay 2 już w 1965 roku, natomiast pokładowa elektronika satelity działała do roku 1967. Wówczas Relay 2 zamilkł i od tej pory krąży wokół Ziemi jako bezwładny kawałek metalu.
      Teraz, po niemal 60 latach satelita znowu wysłał sygnał. Jednak jego urządzenie nie działają, więc źródłem sygnału musiały być czynniki zewnętrzne. Clancy i jego koledzy sądzą, że albo na powierzchni satelity zebrały się ładunki elektrostatyczne i doszło do wyładowania, albo uderzył w niego mikrometeoryt, który wywołał pojawienie się chmury plazmy. Sygnały z obu tych wydarzeń wyglądają podobnie, więc trudno byłoby je odróżnić. Przede wszystkim ktoś musiałby chcieć przeprowadzić takie badania. Tylko po co?
      Źródło: A nanosecond-duration radio pulse originating from the defunct Relay 2 satellite, https://arxiv.org/abs/2506.11462

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie lotniczy i kosmiczni z MIT odkryli, że sposób, w jaki emisja gazów cieplarnianych wpływa na atmosferę, zmniejszy liczbę satelitów, które można będzie umieścić na niskiej orbicie okołoziemskiej (LEO). Na łamach Nature Sustainability stwierdzają, że rosnąca emisja gazów cieplarnianych zmniejsza zdolność atmosfery do usuwania odpadków krążących wokół Ziemi.
      Badacze zauważyli, że dwutlenek węgla i inne gazy cieplarniane powodują, iż górne warstwy atmosfery się kurczą. Głównie interesuje ich termosfera, w której krąży Międzynarodowa Stacja Kosmiczna i większość satelitów. Gdy termosfera się kurczy, jej zmniejszająca się gęstość prowadzi do zmniejszenia oporów, a to właśnie opór aerodynamiczny jest tym czynnikiem, który powoduje, że kosmiczne śmieci – chociażby pozostałości po nieczynnych satelitach – opadają w kierunku Ziemi i płoną w atmosferze. Mniejszy opór oznacza, że odpady takie będą dłużej znajdowały się na orbicie, zatem ich liczba będzie rosła, a to zwiększa ryzyko kolizji z działającymi satelitami i innymi urządzeniami znajdującymi się w tych samych rejonach.
      Naukowcy przeprowadzili symulacje, których celem było sprawdzenie, jak emisja dwutlenku węgla wpłynie na górne partie atmosfery i astrodynamikę. Wynika z nich, że do roku 2100 pojemność najpopularniejszych regionów orbity zmniejszy się o 50–66 procent właśnie z powodu gazów cieplarnianych.
      Nasze zachowanie na Ziemi w ciągu ostatnich 100 lat wpływa na to, w jaki sposób będziemy używali satelitów przez kolejnych 100 lat, mówi profesor Richard Linares z Wydziału Aeronautyki i Astronautyki MIT. Emisja gazów cieplarnianych niszczy delikatną równowagę górnych warstw atmosfery. Jednocześnie gwałtownie rośnie liczba wystrzeliwanych satelitów, szczególnie telekomunikacyjnych, zapewniających dostęp do internetu. Jeśli nie będziemy mądrze zarządzali satelitami i nie ograniczymy emisji, orbita stanie się zbyt zatłoczona, co będzie prowadziło do większej liczby kolizji i większej liczby krążących na niej szczątków, dodaje główny autor badań, William Parker.
      Termosfera kurczy się i rozszerza w 11-letnich cyklach, związanych z cyklami aktywności słonecznej. Gdy aktywność naszej gwiazdy jest niska, do Ziemi dociera mniej promieniowania, najbardziej zewnętrzne warstwy atmosfery tymczasowo się ochładzają i kurczą. W okresie zwiększonej aktywności słonecznej są one cieplejsze i rozszerzają się.
      Już w latach 90. naukowcy stworzyli modele, z których wynikało, że w miarę ocieplania się klimatu na Ziemi, górne warstwy atmosfery będą się schładzały, co doprowadzi do kurczenia się termosfery i zmniejszania jej gęstości.
      W ciągu ostatniej dekady nauka zyskała możliwość precyzyjnych pomiarów oporu aerodynamicznego działającego na satelity. Pomiary te pokazały, że termosfera kurczy się w odpowiedzi na zjawisko wykraczające poza naturalny 11-letni cykl. Niebo dosłownie spada, w tempie liczonych w dziesięcioleciach. A widzimy to na podstawie zmian oporów doświadczanych przez satelity, wyjaśnia Parker.
      Naukowcy z MIT postanowili sprawdzić, w jaki sposób to zmierzone zjawisko wpłynie na liczbę satelitów, które można bezpiecznie umieścić na niskiej orbicie okołoziemskiej. Ma ona wysokość do 2000 kilometrów nad powierzchnią Ziemi. Obecnie na orbicie tej znajduje się ponad 10 000 satelitów. Ich liczba jest już tak duża, że operatorzy satelitów standardowo muszą wykonywać manewry unikania kolizji. Każda taka kolizja oznacza nie tylko zniszczenie satelity, ale też pojawienie się olbrzymiej liczby szczątków, które będą krążyły na orbicie przez kolejne dekady i stulecia, zwiększając ryzyko kolejnych kolizji.
      W ciągu ostatnich 5 lat ludzkość umieściła na LEO więcej satelitów, niż przez wcześniejszych 60 lat. Jednym z głównych celów badań było sprawdzenie, czy sposób, w jaki obecnie prowadzimy działania na niskiej orbicie okołoziemskiej można będzie utrzymać w przyszłości. Naukowcy symulowali różne scenariusze emisji gazów cieplarnianych i sprawdzali, jak wpływa to na gęstość atmosfery i opór aerodynamiczny. Następnie dla każdego z tych scenariuszy sprawdzali jego wpływ na astrodynamikę i ryzyko kolizji w zależności od liczby obiektów znajdujących się na orbicie. W ten sposób obliczali „zdolność ładunkową” orbity. Podobnie jak sprawdza się, ile osobników danego gatunku może utrzymać się w danym ekosystemie.
      Z obliczeń wynika, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to liczba satelitów, jakie można umieścić na wysokości od 200 do 1000 kilometrów nad Ziemią będzie o 50–66 procent mniejsza niż w scenariuszu utrzymania poziomu emisji z roku 2000. Jeśli „zdolność ładunkowa” orbity zostanie przekroczona, nawet lokalnie, dojdzie do całej serii kolizji, przez co pojawi się tyle szczątków, że orbita stanie się bezużyteczna.
      Autorzy badań ostrzegają, że niektóre regiony orbity już zbliżają się do granicy ich „zdolności ładunkowej”. Dzieje się tak głównie przez nowy trend, budowanie megakonstelacji olbrzymiej liczby małych satelitów, takich jak Starlink SpaceX.
      Polegamy na atmosferze, która oczyszcza orbitę z pozostawionych przez nas odpadów. Jeśli atmosfera się zmienia, zmienia się też środowisko, w którym znajdują się odpady. Pokazujemy, że długoterminowe możliwości usuwania odpadów z orbity są uzależnione od zmniejszenia emisji gazów cieplarnianych, podsumowuje Richard Linares.
      Specjaliści szacują, że obecnie na orbicie znajduje się 40 500 odpadków o rozmiarach większych niż 10 cm, 1 milion 100 tysięcy odpadków wielkości od 1 do 10 cm oraz 130 milionów śmieci wielkości od 1 mm do 1 cm. Nawet te najmniejsze odpady stanowią duże zagrożenie. Średnia prędkość kolizji, do jakich między nimi dochodzi, to 11 km/s czyli około 40 000 km/h.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po raz pierwszy doszło do nieudanego wystrzelenia satelitów z konstelacji Starlink. W wyniku awarii satelity znalazły się na bardzo niskiej orbicie i wkrótce spłoną w atmosferze. Firma SpaceX zapewnia, że nie stanowią one zagrożenia. Pierwsze Starlinki trafiły na orbitę w 2019 roku. Obecnie konstelacja składa się z ponad 6000 niewielkich satelitów znajdujących się na niskiej orbicie okołoziemskiej (LEO).
      Dwadzieścia satelitów Starlink zostało wystrzelonych przed 4 dniami na pokładzie rakiety Falcon 9 z Vandenberg Space Force Base. Pierwszy stopień rakiety spisał się bez zarzutu, wynosząc na orbitę drugi stopień i satelity. Następnie oddzielił się od nich i z powodzeniem wylądował. Było to już 329. udane lądowanie rakiety nośnej przeprowadzone przez SpaceX.
      Pierwsze uruchomienie silników 2. stopnia przebiegło zgodnie z planem, jednak pojawił się wyciek ciekłego tlenu. W związku z tym silnik Merlin, który miał wynieść satelity na prawidłową orbitę, nie spełnił swojego zadania.
      Co prawda satelity zostały prawidłowo zwolnione, ale znajdują się na orbicie o dużym mimośrodzie, która w najniższym punkcie znajduje się zaledwie 135 kilometrów nad Ziemią. To ponaddwukrotnie niżej, niż powinny się znaleźć. Na tej wysokości pojazdy doświadczają znacznego tarcia o atmosferę, przez co z każdym obiegiem tracą 5 kilometrów wysokości w apogeum (najwyższym punkcie orbity). Oddziaływanie atmosfery na satelity jest tak silne, że ich silniki nie poradzą sobie z wyniesieniem pojazdów na prawidłową orbitę. Dlatego wkrótce satelity wejdą w atmosferę i w niej spłoną.
      SpaceX oświadczyła, że nie zagrażają one ani innym satelitom, ani ludziom na Ziemi. To przypomina nam, jak wymagające technicznie są loty w kosmos. Dotychczas przeprowadziliśmy 364 udane starty rakiet Falcon – które bezpiecznie dostarczały astronautów, ładunki i tysiące satelitów Starlink na orbitę – co czyni z rodziny Falcon jedną z najlepszych serii rakiet nośnych w historii, czytamy w firmowym oświadczeniu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zmiany klimatu niosą ze sobą wiele różnych zagrożeń. Jedną są bardziej oczywiste, inne mniej. Do kategorii tych drugich należą z pewnością zagrożenia dla... badań astronomicznych. Naukowcy z Uniwersytetu w Bernie, Politechniki Federalnej w Zurichu, Europejskiego Obserwatorium Południowego oraz Uniwersytetu w Reading przeprowadzili analizy wpływu zmian klimatycznych na badania prowadzone przez osiem najważniejszych naziemnych teleskopów. Wynika z nich, że musimy spodziewać się pogorszenia warunków do badań, a co za tym idzie, skrócenia czasu obserwacyjnego dla jednych z najcenniejszych instrumentów badawczych dostępnych nauce.
      Miejsca, w których zostaną wybudowane teleskopy przyszłej generacji są wybierane na dekady zanim urządzenia te rozpoczną swoje obserwacje. Później teleskopy takie pracują przez około 30 lat. Jest zatem niezwykle ważne, by móc określić, z wyprzedzeniem wynoszącym wiele dekad, móc określić, jak będą zmieniały się warunki w miejscu planowanej budowy. Tymczasem obecnie wyboru miejsc dokonuje się na podstawie pomiarów zbyt krótkich, by mogły one dać odpowiedź na pytanie o długookresowe zmiany klimatu.
      Jakość naziemnych obserwacji astronomicznych w dużej mierze zależy od klimatu. Supernowoczesne potężne teleskopy zwykle umieszcza się na dużych wysokościach, by skorzystać z dobrej przejrzystości atmosfery oraz szuka się miejsc o niskiej temperaturze i niskiej zawartości pary wodnej.
      Astrofizyk Caroline Haslebacher z Uniwersytetu w Bernie i jej koledzy zwracają uwagę, że zwykle przy wyszukiwaniu takiego miejsca bierze się pod uwagę ostatnich 5 lat. To zbyt mało. Uczeni postanowili więc zmierzyć się z tym problemem i przeprowadzili analizę, która miała na celu sprawdzić, jak w miejscach, w których znajdują się najważniejsze obecnie teleskopy – na Hawajach, w Chile, na Wyspach Kanaryjskich, w Australii, RPA i Meksyku – będzie zmieniał się klimat. Okazało się, że do roku 2050 wszędzie tam dojdzie do zwiększenia temperatury, wilgotności właściwej oraz zawartości wody opadowej w atmosferze.
      Czynniki te zmniejszą jakość obserwacji i prawdopodobnie doprowadzą do mniej intensywnego wykorzystania urządzeń z powodu złych warunków obserwacyjnych. Na przykład zwiększenie temperatury i wilgotności właściwej może zwiększyć kondensację pary wodnej na urządzeniach oraz będzie miało negatywny wpływ na systemy chłodzenia wewnątrz kopuł teleskopów. Z kolei zwiększenie zawartości wody opadowej będzie wiązało się z większą absorpcją światła, szczególnie podczerwonego, przez atmosferę, a więc mniej światła będzie docierało do teleskopów.
      Problemy szczególnie dotkną obserwatoriów projektowanych z myślą o pracy w szczególnych warunkach. Na przykład Paranal Observatory w Chile może pracować, gdy temperatura powietrza przy powierzchni nie przekracza 16 stopni Celsjusza, a Teleskop Williama Herschela na Wyspach Kanaryjskich nie może pracować, jeśli temperatura jego lustra wynosi 2 stopnie Celsjusza lub mniej powyżej punktu rosy.
      Przeprowadzona analiza nie wykazała za to zmian wilgotności względnej, pokrywy chmur czy turbulencji atmosferycznych. Autorzy badań zastrzegają jednak, że turbulencje jest szczególnie trudno przewidzieć, a w związku ze zmianami temperatury i prądów powietrznych należy się ich spodziewać.
      Antropogeniczne zmiany klimatu powinny być brane pod uwagę przy wybieraniu miejsc budowy teleskopów przyszłej generacji, podsumowuje Haslebacher.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...