Konstelacje sztucznych satelitów stanowią coraz większe zagrożenie dla badań naukowych
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Po raz pierwszy doszło do nieudanego wystrzelenia satelitów z konstelacji Starlink. W wyniku awarii satelity znalazły się na bardzo niskiej orbicie i wkrótce spłoną w atmosferze. Firma SpaceX zapewnia, że nie stanowią one zagrożenia. Pierwsze Starlinki trafiły na orbitę w 2019 roku. Obecnie konstelacja składa się z ponad 6000 niewielkich satelitów znajdujących się na niskiej orbicie okołoziemskiej (LEO).
Dwadzieścia satelitów Starlink zostało wystrzelonych przed 4 dniami na pokładzie rakiety Falcon 9 z Vandenberg Space Force Base. Pierwszy stopień rakiety spisał się bez zarzutu, wynosząc na orbitę drugi stopień i satelity. Następnie oddzielił się od nich i z powodzeniem wylądował. Było to już 329. udane lądowanie rakiety nośnej przeprowadzone przez SpaceX.
Pierwsze uruchomienie silników 2. stopnia przebiegło zgodnie z planem, jednak pojawił się wyciek ciekłego tlenu. W związku z tym silnik Merlin, który miał wynieść satelity na prawidłową orbitę, nie spełnił swojego zadania.
Co prawda satelity zostały prawidłowo zwolnione, ale znajdują się na orbicie o dużym mimośrodzie, która w najniższym punkcie znajduje się zaledwie 135 kilometrów nad Ziemią. To ponaddwukrotnie niżej, niż powinny się znaleźć. Na tej wysokości pojazdy doświadczają znacznego tarcia o atmosferę, przez co z każdym obiegiem tracą 5 kilometrów wysokości w apogeum (najwyższym punkcie orbity). Oddziaływanie atmosfery na satelity jest tak silne, że ich silniki nie poradzą sobie z wyniesieniem pojazdów na prawidłową orbitę. Dlatego wkrótce satelity wejdą w atmosferę i w niej spłoną.
SpaceX oświadczyła, że nie zagrażają one ani innym satelitom, ani ludziom na Ziemi. To przypomina nam, jak wymagające technicznie są loty w kosmos. Dotychczas przeprowadziliśmy 364 udane starty rakiet Falcon – które bezpiecznie dostarczały astronautów, ładunki i tysiące satelitów Starlink na orbitę – co czyni z rodziny Falcon jedną z najlepszych serii rakiet nośnych w historii, czytamy w firmowym oświadczeniu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Zmiany klimatu niosą ze sobą wiele różnych zagrożeń. Jedną są bardziej oczywiste, inne mniej. Do kategorii tych drugich należą z pewnością zagrożenia dla... badań astronomicznych. Naukowcy z Uniwersytetu w Bernie, Politechniki Federalnej w Zurichu, Europejskiego Obserwatorium Południowego oraz Uniwersytetu w Reading przeprowadzili analizy wpływu zmian klimatycznych na badania prowadzone przez osiem najważniejszych naziemnych teleskopów. Wynika z nich, że musimy spodziewać się pogorszenia warunków do badań, a co za tym idzie, skrócenia czasu obserwacyjnego dla jednych z najcenniejszych instrumentów badawczych dostępnych nauce.
Miejsca, w których zostaną wybudowane teleskopy przyszłej generacji są wybierane na dekady zanim urządzenia te rozpoczną swoje obserwacje. Później teleskopy takie pracują przez około 30 lat. Jest zatem niezwykle ważne, by móc określić, z wyprzedzeniem wynoszącym wiele dekad, móc określić, jak będą zmieniały się warunki w miejscu planowanej budowy. Tymczasem obecnie wyboru miejsc dokonuje się na podstawie pomiarów zbyt krótkich, by mogły one dać odpowiedź na pytanie o długookresowe zmiany klimatu.
Jakość naziemnych obserwacji astronomicznych w dużej mierze zależy od klimatu. Supernowoczesne potężne teleskopy zwykle umieszcza się na dużych wysokościach, by skorzystać z dobrej przejrzystości atmosfery oraz szuka się miejsc o niskiej temperaturze i niskiej zawartości pary wodnej.
Astrofizyk Caroline Haslebacher z Uniwersytetu w Bernie i jej koledzy zwracają uwagę, że zwykle przy wyszukiwaniu takiego miejsca bierze się pod uwagę ostatnich 5 lat. To zbyt mało. Uczeni postanowili więc zmierzyć się z tym problemem i przeprowadzili analizę, która miała na celu sprawdzić, jak w miejscach, w których znajdują się najważniejsze obecnie teleskopy – na Hawajach, w Chile, na Wyspach Kanaryjskich, w Australii, RPA i Meksyku – będzie zmieniał się klimat. Okazało się, że do roku 2050 wszędzie tam dojdzie do zwiększenia temperatury, wilgotności właściwej oraz zawartości wody opadowej w atmosferze.
Czynniki te zmniejszą jakość obserwacji i prawdopodobnie doprowadzą do mniej intensywnego wykorzystania urządzeń z powodu złych warunków obserwacyjnych. Na przykład zwiększenie temperatury i wilgotności właściwej może zwiększyć kondensację pary wodnej na urządzeniach oraz będzie miało negatywny wpływ na systemy chłodzenia wewnątrz kopuł teleskopów. Z kolei zwiększenie zawartości wody opadowej będzie wiązało się z większą absorpcją światła, szczególnie podczerwonego, przez atmosferę, a więc mniej światła będzie docierało do teleskopów.
Problemy szczególnie dotkną obserwatoriów projektowanych z myślą o pracy w szczególnych warunkach. Na przykład Paranal Observatory w Chile może pracować, gdy temperatura powietrza przy powierzchni nie przekracza 16 stopni Celsjusza, a Teleskop Williama Herschela na Wyspach Kanaryjskich nie może pracować, jeśli temperatura jego lustra wynosi 2 stopnie Celsjusza lub mniej powyżej punktu rosy.
Przeprowadzona analiza nie wykazała za to zmian wilgotności względnej, pokrywy chmur czy turbulencji atmosferycznych. Autorzy badań zastrzegają jednak, że turbulencje jest szczególnie trudno przewidzieć, a w związku ze zmianami temperatury i prądów powietrznych należy się ich spodziewać.
Antropogeniczne zmiany klimatu powinny być brane pod uwagę przy wybieraniu miejsc budowy teleskopów przyszłej generacji, podsumowuje Haslebacher.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Jednym z powodów, dla których NASA od wielu lat wspiera rozwój prywatnego przemysłu kosmicznego jest chęć skupienia się na eksploracji dalszych części przestrzeni kosmicznej i pozostawienie w prywatnych rękach wszelkich działań na niskiej orbicie okołoziemskiej. Jednym z takich działań może być zastąpienie przez sieć Starlink starzejącej się konstelacji TDRS (Tracking and Date Relay Satellite), która zapewnia łączność z Międzynarodową Stacją Kosmiczną.
NASA już ogłosiła, że w przyszłej dekadzie chce wysłać na emeryturę sześć satelitów tworzących TDRS. A teraz poinformowała o zaproszeniu do współpracy sześciu prywatnych firm, w tym amerykańskich SpaceX i Viasat, brytyjskiej Inmarsat oraz szwajcarskiej SES, które mają zaprezentować swoje pomysły na spełnienie przyszłych wymagań NASA dotyczących komunikacji w przestrzeni kosmicznej.
Pierwsza konstelacja satelitów TDRS pojawiła się na orbicie w latach 80. ubiegłego wieku. Została ona pomyślana jako wsparcie dla misji wahadłowców kosmicznych. Obecna, trzecia generacja satelitów, została wystrzelona w 2017 roku. Zadaniem TDRS jest zapewnienie nieprzerwanej łączności pomiędzy pojazdem znajdującym się na orbicie planety, a naziemnymi centrami kontroli NASA. Obecne TDRS wspiera misję Międzynarodowej Stacji Kosmicznej, Teleskopu Hubble'a i inne misje naukowe.
Do zapewnienia ciągłej łączności konieczna jest obecność co najmniej trzech satelitów na orbicie geostacjonarnej. Znajduje się ona na wysokości 36 000 kilometrów nad Ziemią, a okres orbitalny satelitów odpowiada okresowi obrotowemu Ziemi, dzięki czemu satelity są zawieszone nad tym samym punktem planety.
Obecnie TDRS składa się z sześciu działających satelitów, ale trzy z nich to satelity drugiej generacji, liczą sobie ponad 20 lat i zbliża się koniec ich pracy. W latach 80., gdy rozwijaliśmy TDRS, komercyjne firmy nie były w stanie zapewnić takiej usługi. Jednak od tamtego czasu prywatny przemysł zainwestował w dziedzinę łączności satelitarnej znacznie więcej, niż NASA. Istnieje bardzo rozbudowana infrastruktura, zarówno na orbicie jak i na Ziemi, która może dostarczyć potrzebnych nam usług, mówi Eli Naffah, menedżer w wydziale Commercial Services Project, który odpowiada za współpracę NASA z partnerami komercyjnymi.
Sześć zaproszonych do współpracy firm ma trzy lata na stworzenie systemów, za pomocą których zaprezentują NASA swoje możliwości w zakresie zapewnienia łączności z pojazdem na orbicie okołoziemskiej. Naffah mówi, że może to być wyzwaniem. Dotychczas bowiem komercyjne przedsiębiorstwa zajmujące się komunikacją za pomocą satelitów zapewniały łączność dla stacjonarnych anten naziemnych lub obiektów poruszających się ze stosunkowo niewielką prędkością, jak statki czy samoloty pasażerskie. Tymczasem NASA potrzebuje łączności z obiektami znajdującymi się w przestrzeni kosmicznej, która poruszają się ze znacznymi prędkościami. Międzynarodowa Stacja Kosmiczna okrąża Ziemię z prędkością 28 000 km/h.
W ciągu najbliższych pięciu lat NASA ma zamiar zainwestować w projekt 278 milionów USD, a komercyjni partnerzy zainwestują w sumie 1,5 miliarda dolarów.
Mamy nadzieję, że zaoszczędzimy nieco pieniędzy dzięki zakupie komercyjnych usług łączności, zrezygnowania z konieczności rozwoju i utrzymywania własnych satelitów komunikacyjnych i większym skupieniu się na badaniach naukowych i eksploracji kosmosu, dodaje Naffah.
Rezygnacja z samodzielnego zapewniania łączności z obiektami na orbicie okołoziemskiej to kolejny krok w wycofywaniu się NASA z niskiej orbity okołoziemskiej. Już w tej chwili Agencja kupuje usługi transportowania astronautów i towarów od SpaceX i Northropa Grummana, a jeszcze w bieżącym roku do tej dwójki ma dołączyć Boeing. NASA oświadczyła też, że w roku 2030 wyłączy Międzynarodową Stację Kosmiczną i ma nadzieję, że od tej pory wszelkie prace na niskiej orbicie okołoziemskiej będą spoczywały na barkach prywatnych firm.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Od dziesięcioleci astronomowie sądzą, że sąsiadujące z Drogą Mleczną galaktyki karłowate są jej satelitami, czyli zostały przechwycone przez naszą galaktykę i towarzyszą jej od miliardów lat. Teraz, dzięki danym z misji Gaia, zmierzono ruch tych galaktyk z niespotykaną wcześniej dokładnością, a uzyskane wyniki zaskoczyły ekspertów.
François Hammer z Observatoire de Paris oraz grupa uczonych z innych krajów europejskich i Chin wyliczyli trasy 40 galaktyk karłowatych w pobliżu Drogi Mlecznej. Okazało się, że poruszają się one znacznie szybciej niż wielkie gwiazdy oraz gromady gwiazd krążące wokół naszej galaktyki. Prędkość tych galaktyk jest tak duża, że nie mogą znajdować się na orbitach wokół Drogi Mlecznej, gdyż gdyby tak było, interakcja z naszą galaktyką zmniejszyłaby ich energię orbitalną oraz moment pędu.
W przeszłości Droga Mleczna wchłonęła wiele galaktyk karłowatych. Przed rokiem astronomowie odtworzyli jej drzewo genealogiczne, odkrywając nieznaną wcześniej – prawdopodobnie najważniejszą w jej dziejach – kolizję z Krakenem. Natomiast 8–10 miliardów lat temu taki los spotkał galaktykę Gaia-Enceladus. Do dzisiaj jesteśmy w stanie określić, które z gwiazd wchodziły w jej skład, gdyż mają one odmienne orbity i energie. Z kolei 4–5 miliardów lat temu Droga Mleczna przechwyciła galaktykę karłowatą Sagittarius i właśnie rozrywa ją na strzępy. Energia gwiazd tej galaktyki jest większa niż gwiazd Gaia-Enceladus, co wskazuje, że krócej znajdują się one pod wpływem Drogi Mlecznej. Tymczasem energia większości galaktyk karłowatych w pobliżu Drogi Mlecznej jest wciąż duża, a to oznacza, że znalazły się w naszym sąsiedztwie zaledwie w ciągu ostatnich kilku miliardów lat.
Warto tutaj przypomnieć o przypadku Wielkiego Obłoku Magellana. To duża galaktyka karłowata, która jest tak blisko Drogi Mlecznej, że widać ją w postaci smugi na nocnym niebie półkuli południowej. Jeszcze przed dwiema dekadami sądzono, że Wielki Obłok jest galaktyką satelitarną. Jednak gdy zmierzono jej prędkość okazało się, że przemieszcza się zbyt szybko, by być grawitacyjnie związaną z naszą galaktyką. Okazało się, że obie galaktyki spotkały się po raz pierwszy. Teraz dowiadujemy się, że tak jest w przypadku większości galaktyk karłowatych.
Rodzi się więc pytanie, czy wspomniane galaktyki karłowate nas miną czy też zostaną przechwycone i wejdą na orbitę Drogi Mlecznej? Część z nich zostanie przechwycona i stanie się satelitami, uważa Hammer. Jednak stwierdzenie, które to będą jest trudne, gdyż zależy to od masy Drogi Mlecznej, a tej naukowcy nie potrafią obecnie dokładnie określić. Tym bardziej, że na bieżąco wchłania ona materiał z sąsiednich galaktyk.
Gdy galaktyka karłowata znajdzie się na orbicie Drogi Mlecznej, zwykle oznacza to dla niej wyrok śmierci. Nasza galaktyka jest duża, więc generuje gigantyczne siły pływowe oddziałujące na otoczenie. Są one tak wielkie, że potrafią rozerwać galaktykę karłowatą już przy pierwszym okrążeniu na orbicie. Oprzeć się tej niszczycielskiej sile mogą tylko te galaktyki karłowate, które w znaczącym stopniu składają się z ciemnej materii. Z tego też powodu, dopóki sądzono, że większość galaktyk karłowatych jest satelitami Drogi Mlecznej krążących wokół niej od wielu miliardów lat, uważano, że muszą one zawierać dużo ciemnej materii, skoro nie zostały jeszcze zniszczone. Teraz, gdy dowiedzieliśmy się, że nie są satelitami, okazuje się, że nie muszą zawierać ciemnej materii. Naukowcy będą więc chcieli zbadać, czy galaktyki te znajdują się w stanie równowagi, czy też właśnie są niszczone przez Drogę Mleczną.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Najnowsze odkrycie naukowców z Uniwersytetu Przyrodniczego we Wrocławiu dowodzi, że dotychczasowe podejście do korygowania błędów wynikających z opóźnienia wiązki laserowej w atmosferze było wadliwe. Dlatego proponują zupełnie nowe rozwiązanie, dzięki któremu obserwacje m.in.: kształtu Ziemi, topniejących lodowców oraz zmian poziomu wód oceanicznych będą dokładniejsze.
Pomiary laserowe opierają się na rejestracji różnicy czasu pomiędzy momentem wysłania impulsu laserowego na stacji a momentem powrotu tego samego impulsu po tym, gdy zostanie on odbity przez retroreflektor na satelicie lub Księżycu. Podczas pomiaru wiązka laserowa przechodzi dwukrotnie przez atmosferę ziemską, gdzie ulega ugięciu i opóźnieniu. Technologia detektorów laserowych pozwala na uzyskanie dokładności sub-milimerowych. Jednakże błędy wyznaczenia opóźnienia wiązki laserowej w atmosferze są wielokrotnie większe i stanowią główne źródło błędów w pomiarach laserowych do satelitów i Księżyca.
Na czym polega nowatorstwo rozwiązania Polaków?
Naukowcy z Instytutu Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu zaproponowali zupełnie nowe i innowacyjne podejście do korygowania opóźnienia wiązki laserowej w atmosferze. Podejście opiera się na uwzględnieniu grubości warstw atmosfery, przez które przechodzi laser. Do wyznaczenia wartości opóźnienia lasera wykorzystuje się odczyty meteorologiczne na stacji, do których wyliczana jest poprawka zależna od wysokości satelity nad horyzontem oraz od początkowej wartości opóźnienia wiązki lasera. W zaproponowanej metodzie analizuje się wszystkie pomierzone odległości na wszystkich stacjach i wylicza się dla każdej stacji poprawki, które są wprost proporcjonalne do opóźnienia wiązki lasera wynikającego z bezpośrednich pomiarów meteorologicznych i grubości atmosfery, którą musi pokonać laser. Poprawkę meteorologiczną wystarczy wyliczać raz na tydzień dla każdej stacji laserowej, dzięki czemu obliczenia pozostają stabilne nawet dla stacji z niewielką liczbą zarejestrowanych pomiarów laserowych do satelitów, a zarazem błąd wynikający z opóźnienia atmosferycznego zostaje prawie całkowicie usunięty. Metoda opracowana przez polski zespół pozwala na skuteczną eliminację od 75 do 90% błędów systematycznych w pomiarach laserowych wynikających z błędów opóźnienia atmosferycznego.
Sposób redukcji błędów meteorologicznych już niedługo ma szansę stać się standardem w laserowych pomiarach odległości do satelitów zwiększając dokładność nawet historycznych obserwacji Księżyca i satelitów, dzięki swojej prostocie i uniwersalności. Pozwala również na wykrycie błędnych odczytów z barometrów, które wcześniej negatywnie wpływały na satelitarne obserwacje Ziemi i Księżyca. Przełoży się to na poprawę przyszłych oraz wcześniejszych obserwacji kształtu Ziemi, tzw. geoidy, zmiany centrum masy Ziemi i obserwacji nieregularności w ruchu obrotowym, obserwacji topniejących lodowców oraz zmian poziomu wód oceanicznych.
Po co mierzymy odległości do satelitów?
Dzięki pomiarom laserowym do sztucznych i naturalnego satelity Ziemi dowiedzieliśmy się, ile wynosi stała grawitacji i masa Ziemi, o ile zmienia się spłaszczenie Ziemi w czasie, możemy korygować i wyliczać poprawki pozycji satelitów Galileo i GLONASS oraz zidentyfikowaliśmy, gdzie znajduje się środek masy Ziemi i jak przemieszcza się w czasie za sprawą topniejących lodowców na Grenlandii. Pomiary laserowe do Księżyca pozwoliły odkryć, że Księżyc oddala się od Ziemi o 3,8 cm rocznie. Ponadto pozwoliły na dokładny opis wahań w ruchu Księżyca, czyli tzw. libracji oraz zrewidować pochodzenie srebrnego globu.
Wrocławskie centrum obliczeniowe pomiarów laserowych
Grupa badawcza kierowana przez profesora Krzysztofa Sośnicę od wielu lat zajmuje się rozwojem technik laserowych i mikrofalowych w geodezji satelitarnej, a także wyznaczaniem precyzyjnych orbit sztucznych satelitów i parametrów opisujących Ziemię. W Instytucie Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu od 2017 roku funkcjonuje Stowarzyszone Centrum Analiz Międzynarodowej Służby Pomiarów Laserowych do Sztucznych Satelitów i Księżyca (ang. International Laser Ranging Service, ILRS). Centrum odpowiada za monitorowanie jakości orbit satelitów Globalnych Nawigacyjnych Systemów Satelitarnych (GNSS): Galileo, GLONASS, BeiDou i QZSS z wykorzystaniem orbit opartych o obserwacje mikrofalowe i bezpośrednie pomiary laserowe. Jako jedyne na świecie, wrocławskie centrum specjalizuje się w kombinacji dwóch technik obserwacyjnych sztucznych satelitów: laserowej i mikrofalowej GNSS.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.