Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

ESA uchroniła satelitę przed zderzeniem z satelitą SpaceX

Recommended Posts

Europejska Agencja Kosmiczna poinformowała, że musiała przesunąć jednego ze swoich satelitów, by uniknąć zderzenia z satelitą Starlink firmy SpaceX. Jak poinformowano na Twitterze, konieczne było wykonanie manewru unikania kolizji, by zapobiec zderzeniu satelitą należącym do megakonstelacji Starlink.

ESA musiała uruchomić silniki manewrowe satelity Aeolus i wprowadzić go na większą wysokość, by mógł on przelecieć nad jednym ze Starlinków.

Aeolus to satelita naukowy wystrzelony w sierpniu 2018 roku. Jego głównym zadaniem jest poprawa jakości prognoz meteorologicznych. ESA informuje, że bardzo rzadko zdarza się konieczność przemieszczania satelitów, by uniknęły one zderzenia z innymi satelitami. Znacznie częściej zdarza się konieczność manewrowania, by uniknąć kosmicznych śmieci.
Orbita Aeolusa znajduje się niżej niż orbity satelitów konstelacji Starlink, jednak Starlink 44 znalazł się na kursie kolizyjnym z Aeolusem, gdyż SpaceX ćwiczyło techniki dezorbitacji satelity.

Konstelacja Starlink to zespół satelitów komunikacyjnych firmy SpaceX. Firma Muska chce za ich pomocą zapewnić łączność sateliterną na całym świecie. Konstelacja ma zostać uruchomiona, gdy na orbicie znajdzie się 800 satelitów Starlink. Docelowo zaś ma być ich 12 000.

Plany SpaceX i podobne zamiary innych firm, które łącznie chcą na orbicie okołoziemskiej umieścić dziesiątki tysięcy satelitów, niepokoją naukowców. Obawiają się oni, że tak olbrzymia liczba satelitów, przede wszystkim zaś satelitów komunikacyjnych, ciągle wysyłających i odbierających sygnały, utrudni lub wręcz uniemożliwi prowadzenie wilu badań. "Ostatnie postępy radioastronomii, takie jak stworzenie pierwszego obrazu czarnej dziury były możliwe tylko dzięki temu, że nieboskłon jest wolny od interferencji sztucznych sygnałów radiowych" – oświadczyła Międzynarodowa Unia Astronomiczna. Oczywiście właściciele firm, tacy jak Elon Musk, chcących robić biznes na satelitach, twierdzą, że nie będą one w żaden sposób zakłócały badań naukowych. Nie wyjaśniają jednak, jak tysiące takich obiektów miałyby pozostać bez wpływu na astronomię.

Jak zresztą widzimy, obawy naukowców były jak najbardziej uzasadnione. W przyszłości jednak ręczne unikanie kolizji może nie wystarczyć. Dlatego też ESA pracuje nad zautomatyzowanym systemem, który pozwoli na uchronienie satelitów przed zderzeniami. Agencja musi się pospieszyć, gdyż dziesiątki tysięcy nowych satelitów może trafić na orbity już w ciągu najbliższych 5–7 lat.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Astronomowie obserwują ostatnie etapy łączenia się trzech supermasywnych czarnych dziur. Krążą one wokół siebie w centrum trzech galaktyk, do połączenia których dochodzi w odległości około miliarda lat świetlnych od Ziemi. Niezwykły taniec czarnych dziur specjaliści zauważyli wewnątrz obiektu SDSS J084905.51+111447.2.
      Obserwowaliśmy parę czarnych dziur, a gdy użyliśmy kolejnych technik [obrazowania rentgenowskiego o wysokiej rozdzielczości przestrzennej, obrazowania w bliskiej podczerwieni oraz spektroskopii optycznej – red.] znaleźliśmy ten niezwykły system, mówi główny autor badań, Ryan Pfeifle z George Mason University. Mamy tutaj najsilniejsze z dostępnych dowodów na istnienie systemu trzech aktywnych supermasywnych czarnych dziur.
      Badania wspomnianego systemu rozpoczęły się od jego obrazowania w świetle widzialnym za pomocą teleskopu Sloan Digital Sky Survey (SDSS) w Nowym Meksyku. Dane udostępniono w społecznościowym projekcie Galaxy Zoo, którego użytkownicy oznaczyli SDSS J084905.51+111447.2 jako miejsce, w którym właśnie dochodzi do łączenia się czarnych dziur. Naukowcy przeanalizowali więc dane zebrana przez teleskop kosmiczny Wide-field Infrared Survey Explorer (WISE). Pracuje on w podczerwieni i jeśli rzeczywiście w galaktyce dochodzi do łączenia się czarnych dziur, to powinien on zaobserwować co najmniej dwa źródła gwałtownego pochłaniania materii. Kolejne obserwacje potwierdziły podejrzenia. Chandra X-ray Observatory wykrył istnienie silnych źródeł promieniowania X, co wskazuje, że czarne dziury pochłaniają tam duże ilości pyłu i gazu. Podobne dowody zdobył Nuclear Spectroscopic Telescope Array (NuSTAR). Kolejne obrazowanie w świetle widzialnym przeprowadzone za pomocą SDSS i Large Binocular Telescope potwierdziły obecność trzech aktywnych czarnych dziur.
      Dzięki użyciu wielu instrumentów opracowaliśmy nową technikę identyfikowania potrójnych układów supermasywnych czarnych dziur. Każdy z tych teleskopów dostarczył nam nieco innych informacji o tym, co się tam dzieje. Mamy nadzieję, że za pomocą tej techniki znajdziemy więcej układów potrójnych, mówi Pfeifle.
      Naukowcy stwierdzili, że odległość pomiędzy każdą z czarnych dziur, a jej sąsiadami wynosi od 10 do 30 tysięcy lat świetlnych. Będzie ona malała, gdyż galaktyki, do których należą te dziury, łączą się, więc i czarne dziury są skazane na połączenie.
      Dzięki wykryciu przez LIGO fal grawitacyjnych pochodzących z łączenia się czarnych dziur, wiemy co nieco o tym, jak przebiega taki proces. Jednak łączenie się układu potrójnego wygląda prawdopodobnie nieco inaczej. Specjaliści podejrzewają, że obecność trzeciej dziury powoduje, iż dwie pierwsze łączą się znacznie szybciej.
      Istnienie układu potrójnego może pozwolić też na wyjaśnienie teoretycznego „problemu ostatniego parseka”. Gdy dochodzi do połączenia dwóch galaktyk ich czarne dziury nie zderzają się czołowo, ale powinny minąć się po orbicie hiperbolicznej. Musi istnieć mechanizm, który spowoduje, że zbliżą się do siebie. Najważniejszym takim mechanizmem jest dynamiczne tarcie. Gdy czarna dziura zbliża się do gwiazdy, gwiazda jest przyspieszana, a czarna dziura spowalniana. Mechanizm ten spowalnia czarne dziury na tyle, że tworzą powiązany ze sobą układ podwójny. Dynamiczne tarcie nadal działa, dziury zbliżają się do siebie na odległość kilku parseków. Jednak proces krążenia czarnych dziur wokół siebie powoduje, że w pobliżu zaczyna brakować materii. W końcu jest jej tak mało, że jej oddziaływanie nie wystarczy, by dziury się połączyły.
      Ostatecznie do połączenia się czarnych dziur mogłyby doprowadzić fale grawitacyjne, ale ich oddziaływanie ma znaczenie dopiero, gdy dziury zbliżą się do siebie na odległość 0,01–0,001 parseka. Wiemy jednak, że czarne dziury się łączą, pozostaje więc pytanie, co rozwiązuje problem ostatniego parseka, czyli co powoduje, że zbliżą się do siebie na tyle, iż utworzą jedną czarną dziurę. Obecność trzeciej czarnej dziury wyjaśniałaby, jaka siła powoduje, że czarne dziury się łączą.
      Nie można też wykluczyć, że w układach potrójnych dochodzi nie tylko do połączenia się dwóch czarnych dziur, ale i do wyrzucenia trzeciej z nich w przestrzeń kosmiczną.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
      Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.
      Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.
      Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.
      Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.
      Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.
      Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.
      Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.
      Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.
      Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.
      Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Eksperymentalny żaglowiec kosmiczny rozwinął żagle i zaczął zbierać energię Słońca, która ma go napędzać podczas podróży w przestrzeni kosmicznej. LightSail 2 to dzieło The Planetary Society. Pojazd został wystrzelony 25 czerwca na pokładzie rakiety Falcon Heavy firmy SpaceX. Właśnie otworzył niewielkie przedziały i rozwinął żagle. Każdy z nich ma grubość 4,5 mikrometra, a łączna powierzchnia żagli wynosi 32 metry kwadratowe.
      Gdy fotony ze Słońca trafiają na żagiel, odbijają się od niego, przekazując mu niewielką ilość energii, która popycha pojazd. Siła oddziałująca na żagiel jest niewielka, jedna z czasem pęd będzie się dodawał i zacznie przyspieszać pojazd.
      Poprzednikiem obecnego żaglowca był LightSail 1. Rozwinął on żagle w 2015 roku, jednak przed spłonięciem w atmosferze nie wykonał żadnych kontrolowanych manewrów. Teraz ma się to zmienić. LightSail 2 został umieszczony na wyższej orbicie, zatem atmosfera mniej na niego oddziałuje. Ma krążyć nad Ziemią nawet przez rok.
      W przyszłości żagle mogą okazać się dobrym napędem dla niewielkich satelitów przemierzających Układ Słoneczny. Nie wymagają one wielkich ilości paliwa, jakie trzeba umieszczać na pokładach tradycyjnych satelitów. Mimo, że żaglowce słoneczne mają niewielkie przyspieszenie to, teoretycznie, z czasem powinny rozpędzać się do imponujących prędkości.
      Żagle kosmiczne nie muszą być też napędzane przez Słońce. Pojawiły się propozycje napędzania ich za pomocą promieni laserowych. Dzięki temu pojazdy przyspieszałyby znacznie szybciej, być może na tyle szybko, że udałoby się je wysłać w podróż pomiędzy gwiazdami.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nie tylko przemysł motoryzacyjny poszukuje paliw mniej zanieczyszczających środowisko. Paliwami takimi jest również zainteresowany przemysł kosmiczny. W ubiegłym tygodniu firma Ball Aerospace oficjalnie rozpoczęła prace w ramach zleconej przez NASA Green Propellant Infusion Mission (GPIM), w ramach której testuje nietoksyczne wysoce wydajne paliwo. Sama misja wystartowała 25 czerwca na pokładzie rakieto Falcon Heavy firmy SpaceX.
      Dzięki nowemu paliwu, które ma zastąpić silnie toksyczną żrącą i łatwopalną hydrazynę, tankowanie rakiet stanie się bezpieczniejsze, tańsze i bardziej wydajne. Pozwoli na znaczne skrócenie wszelkich prac wykonywanych przed startem, a to przełoży się na zmniejszenie kosztów wystrzeliwania satelitów. Same zaś satelity będą prostsze, a ich obsługa łatwiejsza. Co więcej, pojawienie się bezpiecznego paliwa pozwoli na budowanie portów kosmicznych w wielu miejscach.
      Ball Aerospace zaprojektowała i wybudowała na zlecenie NASA niewielkiego satelitę o nazwie Ball Configurable Platform (BCP). Za jego pomocą zostaną przetestowane praktyczne aspekty wykorzystania nowego paliwa. Jest nim azotan hydroksyloamonu (HAN). Mieszanka o nazwie AF-M315E została opracowana przez Laboratorium Badawcze Sił Powietrznych.
      AF-M315E zwiększy ogólną wydajność pojazdów. Ma większą gęstość niż hydrazyna, co oznaczy, że w można przechować jej więcej w zbiorniku o tej samej pojemności. Ponadto charakteryzuje się wyższym impulsem właściwym, więc zapewnia większy impuls na tę samą masę zużytego paliwa, ma też niższą temperaturę zamarzania, a to oznacza, że trzeba zużyć mniej energii do utrzymania odpowiedniej temperatury paliwa, oświadczyła NASA.
      Testy w ramach projektu GPIM będą prowadzone przez 13 miesięcy. W tym czasie zostaną sprawdzone m.in. podsystemy napędu, wydajność paliwa, wydajność silnika sterującego czy systemy kontroli wysokości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W środę (3.07.2019) na orbitę ziemską trafił KRAKsat, sztuczny satelita skonstruowany przez grupę studentów z dwóch krakowskich uczelni - Akademii Górniczo-Hutniczej i Uniwersytetu Jagiellońskiego - oraz wrocławską firmę SatRevolution. Jaki cel przyświecał żakom pracującym dniami i nocami nad niewielkim stalowym pudełkiem i do czego może nas doprowadzić ta misja?
      KRAKsat nie ma imponujących rozmiarów – jego boki nie przekraczają 10 centymetrów i jest niewiele cięższy od standardowego sklepowego litra mleka. Jest to satelita typu CubeSat w standardzie 1U, które najczęściej są wystrzeliwane jako dodatkowy ładunek rakiety, często dostarczający zapasy na stacje kosmiczne. Jakie zadanie ma ten niepozorny niewielki klocek? Jego celem jest sprawdzenie jak ferrofluid radzi sobie z rolą bycia kołem zamachowym. Brzmi nieco enigmatycznie? A więc od początku.
      Zjeżona woda
      Aby zrozumieć sedno i innowacyjność eksperymentu, należy zacząć od inteligentnej cieczy magnetycznej, najczęściej nazywanej ferrofluidem. Czym różni się od typowego płynu w klasycznych warunkach pokojowych? Oczywiście tym, że jest namagnesowany. A w jaki sposób można namagnesować ciecz? Do wody lub rozpuszczalnika organicznego wprowadza się mikroskopijne (10 nm) cząsteczki magnetytu, czyli minerału wykazującego silne właściwości magnetyczne. Aby zachować odpowiedni poziom jego rozproszenia i uniknąć sytuacji, w której drobiny łączą się ze sobą w większe fragmenty, niezbędny jest dodatek tzw. surfaktanta, czyli związku powierzchniowo-czynnego. Po wprowadzeniu do cieczy może on "zrobić" z niej emulsję, a więc stabilny układ dwóch wymieszanych substancji, które w naturze ze sobą nie "współgrają" (np. tłuszcze i woda). Z chwilą, gdy ferrofluid trafia w silne pole magnetyczne, drobinki magnetytu zawieszone w cieczy rozpoczynają przemieszczanie się, w rezultacie doprowadzając go do polaryzacji, zmieniającej objętość i kształt płynu, który zaczyna przypominać jeża.
      Magnetyczny obwarzanek
      W jaki sposób studenci chcieli wykorzystać tę nietypową substancję? Otóż, ich zamiarem było stworzenie z niej koła zamachowego. Aby tego dokonać, skonstruowali torus, czyli pustą w środku obręcz, do której wprowadzony został ferrofluid w pozornie niewielkiej ilości 12 mililitrów. Otaczając go ośmioma elektromagnesami, wprawili ciecz w ruch wirowy, którego głównym zadaniem miało być właśnie napędzanie obrotu satelity. Brzmi trywialnie? Sęk w tym, że wcale nie łatwo jest stworzyć takiego "kosmicznego obwarzanka". Musi być on zbudowany z właściwego materiału. Ferrofluidem trzeba też odpowiednio pokierować, skomunikować ze sobą wszystkie czujniki, zapewnić stosowne oprogramowanie, zaprojektować precyzyjny układ sterujący zasilaniem elektromagnesów i poukładać wszystkie elementy w spójną całość. A na koniec, obudować w taki sposób, aby to wszystko oparło się niewdzięcznym warunkom zastanym w kosmosie.
      Po co to całe zamieszanie? Do tej pory nanosatelity sterowane były na układach wykorzystujących mechaniczne koła zamachowe. Dla KRAKsatu najważniejszym zadaniem jest przetestowanie, czy to zaprojektowane przez krakowskich studentów, wykorzystujące pionierskie rozwiązanie oparte na cieczy magnetycznej może być skutecznym sposobem na stabilizację satelitów i precyzyjne sterowanie nimi na orbicie. Zaproponowany system, poza innowacyjnością, cechuje także niski koszt, prostota i niezawodność ferrofluidu (w porównaniu do skomplikowanych układów mechanicznych). Wobec tego, koło zamachowe skonstruowane w ten sposób stanowi niezmiernie atrakcyjną konkurencję dla obecnie stosowanych systemów i w przyszłości może zrewolucjonizować światowy przemysł kosmiczny.
      Obecnie KRAKsat przebywa na wysokości około 400 kilometrów, krążąc wokół Ziemi. Na jego pokładzie znajduje się również 1200 zdjęć, które nadesłali zespołowi internauci w ramach akcji #lecewkosmos.
      Najświeższe informacje z KRAKsata można sprawdzić na facebookowym profilu projektu.

      « powrót do artykułu
×
×
  • Create New...