Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Satelity SpaceX znowu zakłócają badania naukowe

Rekomendowane odpowiedzi

Starlink, konstelacja satelitów budowana przez firmę SpaceX, po raz kolejny zakłóciła badania naukowe. Stało się to kilka dni po tym, jak na niską orbitę okołoziemską trafił drugi zestaw satelitów, zwiększając ich liczbę do 120.

Już po wystrzeleniu pierwszych 60 satelitów naukowcy zauważyli, że są one niezwykle jasne i wyrazili obawę, że realizacja planów SpaceX zakłóci badania astronomiczne. Obecnie na orbicie pracuje mniej niż 5000 satelitów. Tylko część z nich to satelity komunikacyjne, które odbierają i wysyłają sygnały. Konstelacja Starlink ma składać się z 12 000 satelitów, a SpaceX nie jest jedyną firmą, która chce budować takie wielkie konstelacje. Naukowcy zajmujący się badaniem przestrzeni kosmicznej obawiają się, że tysiące nowych satelitów zakłócą badania. Elon Musk zapewniał, że nie będą one miały wpływu na astronomię. Nie wyjaśnił jednak, jakim cudem tysiące satelitów krążących nad naszymi głowami pozostanie bez wpływu na badania naukowe.
Pomysł Muska po raz kolejny sprawia problemy. We wrześniu Europejska Agencja Kosmiczna poinformowała, że musiała przesunąć jednego ze swoich satelitów naukowych, by uniknąć zderzenia z satelitą Starlink.

Teraz dowiadujemy się, że przed dwoma dniami satelity SpaceX zakłóciły badania naukowe, a konkretnie pracę Dark Energy Camera (DECam) znajdującej się w Cerro Tololo Inter-American Observatory w północnym Chile. Jestem w szoku. Badania DECam zostały poważnie zakłócone przez 19 satelitów Starlink. Ich przelot w polu widzenia aparatu trwał ponad 5 minut, mówi Clara Martinez-Vazquez.

Naukowcy opublikowali zdjęcie, na którym widać zakłócenia spowodowane przez satelity. W tym czasie prowadzone były obserwacje w ramach DECam Local Volume Exploration Survey, których zadaniem jest zobrazowanie całego południowego nieba w poszukiwaniu galaktyk zdominowanych przez ciemną materię.

Zaledwie 20 kilometrów od Cerro Tololo Inter-American Observatory budowane jest Large Synoptic Survey Telescope, olbrzymie obserwatorium, któego zadaniem będzie obserwacja asteroid bliskich Ziemi, badanie supernowych i ciemenj materii. W czerwcu ukazał się dokuemnt, któego autorzy stwierdzili, że Starlink może zakłócić obserwacje.

Federalna Komisja Komunikacji (FCC) wydała SpaceX zgodę na wystrzelenie 12 000 satelitów Starlink, których celem jest zapewnienie dostępu do internetu na całym świecie. W ubiegłym miesiącu SpaceX opublikowała dokument, z którego wynika, że chce w przyszłości wystrzelić 30 000 kolejnych satelitów.

SpaceX zapewnia, że pomaluje swoje satelity na czarno, by nie wpływały one na obserwacje astronomiczne i odpowiednio dostosuje ich orbity.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.11.2019 o 12:07, KopalniaWiedzy.pl napisał:

SpaceX zapewnia, że pomaluje swoje satelity na czarno, by nie wpływały one na obserwacje astronomiczne i odpowiednio dostosuje ich orbity.

Nie da się dostosować orbit 12 tysięcy satelitów przy takiej ilości obserwatoriów na ziemi. To co jest potrzebne to komputerowy model umożliwiający filtrowanie zakłóceń powodowanych przez te satelity.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Astro napisał:

Komputerowy model musiałby być niezwykle precyzyjny, a to trochę się do końca nie da

Mamy 2020. Da się, satelity znają swoją pozycję co do centymetrów, większe niedokładności niesie atmosfera. Zwyczajnie wytnie się moment przelotu satelity, na szczęście astronomia dawno przeszła na CCD.

7 minut temu, Astro napisał:

Pomalowanie na czarno niewiele wniesie.

Miałem pisać że oba "rozwiązania" to PR-bullshit, w końcu coś musieli powiedzieć.

8 minut temu, Astro napisał:

Z punku widzenia astronoma na głupszy pomysł nie można było wpaść.

ed: myślę oczywiście o całym tym "pomyśle" SpaceX

Trzeba porównać zyski z konstelacji satelitów z zyskami przynoszonymi przez badania naukowe, dostęp do fejsia w środku dżungli może być ważniejszy niż jakieś tam obserwacje ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Głupotą jest to powstrzymywać, miejsce teleskopów jest na orbicie a takie projekty jak ten pozwalają obniżyć koszt wystrzelenia tych teleskopów. Jeśli ten projekt pójdzie dobrze będą mieć kasę na "Starshipa" a z jego ładownością taki teleskop Jamesa Weba można wystrzelić rozłożony co zaoszczędziło by 3/4 funduszy który poświęcili na testy.

Musk powinien zaproponować , że po prostu wystrzeli parę nowych teleskopów przy okazji lub w dobrej cenie.  

//edit: No ok przesadziłem, może nie rozłożony ale  $10mld  dało by się dużo więcej dobrego dla astronomii zrobić przy cenach wynoszenia ładunków na orbitę jakie już teraz oferuje Space X.

Edytowane przez dexx

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, Astro napisał:

Kolega oczywiście wie, że czas na teleskopie (zwłaszcza dużym) kosztuje, i zapewne z własnej kieszeni opłaci straty fotonów, a będzie tych strat sporo. :)

Jak się podzieli pole nieboskłonu przez pole wszystkich satelitów, to wychodzą straszne liczby :P
Ja bym się bardziej martwił dodatkowymi fotonami dostarczanymi (gratis) przez te satelity, ale oczywiście filtracja sprowadzi to do strat - tysiące razy większych niż "pochłanianie", ale to wciąż są małe wartości bezwzględne -  i nic z czym astronomowie/fizycy by sobie nie poradzili. Astronomia to i tak mocno "probabilistyczna" zabawa w sensie zbierania fotonów.

10 minut temu, Astro napisał:

Armia już dawno udostępniła astronomom coś takiego jak optyka adaptatywna i atmosfera mniej się liczy.

Napisałem to tylko dla ilustracji faktu, że problem jest "malutki". Swoją drogą nie wiem czy małe/stare obserwatoria też już ją posiadają czy tylko te nowe wielometrowce.

10 minut temu, Astro napisał:

końcu pornus w dżungli może ocalić życie

Przez zmniejszenie przyrostu naturalnego lata wcześniej ;)

10 minut temu, Astro napisał:

Jeśli masz pomysł (albo odpowiednią kasę do sponsoringu)

To już nie do mnie. To nie ja wysłałem satelity i to nie ja chcę sprzedawać pigmejów reklamodawcom. Jedynym realnym wyjściem jest ultraprecyzyjny model filtrowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, dexx said:

Głupotą jest to powstrzymywać, miejsce teleskopów jest na orbicie a takie projekty jak ten pozwalają obniżyć koszt wystrzelenia tych teleskopów.

Sprzęt na Ziemi jest tańszy i można budować większe obserwatoria. Optyka adaptatywna pozawala uzyskiwać wyniki lepsze od teleskopów na orbicie. Moim zdaniem nie powinniśmy zaśmiecać nieba i pozbawiać się tej opcji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 godzin temu, Astro napisał:

Napisałem, że *ówno prawda i tyle. Powtórzę to samo.

Z tym zadaniem poradzi sobie pojedynczy "pecet" (po stronie obserwatorium), a satelity znają swoją pozycję z dokładnością do milimetrów (pozycjonują się laserami).
Cała ta sprawa to bardzie kwestia nieprzygotowania niż skali problemu.
Zresztą gówno czy nie gówno, to jedyna istniejąca opcja.
Bo ludzie na pewno wybiorą "porno w dżungli", a satelitom latającym powyżej 100 km można prawnie naskakać.
 

16 godzin temu, Astro napisał:

Typowy czas integracji spektroskopowej na sporym teleskopie to? Niestety, nie sekundy. :P

Nie do końca rozumiem. Mamy bardzo czułą skalibrowaną macierz CCD. Co za problem zignorować odczyty z pewnego odcinka czasowego na pewnych piselach? Przecież fotony i tak rejestruje się na bieżąco, a przelot świecidełka nie zakłóci możliwości "piksela" na długi czas. 
Czas przelotu satelity przez piksel to wielkość rzędu ms, najlepsze teleskopy powinny mieć rozmiar piksela rzędu 20cm z 400km.
Uwzględnianie takich przerw w dopływie danych jest trywialne z algorytmicznego punktu widzenia.
W sumie to takie satelity nie muszą być nawet symulowane, one powinny być znakomicie widoczne na CCD. Im jaśniejsze, tym lepiej :P
 

15 godzin temu, cyjanobakteria napisał:

Moim zdaniem nie powinniśmy zaśmiecać nieba i pozbawiać się tej opcji.

To jest nieuniknione, z tym że to nie jest problem. Takie satelity można odfiltrować.
To byłby problem w czasach kiedy zrobienie sieci takich satelitów było niemożliwe, więc nie sądzę aby jakakolwiek ogarnięta cywilizacja kosmiczna uznała to za wielki problem w czasie swojego rozwoju ;)

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Astro napisał:

ale polecam Ci nie wymyślać nowego.

Niestety jestem nałogowcem (nawet miałem w opcjonalnych planach zawodowych zdobyć certyfikat TRIZ) więc wyszła koledze płachta na byka.
Naiwnym rozwiązaniem technicznym jest stworzenie macierzowej przesłony wykorzystującej memsy, blokującej dopływ światła do pixeli, tylko że nie wykorzystuje to lokalności zakłócenia i jest mocno upierdliwe w realizacji, do tego ograniczy ilość padającego światła.
Najlepszym możliwym rozwiązaniem jest stworzenie ruchomej mikroprzesłony o minimalnym rozmiarze, być może z własnym detektorem "światełka" który pozwoli jej się samodzielnie pozycjonować.Ta przesłona musi zasuwać bezpośrednio po detektorze, a dokładniej powinna być zapewniona możliwość działania wystarczającej ilości takich przesłon aby rozwiązać problemy z wszystkimi satelitami w polu widzenia. Nie warto komplikować systemu na wypadek zbyt wzajemnie bliskiego przelotu satelitów, shit happens. Bardzo ładnie wykorzystuje to zaproponowane wcześniej modelowanie ruchu satelitów.
Bardzo ciekawy projekt z dziedziny mikrorobotyki, w sam raz dla studentów Caltech/MIT/PW.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 godzin temu, Astro napisał:

Ufam, że nie jesteś janciem...

 

18 godzin temu, Astro napisał:

Tutaj raczej niezamożni sympatycy nauki

Więc jest kolega gołodupkiem, ale ten extra prefix niewiele zmienia.
Witam ponownie w ignorowanych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      AKTUALIZACJA: Inżynierowe SpaceX nie poradzili sobie z problemami z ciśnieniem w rakiecie Super Heavy. Test został odwołany.
      Dzisiaj o godzinie 15:00 czasu polskiego ma odbyć się testowy lot najpotężniejszej rakiety w dziejach, systemu Starship firmy SpaceX. Pojazd załogowy został zintegrowany z rakietą Super Heavy i czeka na stanowisku startowym. Start może odbyć się pomiędzy godziną 15:00 a 16:30, chociaż Elon Musk nie wyklucza, że zostanie odwołany. SpaceX bardzo ostrożnie podchodzi to pierwszego testu tak potężnej rakiety. Mimo, że system jeszcze nie został sprawdzony, NASA już podpisała ze SpaceX wielomiliardową umowę przewidującą, że w przyszłości Starship będzie woził astronautów na Księżyc w ramach programu Artemis.
      Plan pierwszego testu zakłada, że Starship wzniesie się na wysokość około 240 kilometrów nad powierzchnię Ziemi. Znajdzie się więc w przestrzeni kosmicznej, której granicę umownie wyznacza linia Karmana na wysokości 100 km nad Ziemią.
      Starship składa się z pojazdu załogowego o tej samej nazwie oraz rakiety nośnej Super Heavy, która korzysta z 33 silników. Całość ma wysokość 120 metrów. Już pierwsza wersja tego zestawu wielokrotnego użytku ma wynosić na niską orbitę okołoziemską (LEO) ładunek o masie od 100 do 150 ton. Po rozbudowie Starship będzie wynosił na LEO nawet 250-tonowe ładunki.
      Siła ciągu całości wynosi imponujące 75 900 kN. Starship jest nie tylko potężniejszy od najnowszego systemu NASA – SLS – o maksymalnym ciągu 41 000 kN, który będzie zdolny wynieść na LEO masę 130 ton. To również najpotężniejszy system rakietowy w historii. Obecnie miano najpotężniejszej rakiety w dziejach należy do Saturna V. Zawiozła ona ludzi na Księżyc i była w stanie wynieść na LEO ładunek o masie 140 ton.
      SpaceX przez rok czekała na zgodę Federal Aviation Administration na przeprowadzenie dzisiejszego testu. Firma musiała spełnić wysokie wymagania dotyczące m.in. bezpieczeństwa osób i infrastruktury naziemnej. W teście będą brali udział urzędnicy FAA, którzy sprawdzą, czy SpaceX spełniła wszystkie wymagania.
      NASA i SpaceX zawarły umowę, która przewiduje, że w roku 2025 Starship może wziąć udział w misji Artemis III. Plan przewiduje, że astronauci zostaną wystrzeleni w kapsule Orion za pomocą systemu SLS i – być może – przesiądą się do Starshipa, który będzie oczekiwał na orbicie Księżyca. To właśnie Starship ma lądować na Srebrnym Globie. Przedstawiciele SpaceX mówią, że zanim ich pojazd będzie gotowy do zabrania na pokład ludzi, będą chcieli przeprowadzić 100 testów orbitalnych. W tej chwili nie wiadomo, czy uda się to założenie spełnić.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed kilku laty głośno było o Neuralink, firmie Elona Muska, który obiecał stworzenie implantu łączącego ludzki mózg z komputerem. Przed kilkoma miesiącami biznesmen ogłosił, że do maja bieżącego roku rozpoczną się testy implantu The Link na ludziach. Jednak przed Neuralinkiem może być bardzo wyboista droga. Media doniosły właśnie, że już przed rokiem Federalna Agencja ds. Żywności i Leków (FDA) odrzuciła wniosek o testy urządzenia, a dwa amerykańskie ministerstwa prowadzą śledztwo ws. działań firmy Neuralink.
      The Link ma być wszczepiany do mózgu. Jako taki jest przez FDA klasyfikowany jako urządzenie Klasy III. Należą do niej urządzenia medyczne, które podtrzymują lub wspierają funkcje życiowe, są implantowane lub stwarzają potencjalnie nieuzasadnione ryzyko choroby lub odniesienia obrażeń. FDA oświadczyła, że wniosek Neuralinku o rozpoczęcie testów na ludziach zawierał „dziesiątki niedociągnięć”, więc został odrzucony. Wątpliwości Agencji budziły m.in. stabilność akumulatorów i systemu ładowania, możliwość migrowania implantu w mózgu czy uszkodzenia tkanki. I mimo upływu wielu miesięcy Neuralink wciąż nie jest w stanie poprawić wszystkich niedociągnięć.
      Odrzucenie wniosku nie oznacza, co prawda, że The Link nie zostanie w końcu dopuszczony do testów, ale wskazuje, że kilkunastu ekspertów, którzy przyglądali się implantowi, zgłosiło poważne zastrzeżenia.
      To jednak nie wszystkie problemy. Pod koniec ubiegłego roku Departament Rolnictwa wszczął śledztwo ws. złego traktowania zwierząt laboratoryjnych przez firmę Muska, a Departament Transportu otworzył swoje śledztwo dotyczące nieprawidłowości przy międzystanowym transporcie materiałów niebezpiecznych, w tym implantów od chorych zwierząt.
      Ustalenia Departamentów Rolnictwa i Transportu mogą w jakiś pośredni sposób wpłynąć na proces decyzyjny FDA. Dodatkowo sprawę mogą skomplikować zapowiedzi Muska i innych przedstawicieli firmy, którzy twierdzili, że The Link pozwoli niewidomym widzieć, sparaliżowanym chodzić oraz pozwoli na połączenie z jakimś rodzajem sztucznej inteligencji. Urządzenia Klasy III są oceniane pod kątem bezpieczeństwa oraz spełniania stawianych przed nimi założeń. Szumne zapowiedzi dotyczące niezwykłych możliwości The Link, nawet jeśli nie znajdą się w oficjalnym wniosku, mogą spowodować, że urzędnicy FDA będą znacznie baczniej przyglądali się urządzeniu i aplikacji.
      Eksperci uważają, że firma Muska nie ma niezbędnej wiedzy i doświadczenia, by w przewidywalnym czasie wprowadzić na rynek implant mózgowy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy czekają na uruchomienie Vera C. Rubin Observatory, obserwatorium astronomicznego, którego budowa dobiega końca w Chile. Na jego potrzeby powstał najpotężniejszy aparat fotograficzny na świecie. Obserwatorium ma co trzy tygodnie wykonywać fotografie całego nieboskłonu. Jego główny program badawczy – Legacy Survey of Space and Time – zakłada utworzenie mapy Drogi Mlecznej, dokonanie spisu obiektów w Układzie Słonecznym czy zbadanie niewyjaśnionych sygnałów dobiegających z głębi wszechświata. Jednak obserwatorium może nigdy nie spełnić pokładanych w nim nadziei.

      Niedawno opublikowane raporty przygotowane przez zespół obserwatorium, a także amerykańskie Government Accountability Office – odpowiednik polskiej NIK – rysują przyszłość astronomii w ciemnych barwach. Konstelacje sztucznych satelitów, których panele słoneczne i anteny odbijają światło, mogą praktycznie uniemożliwić naziemne badania astronomiczne w świetle widzialnym. Niemożliwe mogą stać się badania kolizji czarnych dziur czy obserwacje asteroid bliskich Ziemi. Specjaliści ostrzegają, że mamy ostatnią możliwość, by temu zapobiec.
      Obecnie na orbicie okołoziemskiej znajduje się ponad 5400 satelitów. Większość z nich, umieszczona na niskich orbitach, okrąża Ziemię w ciągu około 1,5 godziny. Od czasu, gdy w 2019 roku firma SpaceX wystrzeliła swoją pierwszą grupę pojazdów i rozpoczęła budowę konstelacji Starlink, liczba sztucznych satelitów szybko rośnie, a będzie rosła jeszcze szybciej, gdyż dołączają kolejne przedsiębiorstwa. Z danych amerykańskiej Federalnej Komisji Komunikacji oraz Międzynarodowej Unii Telekomunikacji wynika, że tylko do tych dwóch organizacji wpłynęły wnioski o zezwolenie na wystrzelenie w najbliższych latach 431 713 satelitów, które będą tworzyły 16 konstelacji.
      Jeśli nad naszymi głowami będzie krążyło 400 000 satelitów, to będą one widoczne na każdym zdjęciu wykonanym w ramach badań astronomicznych. I nawet jeśli udałoby się automatycznie usunąć je z fotografii, to przy okazji utracona zostanie olbrzymia liczba informacji. Wyeliminowanie takich satelitów z obrazów będzie jednak bardzo trudne, między innymi dlatego, że będą się one poruszały w różny sposób i w różny sposób wyglądały w zależności od stosowanych filtrów kolorów. Eksperci, którzy pracują nad systemem wysyłającym automatyczne alerty do społeczności astronomów, gdyby Vera C. Rubin Observatory odkryło coś nowego – np. supernową – na nieboskłonie, obliczają, że konstelacje satelitów mogą doprowadzić do pojawienia się... 10 milionów fałszywych alertów na dobę. To pokazuje, jak ważne jest usuwania satelitów ze zdjęć. Nie wiadomo jednak, czy uda się uniknąć wszystkich takich fałszywych alertów, jak wiele informacji zostanie przy okazji utraconych i ile interesujących obiektów pozostanie przez to niezauważonych.
      Konstelacje sztucznych satelitów mogą też znacznie utrudnić obserwację asteroid bliskich Ziemi. Dotychczas było wiadomo, że najlepszym momentem do ich wyszukiwania jest zmierzch. Jednak o zmierzchu panele słoneczne satelitów będą dobrze oświetlone, zaburzając możliwość obserwacji.
      Problem narasta. We wrześniu ubiegłego roku firma AST SpaceMobile wystrzeliła swojego prototypowego satelitę o nazwie BlueWalker3. Gdy dwa miesiące później rozwinął on anteny o powierzchni ponad 64 metrów kwadratowych, stał się jednym z najjaśniejszych obiektów na niebie. Jaśniejszym niż 99% gwiazd widocznych gołym okiem. A to dopiero początek. AST SpaceMobile chce w najbliższych latach wystrzelić 168 jeszcze większych satelitów.
      Obok pytania o wpływ konstelacji satelitów na badania naukowe rodzi się też pytanie o kwestie kulturowe czy filozoficzne. Czy kilka wielkich koncernów ma prawo kontrolować to, co ludzie widzą na nocnym niebie. Czy niebo, które przez wieki wpływało na literaturę, malarstwo, filozofię może zostać de facto sprywatyzowane przez kilka przedsiębiorstw liczących na kolosalne zyski. Istnieje bowiem poważne niebezpieczeństwo, że już za kilka lat, chcąc spojrzeć w rozgwieżdżone niebo, zobaczymy na nim więcej odbijających światło słoneczne sztucznych satelitów niż gwiazd. I nie będzie miało znaczenia, w którym miejscu Ziemi będziemy mieszkali.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      NASA i SpaceX podpisały umowę, na podstawie którego zobowiązały się do opracowania studium wykonalności wprowadzenia Teleskopu Hubble'a na wyższą orbitę. Umieszczenie tam zasłużonego instrumentu wydłużyłoby jego czas pracy o wiele lat. Studium ma rozważyć wykorzystanie pojazdu SpaceX Dragon do zmiany orbity Hubble'a. Założono, że strona rządowa nie będzie ponosiła w związku z tym żadnych kosztów. NASA chce lepiej zrozumieć komercyjne aspekty takich działań, a SpaceX – kwestie techniczne związane z serwisowaniem urządzeń w przestrzeni kosmicznej. Co istotne, SpaceX nie ma wyłączności, więc inne firmy mogą zwracać się do NASA z własnymi propozycjami.
      Przyjęto, że opracowanie planów potrwa pół roku. W tym czasie eksperci NASA i SpaceX, na podstawie danych technicznych Hubble'a i Dragona rozważą, czy możliwe byłoby bezpieczne zadokowanie kapsuły do teleskopu i przesunięcie go na inną orbitę.
      Hubble i Dragon będą modelami testowymi studium, jednak przynajmniej część płynących z niego wniosków może posłużyć do podobnych działań z wykorzystaniem innych pojazdów i urządzeń znajdujących się na niskiej orbicie okołoziemskiej.
      Teleskop Hubble'a pracuje od 1990 roku. To jedyny teleskop kosmiczny zbudowany z misją o prowadzeniu misji serwisowych. Dotychczas odbyło się do niego 5 takich misji. Jednak Teleskop projektowano tak, by można było przeprowadzać misje za pomocą promów kosmicznych. Program promów został dawno zakończony i obecnie nie ma planów prowadzenia kolejnych misji. Tym bardziej, że czas Hubble'a się kończy. Zasłużone urządzenie pracuje wyjątkowo długo. Obecnie przewiduje się, że teleskop zostanie poddany deorbitacji pomiędzy rokiem 2030 a 2040. NASA chce, by działał on najdłużej, jak to możliwe. Tym bardziej, że nowe teleskopy kosmiczne, jak Teleskop Webba, nie mają go zastąpić, a już przed laty przewidywano, że tandem Webb-Hubble da nowe możliwości obserwowania kosmosu.
      Jeśli udałoby się przesunąć Hubble'a na wyższą orbitę, NASA i SpaceX zyskałyby nowe dane i doświadczenie dotyczące tego typu misji, a przy okazji udałoby się wydłużyć czas pracy ważnego instrumentu naukowego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na przełomie XX i XXI wieku na prestiżowych amerykańskich uniwersytetach zaczęły pojawiać się centra badawcze specjalizujące się w kwestiach ocieplenia klimatu. Powstały one m.in. na Princeton, Stanford, MIT czy na Uniwersytecie Kalifornijskim w Berkeley. Pieniądze na powstanie tych centrów badawczych dały... firmy wydobywające ropę naftową i gaz ziemny.
      To, jak zauważa dziennikarz śledczy Paul Thacker, wyraźny konflikt interesów. Przedsiębiorstwa żyjące z wydobycia paliw kopalnych finansują badania, których celem jest odejście od paliw kopalnych. Thacker, na łamach British Medical Journal stwierdza, że koncerny naftowe zastosowały tę samą taktykę, jaką w połowie XX wieku stosowały koncerny tytoniowe.
      Gdy w latach 50. ubiegłego wieku coraz więcej osób zaczęło domagać się odszkodowań za problemy związane z paleniem papierosów – powodzi argumentowali m.in., że firmy wprowadzały na rynek szkodliwy produkt, nie ostrzegały przed niebezpieczeństwem dla zdrowia i ryzykiem uzależnienia – koncerny tytoniowe zaczęły domagać się większej liczby badań, a nie mniejszej. Strategia ta miała na celu wprowadzenie niepewności co do wyników badań.
      Podobną strategię przyjęły koncerny naftowe. Gdy na początku lat 90. naukowcy z firmy Exxon przekazali, że rządy mają zamiar wprowadzić regulacje w celu powstrzymania globalnego ocieplenia, francuski przemysł naftowy zaczął finansować badania nad przechwytywaniem atmosferycznego węgla przez oceany. W ten sposób chciano wywołać w opinii publicznej wrażenie, że sytuacja jest lepsza, niż w rzeczywistości. W roku 1998 American Petroleum Institute opracował wieloletni plan podważania rządowych działań na rzecz klimatu. Jednym z elementów planu było powołanie komitetu naukowego, którego celem było wprowadzenie niepewności co do wyników badań.
      Finansowanie badań naukowych ma też za zadanie przekonanie polityków, by nie wprowadzali ograniczeń dla przemysłu. Lobbyści koncernów naftowych zachęcają polityków do odrzucania różnych przepisów ograniczających przemysł mówiąc, że są one niepotrzebne, gdyż przemysł finansuje badania na prestiżowych uczelniach, a badania te wkrótce przyniosą rozwiązanie problemów.
      Działania takie przyniosły znaczące wyniki co najmniej w jednym przypadku. W 2011 roku finansowany przez przemysł wydobywczy program Energy Initiative na MIT opublikował raport, w którym stwierdzono, że gaz łupkowy może zastąpić węgiel, gdyż wiąże się z mniejszą emisją węgla do atmosfery. Celem raportu było osłabienie wyników badań przeprowadzonych na Cornell University, z których wynikało, że gaz łupkowy z powodu wycieków metanu jest bardziej szkodliwy niż węgiel. Obecnie wiemy, że raport Energy Initiative zawierał wiele błędów. Jednak spełnił swoje zadanie. Posługując się nim przemysł wydobywczy stworzył obraz „zielonego gazu łupkowego”, rok później raport był cytowany przez prezydenta Obamę podczas State of the Union, jego główny twórca Ernest Moniz został sekretarzem ds. energii i w USA rozpoczął się boom na gaz łupkowy.
      Wielu przeciwników finansowania badań nad zmianami klimatu przez koncerny naftowe podaje przykład badań nad przechwytywaniem dwutlenku węgla. Opracowywanie takich technologii ma przekonać opinię publiczną, że możemy bezkarnie spalać paliwa kopalne, bo CO2 można przechwytywać w miejscu wytworzenia. Technologia taka co prawda istnieje, ale jej stosowanie nie ma sensu ani ekonomicznego, ani ekologicznego. Rząd USA dofinansował badania nad takimi rozwiązaniami kwotą 7 miliardów dolarów i udzielił ulg podatkowych na kwotę miliarda dolarów, a mimo to praktycznie nie jest ona stosowana. Z badań opublikowanych w ubiegłym roku wynika, że usunięcie 1 gigatony CO2 rocznie – a to zaledwie około 2,5% całkowitej emisji – wymaga użycia tyle energii, ile całe USA zużyły w 2020 roku.
      Profesor Mark Jacobson z Universytetu Stanforda, który analizował jedyną amerykańską elektrownię węglową wykorzystującą technologię przechwytywania CO2 mówi, że urządzenia kosztowały miliard USD i są zasilane gazem ziemnym. Uczony zauważa, że przemysł naftowy sponsoruje olbrzymimi kwotami badania nad technologią, która się po prostu nie sprawdza.
      Co więcej, okazuje się, że już w 1981 roku naukowcy Exxona wiedzieli, że o ile technologia przechwytywania CO2 jest możliwa do zrealizowania z naukowego punktu widzenia, to jej stosowanie nie ma żadnego ekonomicznego uzasadnienia, gdyż wymaga użycia zbyt wielkich ilości energii. A w 1989 roku menedżerowie Exxona w wewnętrznych dokumentach zastanawiali się, jak przeciwdziałać rządowym próbom wprowadzania regulacji dotyczących emisji gazów cieplarnianych. Doszli wówczas do wniosku, że należy prowadzić działania mające na celu wprowadzanie wątpliwości co do niekorzystnych badań naukowych, podkreślanie kosztów takich rozwiązań oraz ciągle prowadzenie badań nad innymi rozwiązaniami.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...