Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Szpiegowskie zdjęcia sprzed dekad pomagają w badaniu zmian populacji świstaków

Rekomendowane odpowiedzi

W czasach Zimnej Wojny Stany Zjednoczone prowadziły projekt Corona, w ramach którego próbowano za pomocą satelitów odnaleźć miejsca stacjonowania radzieckich rakiet balistycznych. Teraz grupa naukowców postanowiła zbadać, czy da się wykorzystać zdjęcia wykonane w ramach projektu Corona do badań zmian populacji habitatów dzikich zwierząt w regionach, co do których brakuje rzetelnych danych.

Swoją hipotezę naukowcy sprawdzili na przykładzie populacji świstaka stepowego zamieszkującej północ Kazachstanu. Za czasów ZSRR miliony hektarów naturalnych habitatów zamieniono tam w pola uprawne. Naukowcy przeanalizowali więc zdjęcia wykonane przez szpiegowskie satelity, a przechowywane obecnie przez US Geological Survey. Na starych zdjęciach zidentyfikowali ponad 5000 nor świstaków i porównali je z fotografiami satelitarnymi wykonanymi w czasach współczesnych.

Na badanym obszarze przez ponad 50 lat nory były zajmowane przez około 8 generacji świstaków. Jak czytamy w artykule opublikowanym na łamach Proceedings of the Royal Society B, od lat 60. ubiegłego wieku liczba nor zmniejszyła się o 14%. Jednak w miejscach gdzie pola uprawne pojawiły się jako pierwsze, więc ludzie najczęściej niszczyli tam nory świstaków za pomocą sprzętu rolniczego, doszło do nawet 60-procentowego spadku liczby nor.

Świstaki przez dziesięciolecia zajmują te same nory. Gdy ludzie je niszczą, zwierzęta często wracają i odbudowują swój dom. Jednak takie ciągłe odbudowywanie nor wymaga od zwierząt olbrzymiej ilości energii, co niekorzystnie odbija się na ich zdrowiu. Podupadające na siłach i zdrowiu zwierzęta mogą wychować mniej młodych, co negatywnie wpływa na całą populację. Daniel Blumstein, ekolog i ekspert od świstaków z Uniwersytetu Kalifornijskiego w Los Angeles mówi, że długoterminowy spadek liczby nor na obszarach, które były uprawiane przed wielu laty to niespodzianka. Widać, że intensywna działalność człowieka na całe dekady osłabiła populację świstaków.

Autorka badań, Catalina Munteanu z Uniwersytetu Humboldta w Berlinie zauważa, że wykorzystana metoda to szansa na zbadanie innych ekosystemów z przeszłości. Dzięki szpiegowskim satelitom sprzed dekad naukowcy mogą zaobserwować wiele interesujących struktur widocznych z kosmosu, takich jak kopce termitów, żeremia bobrowe czy miejsca, w których przeżuwacze wygryzają trawę. Takie informacje o długotrwałym wpływie działalności człowieka na habitaty różnych gatunków pomogą nam lepiej chronić bioróżnorodność.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Papież Franciszek paradujący po Watykanie w białej, puchowej kurtce od Balenciagi, Donald Trump uciekający przed policją, Władimir Putin za kratkami. To tylko kilka z licznych przykładów zdjęć, które obiegły Internet w ciągu ostatnich miesięcy. Wszystkie mają jedną cechę wspólną – przedstawiają wydarzenia, które nigdy nie miały miejsca.
      Internet, jaki znamy, czeka rewolucja, a być może już jesteśmy jej naocznymi świadkami. Rozwój technologii chyba jeszcze nigdy nie wiązał się ze zmianami na taką skalę. Mowa o sztucznej inteligencji, czyli AI, która już teraz budzi zarówno fascynację, jak i niepokój.
      Spreparowane zdjęcia znanych osób obiegają sieć
      Generatywne narzędzia oparte na sztucznej inteligencji rozwinęły się w ostatnich miesiącach tak bardzo, że mówi się o przełomie. Prawdopodobnie każdy choć raz słyszał takie nazwy jak ChatGPT, Midjourney, DALL-E czy Stable Diffusion. To tylko wierzchołek góry lodowej, bo szum związany z AI jest na tyle duży, że zarówno małe, jak i wielkie przedsiębiorstwa poddają się modzie (i obietnicy zysków), wypuszczając własne aplikacje.
      Coraz więcej ekspertów zwraca jednak uwagę na to, jak niebezpieczna staje się moda na AI. Już teraz możemy zaobserwować jej wpływ na to, jak postrzegamy rzeczywistość.
      Przykładowo, poniższe „zdjęcie” zostało wygenerowane za pomocą narzędzia Midjourney i umieszczone na platformie Reddit:
      Grafika została prędko pochwycona i podbiła wszystkie media społecznościowe. I choć od początku było wiadomo, że została wygenerowana przez AI, to wiele osób zapomniało wspomnieć o tym fakcie, udostępniając ją dalej. Tak narodził się Balenciaga Pope, w którego prawdziwość uwierzyła duża część internautów.
      Papież Franciszek w kurtce Balenciagi jest bardziej zabawny niż szkodliwy, ale nie jest jedynym przykładem viralowego zdjęcia, na które nabrało się wiele osób, a które zostało najzwyczajniej w świecie spreparowane. Podobny los podzieliły między innymi obrazy przedstawiające Donalda Trumpa w pomarańczowym kombinezonie więziennym czy Władimira Putina klękającego przed Xi Jinpingiem, przewodniczącym Chińskiej Republiki Ludowej.
      Dlaczego problem dezinformacji staje się tak poważny?
      Spreparowane obrazy przedstawiające twarze znanych osób nie są niczym nowym w Internecie. Przerabianie zdjęć stało się możliwe już wtedy, gdy powstały narzędzia do obróbki graficznej (z Adobe Photoshopem na czele).
      Jest jednak różnica między standardowym przerabianiem zdjęć a generowaniem ich za pomocą AI. O ile obsługa programów graficznych (z zadowalającymi rezultatami) wymaga posiadania pewnych umiejętności, o tyle generowanie zdjęć i obrazów za pomocą AI jest darmowe oraz banalnie łatwe. Narzędzia korzystają z promptów, czyli tekstowych podpowiedzi. Wystarczy więc odpowiednio opisać to, co chce się uzyskać, a sztuczna inteligencja wygeneruje obraz na podstawie zapytania.
      Sprawia to, że właściwie każdy jest dziś w stanie generować treści, które są realistyczne, a jednocześnie nie mają nic wspólnego z rzeczywistością. Sianie dezinformacji, propagandy i rozpowszechnianie kłamstw nigdy nie było tak łatwe, a z drugiej strony – w przyszłości możemy mieć też problem z wiarą we wszystkie wiadomości ze względu na wyuczoną nieufność w stosunku do treści generowanych przez AI.
      Warto zaznaczyć, że nie tylko sfalsyfikowane zdjęcia stanowią niebezpieczeństwo związane z szerzeniem dezinformacji i „fake newsów”. Rozwój AI dotyka każdego medium. W przyszłości prawdopodobnie trzeba będzie zastanawiać się dwa razy nie tylko nad autentycznością zdjęć, ale i filmów oraz ludzkich głosów.
      Już teraz możliwe jest wkładanie w usta znanych osób wypowiedzi, które nigdy nie padły. Brzmi to dystopijnie, ale trzeba przyznać jedno – internauci nigdy nie zawodzą, a memy z prezydentami kłócącymi się przy grach wideo to prawdopodobnie najśmieszniejsze, co wynikło z całej tej sytuacji.
      Moda na AI groźna także z innych powodów
      Łatwość, z jaką będzie można tworzyć i rozprzestrzeniać materiały propagandowe i dezinformację, to z pewnością jeden z najważniejszych problemów, z którymi będą musieli zmierzyć się wszyscy ludzie korzystający z sieci. AI stanowi jednak również inne zagrożenia.
      W sklepach Play czy App Store znajdziemy masę aplikacji mobilnych używających sztucznej inteligencji: wirtualnych asystentów, czatboty, filtry upiększające albo zmieniające twarze.
      Aplikacje te są teraz szczególnie rozchwytywane, ponieważ „boom” na AI trwa w najlepsze. Wiele z nich to jednak w rzeczywistości tylko fasady udające autentyczne narzędzia. Moda na AI ułatwia bowiem oszustom i przestępcom rozprzestrzenianie złośliwego oprogramowania, dlatego dziś czujność jest szczególnie ważna.
      Warto pamiętać, by uważnie czytać opinie i komentarze na temat każdej aplikacji, którą planujemy pobrać na swoje urządzenie. Dobrze też podjąć dodatkowe środki ostrożności. Tani VPN niestety nie zapewni nam wystarczającej ochrony i nie uchroni przed pobraniem szkodliwego oprogramowania, dlatego rozsądniej jest zainwestować z porządną wirtualną sieć prywatną.
      Wśród „AI-sceptyków” niepokój budzi również etyka związana z ulepszaniem tej technologii, a właściwie jej brak, gdy mowa na przykład o trenowaniu sieci neuronowych. Narzędzia takie jak ChatGPT czy Midjourney nie tworzą treści z powietrza – zanim zostały wypuszczone na rynek, trenowano je na tysiącach gigabajtów materiałów umieszczonych w Internecie.
      Obecnie trwa spór o to, czy takie praktyki powinny być w ogóle legalne, jako że twórcy tych materiałów (w tym graficy, pisarze i inni artyści) nigdy nie wyrazili zgody na użyczenie wyników swojej pracy do trenowania systemów mogących ich w przyszłości nawet zastąpić.
      Jak na razie pewne jest jedno: musimy nauczyć się poważnie zastanawiać nad tym, czy to, co widzimy, na pewno jest autentyczne.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Odpowiedź na tytułowe pytanie brzmi: tak. Jednak „prawdziwe” w odniesieniu do fotografowanych przez Webba obiektów nie oznacza tutaj takie, jak byśmy zobaczyli je na własne oczy będąc w miejscu Webba, ale takie, jakimi są w rzeczywistości. Żeby to zrozumieć, musimy co nieco wiedzieć o działaniu ludzkiego wzroku oraz Teleskopu Kosmicznego Jamesa Webba (JWST).
      Gdy jesteśmy na ulicy i słyszymy zbliżającą się do nas karetkę pogotowia jadącą na sygnale, zauważymy, że dźwięk jest coraz wyższy, a gdy samochód nas minie, staje się coraz niższy. Fala dźwiękowa zbliżającego się do nas źródła sygnału staje się coraz krótsza, a wydłuża się, gdy źródło sygnału się od nas oddala. Takie samo zjawisko ma miejsce w przypadku fali elektromagnetycznej. Wszechświat się rozszerza, więc – generalnie rzecz biorąc – galaktyki i gwiazdy się od nas oddalają. Długość fali biegnącego w naszym kierunku światła staje się coraz większa, światło to staje się coraz bardziej czerwone. A im bardziej odległy od nas obiekt, tym bardziej czerwone światło do nas dociera. Mówimy tutaj o zjawisku przesunięcia ku czerwieni.
      Ludzie widzą światło o ograniczonym zakresie długości fali. Odległość pomiędzy Ziemią a większością obiektów we wszechświecie jest tak duża, że docierające do nas fale świetlne znajdują się w zakresie podczerwieni, którego nasze oczy nie widzą. Jednak Teleskop Webba jest wyspecjalizowany właśnie w odbieraniu podczerwieni. Dlatego możemy dojrzeć dzięki niemu bardzo stare, niezwykle odległe obiekty.
      JWST korzysta z trzech zwierciadeł. Największe, główne, odpowiada za zbieranie światła docierającego do teleskopu. Zwierciadło główne skupie je i kieruje do zwierciadła wtórnego, stamtąd zaś światło trafia do instrumentów naukowych, a trzecie ze zwierciadeł koryguje wszelkie zniekształcenia wywołane przez dwa pierwsze. Teleskop Webba korzysta ze specjalnej perforowanej maski, która blokuje część docierającego doń światła, symulując działanie wielu teleskopów, dzięki czemu może zwiększyć rozdzielczość. Technika ta pozwala na zdobycie większej ilości danych na temat bardzo jasnych sąsiadujących ze sobą obiektów. Webba wyposażono też w spektrografy, które rozbijają światło na części składowe, ujawniając informacje o intensywności poszczególnych fali światła. Obserwatorium wyposażono też macierz 248 000 mikromigawek służących do pomiaru spektrum światła.
      Za dostarczenie nam obrazu odpowiedzialny jest Zintegrowany Moduł Instrumentów Naukowych, w skład którego wchodzą trzy urządzenia. NIRCam, działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona rejestruje światło z pierwszych gwiazd i galaktyk, pokazuje gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Drugim z nich jest NIRSpec, spektrograf również działający w zakresie od 0,6 do 5 mikrometrów. Spektrografy to urządzenia do rejestracji całego widma promieniowania. Analiza tego widma pozwoli naukowcom poznać wiele cech fizycznych badanego obiektu, w tym jego temperaturę, masę i skład chemiczny. Wiele z obiektów, które Webb będzie badał, jest tak słabo widocznych, że olbrzymie zwierciadło teleskopu będzie musiało prowadzić obserwacje przez setki godzin, by zebrać ilość światła wystarczającą do stworzenia całego widma. Natomiast Mid-Infared Instrument (MIRI) składa się zarówno z kamery jak i spektrografu pracujących w średniej podczerwieni. To zakresy od 5 do 28 mikrometrów. Fal o takiej długości nasze oczy nie widzą. Ten bardzo czuły instrument zobaczy przesunięte ku czerwieni światło odległych galaktyk, tworzących się gwiazd i słabo widocznych komet. Może obserwować Pas Kuipera. Kamer MIRI będzie zdolna do wykonania podobnych szerokokątnych zdjęć, z jakich zasłynął Hubble. A jego spektrograf umożliwi poznanie wielu cech fizycznych odległych obiektów.
      Wszystkie wymienione tutaj instrumenty dostarczają naukowcom danych, które należy odpowiednio dostosować tak, by nasze oczy mogły je zobaczyć. Obrazów z Webba, które udostępnia NASA, nie moglibyśmy zobaczyć będąc w miejscu teleskopu, zarówno dlatego, że nasze oczy nie odbierają światła o takiej długości fali, jak i dlatego, że Webb jest znacznie bardziej czuły na światło. Zatem obrazy przekazywane przez Webba bardziej odpowiadają rzeczywistości, są bardziej prawdziwe, niż to, co możemy zobaczyć na własne oczy. Teleskop korzysta z aż 27 filtrów rejestrujących fale podczerwone o różnej długości. Naukowcy dokładnie analizują te fale, zbierają informacje np. o ich intensywności, a następnie każdej z nich przypisują falę o długości z zakresu światła widzialnego. Najkrótszym przypisywana jest barwa niebieska, dłuższym zielona, najdłuższym czerwona. Po złożeniu tak otrzymany obrazów należy przeprowadzić jeszcze balans, bieli, skorygować kontrast oraz kolory i podziwiać niezwykłe zdjęcia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Webba dostarczył pierwsze zdjęcia Marsa. Naukowcy zyskali dodatkowe dane, które uzupełniają to, co wiedzieliśmy o Czerwonej Planecie dzięki badaniom prowadzonym dotychczas za pomocą innych teleskopów, łazików i orbiterów. Ze swojego stanowiska obserwacyjnego, punktu libracyjnego L2, Webb może obserwować i szczegółowo rejestrować spektrum światła takich zjawisk jak burze pyłowe, zmiany pogody czy pór roku.
      Mars, ze względu na swoją niewielką odległość, jest jednym z najjaśniejszych obiektów na niebie, zarówno w zakresie światła widzialnego, jak i podczerwieni. To dla Webba poważny problem. Teleskop został zbudowany z myślą o obserwowaniu najdalszych, niezwykle słabo świecących obiektów. Blask Marsa może oślepiać Webba, prowadząc do nasycenia detektorów podczerwieni. Dlatego też na potrzeby obserwacji Czerwonej Planety opracowano technikę, w ramach której używa się bardzo krótkich czasów ekspozycji i dokonuje pomiarów tylko części światła docierającego do czujników Webba. To wszystko wspomagany jest specjalnymi metodami analizy danych.
      Pierwsze zdjęcia Marsa przysłane przez Webba pokazują fragment wschodniej półkuli planety. Sfotografowany on został przez instrument NIRcam w dwóch zakresach długości fali 2,1 µm i 4,3 µm. Na fotografii 2,1 µm dominuje odbite światło słoneczne, dlatego jest ono podobne do fotografii wykonanych w zakresie widzialnym przez Mars Orbitera. Z kolei fotografia w zakresie 4,3 µm powstała dzięki ciepłu emitowanemu przez planetę. Odpowiada ono temperaturze powierzchni i atmosfery.
      Najjaśniejsze miejsca to te, na które promienie słoneczne padają pod największym kątem. Jasność spada w kierunku biegunów, widać też, że półkula północna, na której panuje właśnie zima, jest chłodniejsza. Na zdjęcie 4,3 µm wpływa też pochłaniający ten zakres fal dwutlenek węgla w atmosferze. Widać to np. w Basenie Hellas, najlepiej zachowanej strukturze uderzeniowej na Marsie. Jest on ciemniejszy właśnie ze względu na CO2. Basen położony jest niżej, panuje w nim wyższe ciśnienie, które prowadzi do pojawienia się zjawiska pochłaniania promieniowania w zakresie 4,1–4,4 µm. Analiza światła rejestrowanego przez Webba pozwala więc astronomom na zdobycie dodatkowych informacji o powierzchni i atmosferze planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W nocy z poniedziałku na wtorek NASA pokazała pierwsze pełnokolorowe zdjęcie z Teleskopu Kosmicznego Jamesa Webba. Zobaczyliśmy na nim oddaloną o 4,6 miliarda lat świetlnych gromadę galaktyk SMACS 0723. Jej grawitacja zagina światło z obiektów znajdujących się poza gromadą, powiększając je, dzięki czemu możemy zajrzeć jeszcze głębiej w przestrzeń kosmiczną. Teraz NASA zaprezentowała kolejne zdjęcia.
      Możemy więc zobaczyć Mgławicę Carina, jedną z największych i najjaśniejszych mgławic. Znajduje się ona w odległości około 7600 lat świetlnych od Ziemi, w Gwiazdozbiorze Carina. Mgławica Carina jest domem licznych masywnych gwiazd, wielokrotnie większych od Słońca. Widoczne na zdjęciu „góry” i „wąwozy” to krawędź regionu gwiazdotwórczego NGC 3324. Najwyższe „szczyty” mają tutaj około 7 lat świetlnych długości. Webb pokazał miejsca narodzin gwiazd oraz same gwiazdy, których nie było widać w świetle widzialnym.
      Webb pokazał nam też Mgławicę Pierścień Południowy, zwaną też Rozerwaną Ósemką. To mgławica planetarna, rozszerzająca się chmura gazu, która otacza umierającą gwiazdę. Rozerwana Ósemka znajduje się w odległości około 2000 lat świetlnych od Ziemi i ma średnicę niemal pół roku świetlnego.
      Teleskop Webba jest pierwszym instrumentem, który pokazał nam słabiej świecącą gwiazdę znajdującą się wewnątrz Mgławicy Pierścień Południowy. To właśnie ta gwiazda, z której od tysięcy lat wydobywają się pył i gaz, utworzyła mgławicę. Webb umożliwi astronomom dokładne badanie mgławic planetarnych. Krajobraz jest zdominowany przez dwie gwiazdy krążące wokół siebie po ciasnej orbicie. Gwiazdy te wpływają na rozkład gazu i pyłu rozprzestrzeniającej się z jednej z nich, tworząc nieregularne wzory.
      Na kolejnym zdjęciu widzimy Kwintet Stephana, pierwszą kompaktową grupą galaktyk jaką poznała ludzkość. Odkryty on został w 1877 roku. Cztery z pięciu tworzących go galaktyk jest ze sobą powiązanych grawitacyjne. Kwintet Stephana znajduje się w odległości 290 milionów lat świetlnych od nas.
      Kwintet Stephana to największy z dotychczasowych obrazów dostarczonych przez Webba. Składa się on z ponad 150 milionów pikseli i został złożony z niemal 1000 zdjęć. Webb sfotografował nawet fale uderzeniowe wstrząsające kwintentem w wyniku przechodzenia przez niego jednej z galaktyk, NGC 7318B.
      Mimo że struktura zwana jest kwintetem, to tylko cztery galaktyki (NGC 7317, NGC 7318A, NGC 7318B i NGC 7319) są powiązane grawitacyjnie i znajdują się 290 milionów lat świetlnych od nas. Piąta z nich, NGC 7320, znajduje się w odległości 40 milionów lat świetlnych od Ziemi.
      Teleskop dostarczył też obraz spektroskopowy planety WASP-96b. To gorący gazowy olbrzym oddalony o 1150 lat świetlnych od Ziemi. Okrąża swoją gwiazdę w 3,4 doby i ma masę o połowę mniejszą od masy Jowisza. Dane potwierdzają obecność wody w atmosferze WASP 96b, naukowcy zaobserwowali w nich dowody na obecność mgły oraz chmur, których nie widzieliśmy podczas wcześniejszych obserwacji. Dokładniejsza analiza danych pozwoli na okreslenie ilości pary wodnej, węgla, tlenu oraz ocenę zmian temperatury atmosfery w zależności od jej wysokości nad planetą.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Administrator NASA, Bill Nelson, zapowiedział, że 12 lipca Agencja pokaże zdjęcie najbardziej odległego obiektu w przestrzeni kosmicznej, jakie kiedykolwiek wykonano. Będzie to możliwe, oczywiście, dzięki Teleskopowi Kosmicznemu Jamesa Webba (JWST). Na tej samej konferencji prasowej poinformowano, że JWST będzie mógł pracować nie przez 10, a przez 20 lat.
      Obecnie najstarszym i najodleglejszym znanym nam obiektem w kosmosie jest galaktyka HD1, z której światło biegło do nas 13,5 miliarda lat. Powstała ona 330 milionów lat po Wielkim Wybuchu. Eksperci sądzą, że Teleskop Webba z łatwością pobije ten rekord. Jakby jeszcze tego było mało, 12 lipca NASA pokaże pierwsze wykonane przez Webba zdjęcia spektroskopowe egzoplanety. Astronom Nestor Espinoza ze Space Telescope Science Institute mówi, że dotychczasowe możliwości spektroskopowego badania egzoplanet były niezwykle ograniczone w porównaniu z tym, co oferuje Webb. To tak, jakbyśmy  byli w bardzo ciemnym pokoju i mogli wyglądać na zewnątrz przez małą dziurkę w ścianie. Webb otwiera przed nami wielkie okno, dzięki któremu zobaczymy wszystkie szczegóły.
      Webb może badać obiekty w Układzie Słonecznym, atmosfery planet okrążających inne gwiazdy, dając nam wskazówki odnośnie tego, czy te atmosfery są podobne do atmosfery Ziemi. Może nam pomóc w odpowiedzi na pytania, skąd przybyliśmy, kim jesteśmy, co jeszcze jest w kosmosie. Poznamy też odpowiedzi na pytania, których jeszcze nie potrafimy zadać, mówił Nelson.
      Zastępca Nelsona, Pam Melroy, poinformowała, że dzięki idealnemu wystrzeleniu rakiety nośnej przez firmę Arianespace, Teleskop Webba będzie mógł pracować przez 20 lat, a nie przez 10, jak planowano. Tych 20 lat pozwoli nam przeprowadzić więcej badań i jeszcze bardziej pogłębić naszą wiedzę, gdyż będziemy mieli okazję dłużej prowadzić obserwacje, dla których podstawą będą wcześniejsze obserwacje Webba, mówiła Melroy.
      Planując czas trwania misji Webba NASA musiała brać pod uwagę ilość paliwa, które teleskop będzie musiał zużyć w czasie podróży do celu swojej podróży, punktu libracyjnego L2. Dzięki niezwykle precyzyjnemu wystrzeleniu rakiety nośnej, teleskop zużył na korekty kursu znacznie mniej paliwa, niż planowano. Teraz wiemy, że pozostało mu go na 20 lat pracy. Paliwo jest potrzebne Teleskopowi do korekty kursu na orbicie punku L2. Siły grawitacyjne oddziałujące na orbicie L2 powodują, że znajdujące się tam obiekty mają tendencję do opuszczenia tej orbity i zajęcia własnej orbity wokół Słońca. Dlatego mniej więcej co 3 tygodnie Webb będzie uruchamiał silniki i korygował orbitę. Teraz wiemy, że będzie mógł to robić przez kolejnych 20 lat.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...