Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Lądowanie Curiosity to była betka. Mars 2020 pokaże, czym jest precyzja

Rekomendowane odpowiedzi

W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.

Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.

Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.

Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.

To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.

NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.

Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, KopalniaWiedzy.pl napisał:

Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Kurcze wybaczcie mi, albowiem nie wiem co piszę, ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym. Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo. Reasumując, jak ślepy koń w wielkiej Pardubickiej, nie widzę przeszkód?

Ten filmik nie zmienia mojego zdziwienia. Duża zaleta, że to rozwiązanie dojrzałe, wygrzane i ... wojskowe :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Ergo Sum napisał:

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

2 godziny temu, Jajcenty napisał:

ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Jajcenty napisał:

Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo.

Inteligencję pochwalić, ale sprytu ani, ani. Nie to,  co u tego:

19 godzin temu, KopalniaWiedzy.pl napisał:

Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem,

Jak w kawale:

Przychodzi młody Ferenstin do ojca: tato zamknąłem sprawę Goldbluma przeciw Blumenfeldowi, z którą Ty męczyłeś się 15 lat. Na co ojciec: Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia, a Ty zacząłeś karierę od fuszerki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
34 minuty temu, darekp napisał:

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni. Można jakoś tak zrobić żeby NN konkurowały ze sobą w wielu wątkach i wychodzą takie przerażające AI - jak dołączą do tego układy wykonawcze z Boston Dynamics, to możemy powoli kopać sobie dołek. 

6 minut temu, 3grosze napisał:

Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia

Też tak czuję, może nie tak celowo przeciągnięte, pomysł powstał 15 lat temu był rozwijany do tej pory w innym celu niż lądowanie na Marsie, ale aktualna implementacja jest na pewno nowsza :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 20:54, darekp napisał:

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

Nie jestem ekspertem w dziedzinie AI, ale może uznali, że Mojave najbardziej przypomina powierzchnię Marsa i jego geologiczne formacje. Zdaje się, że testują tam sporo sprzętu NASA. Jeżeli tak, to jakie ma znaczenie testowanie w innych warunkach? Najbardziej miarodajny będzie test na Marsie ;-)

W artykule jest mowa, że wykonali 600 lotów śmigłowcem. Zakładam, że przeprowadzali kilkaset udanych lądowań w ich trakcje. Jak podają pewność wzrosła z 85% do 99%, a zysk z kolejnych testów maleje i najwyraźniej trudno było wycisnąć więcej.

Czekam z niecierpliwością na kolejne video, 10 sekund horroru ;-)

Poprzednie to jest jedno z moich ulubionych klipów na YT i widziałem je setki razy ;-)

Edytowane przez wilk
Korekta formatowania. Co Ty masz z tym czarnym tłem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 19:00, Jajcenty napisał:

Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

W dniu 8.10.2019 o 21:35, Jajcenty napisał:

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni.

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, radar napisał:

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

Nie sądzę by Marsjanie o tym wiedzieli ;) Z tymi NN to tak sobie, na szybko, pojechałem. Nie wiem czy to jest zadanie dla sieci. Może wystarczy proste rozpoznawanie obrazu? Mamy zdjęcia i czas, żeby wyuczyć NN tu na Ziemi? Jeśłi tak, to ja bym użył CNN  maksymalnie przetrenowanej co da bardzo dużą  pewność rozpoznania. A może musimy cyknąć parę fotek z orbity i mamy minutę na analizę i decyzję oraz mamy mało cykli CPU i mało prądu? Łatwo się ocenia cudzy soft ;) , ale ponieważ zajmuję się rozpozawaniem obrazu, to na podstawie mojego (przeciętnego) doświadczenia ten kosztorys wydał mi się przesadzony.

6 godzin temu, radar napisał:

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Na pewno tak, ale @darekp odniósł się do samego oprogramowania, a biorąc pod uwagę koszt sprzętu i liczbę potrzebnych testów, to emulowane środowisko wydaje się najlepszym rozwiązaniem. Od lądowania na Marsie do inżynierii programowania i dobrych praktyk ITIL :D BTW jest update ITIL do 4.0 od lutego, jakoś przeszło bez echa w światku IT :)  

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
47 minut temu, Jajcenty napisał:

Nie sądzę by Marsjanie o tym wiedzieli

Oj tam oj tam:) To była uwaga ogólna :) (chociaż swoją drogą ciekawe czy jakiś nietypowy układ wzorów na głazach nie mógł by sprawić kłopotów? )

1 godzinę temu, Jajcenty napisał:

A może musimy cyknąć parę fotek z orbity

To mnie właśnie ciekawi, wydawało mi się, że zdjęć trochę mamy, ale może rozdzielczość za słaba? No i zawsze mnie dziwi czy te bezwładnościowe czujniki nie są wystarczająco dokładne skoro na Ziemi naprowadza się nimi rakiety (wojskowe)?

1 godzinę temu, Jajcenty napisał:

ale ponieważ zajmuję się rozpozawaniem obrazu,

O proszę... pochwal się gdzie i w jakim celu?

W dniu 8.10.2019 o 21:25, 3grosze napisał:

Przychodzi młody Ferenstin

Trochę tak, ale pewnie ostateczne osiągnięcia były w ostatnich kilku latach. Deep Learning w 2004 był słaby, potem był 2006, a teraz nvidia pewnie mogła by im dostarczyć małą kość z 1000 czy 2000 corami CUDA.

1 godzinę temu, Jajcenty napisał:

update ITIL do 4.0

Aż tak wiele się nie zmieniło :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

O proszę... pochwal się gdzie i w jakim celu?

W sumie nic ciekawego, przemysł nasycił się kamerami i teraz czas coś z tego wyciągnąć. Większość zagadnień jest opanowana/ogarnięta przez dostawców CCTV, wykrywanie ruchu, ognia, numery rejestracyjne samochodów, wykrywanie ludzi w strefach zagrożenia - takie po prostu wdrażamy, ale zostaje trochę drobnicy dla rzemieślników. Robiłem pomiary detalu na taśmie, wykrywanie uszkodzeń mechanicznych przenośnika, temperatury łożysk/silników do predictive maintenance. Oczywiście Python,Numpy,OpenCV rules! 

35 minut temu, Astro napisał:

Komu by się chciało wchodzić w coś przykładowo normalnego jak Haskell?

Próbowałem programowania funkcyjnego chyba więcej razy niż rzucałem palenie i nic. Nie moja bajka. I chyba nie tylko nie moja, sądząc po popularności tego podejścia. Nawet laski na to nie lecą.

44 minuty temu, Astro napisał:

Do tego trzeba trochę inteligencji, a nie szybkich palców

No i masz wyjaśnienie. Jak do projektu potrzebujesz geniuszy, to masz bardzo drogie projekty. Nie wspominając, że geniusze są znani ze swej skłoności do współpracy i wszyscy się garną by razem z nimi robić soft i grzać się cieple ich ego :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 godziny temu, Astro napisał:

Ale wiesz, to nie musi być stanowczo droższe. Dwie inteligentne linijki kodu nie są droższe, niż 120 debilnych robiących to samo (zwykle wolniej)

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, Jajcenty said:

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Dokładnie. Spotykałem się w pracy z miłośnikiem Haskella. Napisał w nim jeden raport, który był chyba uruchomiony kilkukrotnie. Nie orientuję się dokładnie, może nawet chodził gdzieś na back-endzie przez kilka miesięcy, ale prawie nikt o nim nie słyszał i nikt nigdy nie napisał nic innego w Haskellu w tej firmie. Był to mały dodatek do projektu, więc nie ma to znaczenia. Deweloper się czegoś nauczył, a kod działał poprawnie, więc wszyscy byli zadowoleni ;-)

Klasyka XKCD odnośnie Haskella:

https://www.explainxkcd.com/wiki/index.php/1312:_Haskell

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 12.10.2019 o 10:42, Astro napisał:

Mars Landing Success Rate: 40%

Toteż pisałem o 1-2 latach testów i (mea culpa, że nie uściśliłem;) ) miałem na myśli realne testy w rodzaju tych 600 lotów z helikopterem, a nie jakieś testowanie sieci neuronowej w wirtualnym środowisku software'owym;) Zresztą w tym przypadku nie wystarczy sama sieć do rozpoznania obrazu, ale coś musi sterować silniczkami rakietowymi itp. Plus interakcję z realna przyrodą na zewnątrz (a nie jakimiś ściśle określonymi np. jakąś specyfikacją warunkami). Ja bym długo testował... ;) I bardzo dokładnie... ;) Nawet w wypadku, gdyby rozpoznawanie obrazu nie było problemem.

59 minut temu, cyjanobakteria napisał:

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

P.S. A kompilator Elma BTW jest napisany w Haskellu. ;)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, darekp said:

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework. Można nie lubić TypeScript, ale mainstreamowe IDE się bardzo dobrze integrują i można się nauczyć innego podejścia w locie, które pomaga znaleźć błędy zanim kod trafi na produkcję. Ma bardzo dobre CLI i przypomina mi dojrzałe backendowe frameworki jak Ruby On Rail i Django. Szkoda, że przeskok z A1 na A2 nie jest możliwy bez przepisania aplikacji, to na pewno nie pomogło A2 zyskać na popularności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, cyjanobakteria napisał:

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework.

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Ale nie mówię (ani nie wierzę), że jest jakaś "jedynie słuszna opcja". Tam gdzie trzeba zoptymalizować jakiś algorytm, języki imperatywne pewnie są lepsze (można wielokrotnie nadpisywać ten sam kawałek pamięci).  Sam "od zawsze" programowałem w C++ i C# (trochę też w Javie), ale coraz częściej piszę np. klasy z samymi metodami statycznymi, bo to mi się sprawdza najbardziej i to bierze się chyba z tego, że  u nas w pracy nie ma dużej presji na algorytmy i struktury danych, robi się przetwarzanie dokumentów znajdujących się w bazie danych albo formularze do ich edycji i ważne jest, żeby sprawnie zaimplementować jakąś logikę biznesową. Jeśli coś się optymalizuje, to zapytania na bazie danych. Wymagania się często zmieniają. W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne. Co dopiero zaczynam sprawdzać:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 minuty temu, darekp napisał:

W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne.

Witam po ciemnej stronie mocy! Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document(); Nie dość, że bolesna liczba powtórzeń 'document', to jeszcze mi sterta rośnie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, Jajcenty napisał:

Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document();

Mnie też ;) I jeszcze korci, żeby wykasować ten średnik na końcu;) I jeszcze albo słowo kluczowe new, albo te nawiasy po Dokument (obu naraz chyba się się nie da, chociaż głowy nie daję;)) 

P.S. Bo oczywiście pierwsze wystąpienie "Document" można już od dawna zastąpić jakimś let/var/val itp. (wszędzie oprócz Javy) ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, darekp said:

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Kilka lat temu zrobiłem projekt w AngularJS (1.x) i przeskoczyłem w bezpieczeństwo IT. Teraz trochę nadrobiłem z ciekawości i z perspektywy czasu mogę powiedzieć, że AngularJS (1.x) to był dość toporny framework. Jakby ktoś zapytał, co w nim lubiłem, to nie wiem, co bym odpowiedział :) Za to jestem pod wrażeniem Angular (2+), integracją różnych IDE (VS, Webstorm) z TypeScript i CLI. Po drodze zmieniło się jednak podejście i mainstreamowe frameworki są teraz oparte na komponentach.

Niewiele wiem na temat RxJS, ale zrobiłem kilka tutoriali z małymi aplikacjami w oparciu o nowy Angular i nie musiałem z tego korzystać, ale nie wykluczam, że w większym projekcie jest to przydatne. Zerkam też na React i to ciekawa biblioteka, dużo lżejsza, ale z drugiej strony wygląda na to, że trzeba korzystać z dodatków. Trochę mnie męczy to mieszanie HTML i JS, ale podejrzewam, że można to rozdzielić.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W 2023 roku średnia temperatura była niemal o 1,5 stopnia wyższa od średniej sprzed rewolucji przemysłowej. Jednak naukowcy próbujący wyjaśnić ten wzrost, mają kłopoty z określeniem jego przyczyn. Gdy bowiem biorą pod uwagę emisję gazów cieplarnianych, zjawisko El Niño czy wpływ erupcji wulkanicznych, wciąż niewyjaśnione pozostaje około 0,2 stopnia wzrostu. Uczeni z Instytutu Badań Polarnych i Morskich im. Alfreda Wegenera (AWI) zaproponowali na łamach Science wyjaśnienie tego zjawiska. Według nich te brakujące 0,2 stopnia to skutek zmniejszającego się albedo – zdolności do odbijania światła – Ziemi.
      Uczeni z AWI, we współpracy ze specjalistami od modelowania klimatu z European Centre for Medium-Range Weather Forecasts (ECMWF), przeanalizowali dane satelitarne z NASA oraz ponownie przyjrzeli się danym ECMWF. Niektóre z nich pochodziły nawet z roku 1940. Na ich podstawie sprawdzili jak przez ostatnie dziesięciolecia zmieniał się globalny budżet energetyczny oraz pokrywa chmur na różnych wysokościach. Zarówno w danych NASA, jak i ECMWF, rok 2023 wyróżniał się jako ten o najniższym albedo planetarnym. Od lat obserwujemy niewielki spadek albedo. Ale dane pokazują, że w 2023 roku albedo było najniższe od co najmniej roku 1940, mówi doktor Thomas Rackow.
      Zmniejszanie się albedo Ziemi naukowcy obserwują od lat 70. Częściowo za zjawisko to odpowiadało zmniejszanie się pokrywy lodowej oraz ilości lodu pływającego w Arktyce. Mniej śniegu i lodu oznacza, że mniej promieniowania słonecznego jest odbijane przez Ziemię. Od 2016 roku efekt ten został wzmocniony przez zmniejszanie się zasięgu lodu pływającego w Antarktyce. Jednak nasze analizy pokazywały, że spadek albedo w regionach polarnych odpowiada jedynie za 15% całkowitego spadku albedo, dodaje doktor Helge Goessling. Albedo zmniejszyło się też jednak w innych regionach planety i gdy naukowcy wprowadzili dane do modeli budżetu energetycznego stwierdzili, że gdyby nie spadek albedo od grudnia 2020, to średni temperatury w roku 2023 byłyby o 0,23 stopnie Celsjusza niższe.
      Na zmniejszenie albedo wpłynął przede wszystkim zanik nisko położonych chmur z północnych średnich szerokości geograficznych i z tropików. Szczególnie silnie zjawisko to zaznaczyło się na Atlantyku, co wyjaśniałoby, dlaczego był on tak niezwykle gorący. Pokrywa chmur na średnich i dużych wysokościach nie uległa zmianie lub zmieniła się nieznacznie.
      Chmury na wszystkich wysokościach odbijają światło słoneczne, przyczyniając się do ochłodzenia planety. Jednak te, które znajdują się w wysokich, chłodnych warstwach atmosfery, tworzą rodzaj otuliny, który zapobiega ucieczce w przestrzeń kosmiczną ciepła wypromieniowywanego przez Ziemię. Zatem utrata chmur położonych niżej oznacza, że tracimy część efektu chłodzącego, wpływ ocieplający chmur pozostaje.
      Rodzi się więc pytanie, dlaczego niżej położone chmury zanikły. Częściowo przyczyną może być mniejsza antropogeniczna emisja aerozoli, szczególnie z powodu narzucenia bardziej restrykcyjnych norm na paliwo używane przez statki. Aerozole z jednej strony biorą udział w tworzeniu się chmur, z drugiej zaś – same odbijają promieniowanie słoneczne. Jednak badacze uważają, że czystsze powietrze to nie wszystko i mamy do czynienia z bardziej niepokojącym zjawiskiem.
      Ich zdaniem to sama zwiększająca się temperatura powoduje, że na mniejszych wysokościach formuje się mniej chmur. Jeśli zaś znaczna część spadku albedo to – jak pokazują niektóre modele klimatyczne – skutek sprzężenia zwrotnego pomiędzy globalnym ociepleniem a nisko położonymi chmurami, to w przyszłości powinniśmy spodziewać się jeszcze bardziej intensywnego ocieplenia. Średnia temperatura na Ziemi może przekroczyć granicę wzrostu o 1,5 stopnia Celsjusza w porównaniu z epoką przedprzemysłową wcześniej, niż sądziliśmy, dodaje Goessling.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Woda z komety 67P/Czuriumow-Gierasimienko ma podobny stosunek deuteru i wodoru, co woda w ziemskich oceanach, poinformował międzynarodowy zespół naukowy, pracujący pod kierunkiem Kathleen E. Mandt z NASA. To zaś ponownie otwiera dyskusję na temat roli komet rodziny Jowisza w dostarczeniu wody na Ziemię. Uzyskane właśnie wyniki stoją w sprzeczności z wcześniejszymi badaniami, jednak naukowcy stwierdzili, że wcześniejsza interpretacja wyników badań wykonanych przez satelity została zafałszowana przez pył z komety.
      W gazie i pyle, z którego uformowała się Ziemia, mogło znajdować się nieco wody, jednak większość z niej została odparowana przez Słońce. Teraz, po 4,6 miliarda lat, Ziemia jest pełna wody, a naukowcy wciąż się nad jej pochodzeniem. Mamy silne dowody wskazujące na to, że została ona przyniesiona przez asteroidy. Jednak wciąż sporna pozostaje rola komet. W ciągu kilku ostatnich dekad badania komet jowiszowych – które zawierają materiał z wczesnych etapów istnienia Układu Słonecznego i powstały poza orbitą Saturna – wykazywały silny związek pomiędzy zawartą w nich wodą, a wodą na Ziemi.
      Związek ten wynikał z podobnego stosunek deuteru do wodoru. To właśnie na jego podstawie można stwierdzić, czy woda występująca na dwóch ciałach niebieskich jest podobna, czy też nie. Woda zawierająca więcej deuteru powstaje w środowisku zimnym, dalej od Słońca. Zatem ta na kometach jest mniej podobna do ziemskiej wody niż ta na asteroidach. Jednak prowadzone przez dekady badania pary wodnej z komet jowiszowych pokazywały podobieństwa do wody na Ziemi. Dlatego też naukowcy zaczęli postrzegać te komety jako ważne źródło wody na Ziemi.
      Jednak w 2014 roku przekonanie takie legło w gruzach. Wtedy to misja Rosetta, wysłana do 67P/Czuriumow-Gierasimienko przez Europejską Agencję Kosmiczną, dostarczyła unikatowych danych na temat komety. A analizujący je naukowcy zauważyli, że stosunek deuteru do wodoru jest na niej największy ze wszystkich zbadanych komet i trzykrotnie większy niż w wodzie ziemskiej. To było olbrzymie zaskoczenie, które skłoniło nas do przemyślenia wszystkiego, mówi Mandt.
      Pracujący pod jej kierunkiem zespół specjalistów z USA, Francji i Szwajcarii, w tym uczonych, którzy brali udział w misji Rosetta, jako pierwszy przeanalizował wszystkie 16 000 pomiarów wykonanych podczas europejskiej misji. Naukowcy chcieli zrozumieć, jakie procesy fizyczne powodują zmienność stosunku deuteru do wodoru w wodzie z komet. Badania laboratoryjne, obserwacje komet i analizy statystyczne wykazały, że pył z komet może wpływać na odczyty. Byłam ciekawa, czy znajdziemy dowody na to, że podobne zjawisko miało miejsce podczas badań 67P. I okazało się, że to jeden z tych rzadkich przypadków, gdy wysuwa się jakąś hipotezę i ona całkowicie się sprawdza, mówi Mandt.
      Naukowcy znaleźli wyraźny związek pomiędzy pomiarami ilości deuteru w warkoczu 67P a ilością pyłu wokół pojazdu Rosetta. To wskazywało, że część odczytów może nie być reprezentatywna dla składu komety.
      Gdy kometa zbliża się do Słońca, jej powierzchnia ogrzewa się i z powierzchni wydobywa się gaz oraz pył. Ziarna pyłu zawierają zamarzniętą wodę. Nowe badania sugerują, że woda zawierająca więcej deuteru łatwiej przylega do pyłu, niż woda jaką spotykamy na Ziemi. Gdy lód z takich ziaren pyłu jest uwalniany do warkocza komety, może powodować, że wygląda to tak, jakby woda z komety zawierała więcej deuteru niż w rzeczywistości.
      Rosetta krążyła w odległości 10–30 kilometrów od głowy komety. Mandt i jej zespół zauważyli, że do przeprowadzenia prawidłowych pomiarów składu wody z komety konieczne jest, by uwolnione do warkocza ziarna pyłu zdążyły wyschnąć. Pozbywają się one wody dopiero w odległości co najmniej 120 kilometrów od głowy komety.
      Odkrycie ma duże znaczenie nie tylko dla zrozumienia roli komet jako źródła wody na Ziemi,a le też do lepszego zrozumienia przyszłych i przeszłych badań. To świetna okazja by jeszcze raz przyjrzeć się obserwacjom z przeszłości i lepiej przygotować się do przyszłych badań, mówi Mandt.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jeszcze do niedawna naukowcy potrafili określi miejsce pochodzenia jedynie 6% meteorytów znalezionych na Ziemi. Teraz naukowcy z francuskiego Narodowego Centrum Badań Naukowych (CNRS), Europejskiego Obserwatorium Południowego i czeskiego Uniwersytetu Karola wykazali, że 70% wszystkich znalezionych na naszej planecie meteorytów pochodzi z trzech młodych rodzin asteroid.
      Rodziny te to wyniki trzech zderzeń, do których doszło w głównym pasie asteroid 5,8, 7,5 oraz 40 milionów lat temu. Badacze określili też źródło innych meteorytów, dzięki czemu możemy teraz zidentyfikować miejsce pochodzenia ponad 90% skał, które z kosmosu spadły na Ziemię. Wyniki badań zostały opublikowane w trzech artykułach. Jeden ukazał się łamach Astronomy and Astrophysics, a dwa kolejne na łamach Nature.
      Wspomniane rodziny asteroid to – od najmłodszej do najstarszej – Karin, Koronis i Massalia. Wyróżnia się Massalia, która jest źródłem 37% meteorytów. Dotychczas na Ziemi odnaleziono podczas 700 000 okruchów z kosmosu. Jedynie 6% z nich zidentyfikowano jako achondryty pochodzące z Księżyca, Marsa lub Westy, jednego z największych asteroid głównego pasa. Źródło pozostałych 94%, z których większość do chondryty, pozostawało nieznane.
      Jak to jednak możliwe, że źródłem większości znalezionych meteorytów są młode rodziny asteroid? Autorzy badań wyjaśniają, że rodziny takie charakteryzują się dużą liczbą niewielkich fragmentów powstałych w wyniku niedawnych kolizji. Ta obfitość zwiększa prawdopodobieństwo kolejnych zderzeń, co w połączeniu z duża mobilnością tych szczątków, powoduje, że mogą zostać wyrzucone z głównego pasa asteroid, a część z nich poleci w kierunku Ziemi. Starsze rodziny asteroid nie są tak liczne. Przez wiele milionów lat mniejsze fragmenty, ale na tyle duże, że mogłyby spaść na Ziemię, zniknęły w wyniku kolejnych zderzeń i ucieczki z pasa asteroid.
      Określenie pochodzenia większości meteorytów było możliwe dzięki teleskopowym badaniom składu większości rodzin asteroid w głównym pasie oraz zaawansowanymi symulacjami komputerowymi, podczas których badano dynamikę tych rodzin.
      Autorzy badań określili też pochodzenie wielkich asteroid, takich jak Ryugu czy Bennu. Okazało się, że pochodzą one od tego samego przodka co rodzina asteroid Polana.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po dziesięcioleciach udało się odkryć ambipolarne (dwukierunkowe) pole elektryczne Ziemi. To słabe pole elektryczne naszej planety, które jest tak podstawową jej cechą jak grawitacja czy pola magnetyczne. Hipoteza o istnieniu takiego pola pojawiła się ponad 60 lat temu i od tamtego czasu poszukiwano tego pola. Jest ono kluczowym mechanizmem napędzającym „wiatr polarny”, czyli ucieczkę naładowanych cząstek z ziemskiej atmosfery w przestrzeń kosmiczną. Ma ona miejsce nad ziemskimi biegunami.
      „Wiatr polarny” został odkryty w latach 60. XX wieku. Od samego początku naukowcy uważali, że jego siłą napędową jest nieznane pole elektryczne. Uważano, że jest ono generowane w skali subatomowej i jest niezwykle słabe. Przez kolejnych kilkadziesiąt lat ludzkość nie dysponowała narzędziami, które mogły zarejestrować takie pole.
      W 2016 roku Glyn Collinson i jego zespół z Goddars Space Flight Center zaczęli pracować nad instrumentami zdolnymi do zmierzenia ambipolarnego pola elektrycznego. Stworzone przez nich urządzenia oraz metoda pomiaru zakładały przeprowadzenie badań za pomocą rakiety suborbitalnej wystrzelonej z Arktyki. Badacze nazwali swoją misję Endurance, na cześć statku, którym Ernest Shackleton popłynął w 1914 roku na swoją słynną wyprawę na Antarktykę. Rakietę postanowiono wystrzelić ze Svalbardu, gdzie znajduje się najbardziej na północ wysunięty kosmodrom. Svalbard to jedyny kosmodrom na świecie, z którego można wystartować, by przelecieć przez wiatr polarny i dokonać koniecznych pomiarów, mówi współautorka badań, Suzie Imber z University of Leicester.
      Misja Endurance została wystrzelona 11 maja 2022 roku. Rakieta osiągnęła wysokość 768,03 km i 19 minut później spadła do Morza Grenlandzkiego. Urządzenia pokładowe zbierały dane przez 518 kilometrów nabierania wysokości i zanotowały w tej przestrzeni zmianę potencjału elektrycznego o 0,55 wolta. Pół wolta to tyle co nic, to napięcie baterii w zegarku. Ale to dokładnie tyle, ile trzeba do napędzenia wiatru polarnego, wyjaśnia Collinson.
      Generowane pole elektryczne oddziałuje na jony wodoru, które dominują w wietrze polarnym, z siłą 10,6-krotnie większą niż grawitacja. To więcej niż trzeba, by pokonać grawitację. To wystarczająco dużo, by wystrzelić jony z prędkością naddźwiękową prosto w przestrzeń kosmiczną, dodaje Alex Glocer z NASA. Pole napędza też cięższe pierwiastki, jak jony tlenu. Z badań wynika, że dzięki obecności tego pola elektrycznego jonosfera jest na dużej wysokości o 271% bardziej gęsta, niż byłaby bez niego. Mamy tutaj rodzaj taśmociągu, podnoszącego atmosferę do góry, dodaje Collinson.
      Pole to nazwano ambipolarnym (dwukierunkowym), gdyż działa w obie strony. Opadające pod wpływem grawitacji jony ciągną elektrony w dół, a w tym samym czasie elektrony – próbując uciec w przestrzeń kosmiczną – ciągną jony w górę. Wskutek tego wysokość atmosfery zwiększa się, a część jonów trafia na wystarczającą wysokość, by uciec w przestrzen kosmiczną w postaci wiatru polarnego.
      Odkrycie ambipolarnego pola elektrycznego otwiera przed nauką nowe pola badawcze. Jest ono bowiem, obok grawitacji i pola magnetycznego, podstawowym polem energetycznym otaczającym naszą planetę, wciąż wpływa na ewolucję naszej atmosfery w sposób, który dopiero teraz możemy badać. Co więcej, każda planeta posiadająca atmosferę powinna mieć też ambipolarne pole elektryczne. Można więc będzie go szukać i badać na Marsie czy Wenus.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...