Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Lądowanie Curiosity to była betka. Mars 2020 pokaże, czym jest precyzja

Rekomendowane odpowiedzi

W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.

Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.

Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.

Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.

To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.

NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.

Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, KopalniaWiedzy.pl napisał:

Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Kurcze wybaczcie mi, albowiem nie wiem co piszę, ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym. Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo. Reasumując, jak ślepy koń w wielkiej Pardubickiej, nie widzę przeszkód?

Ten filmik nie zmienia mojego zdziwienia. Duża zaleta, że to rozwiązanie dojrzałe, wygrzane i ... wojskowe :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Ergo Sum napisał:

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

2 godziny temu, Jajcenty napisał:

ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Jajcenty napisał:

Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo.

Inteligencję pochwalić, ale sprytu ani, ani. Nie to,  co u tego:

19 godzin temu, KopalniaWiedzy.pl napisał:

Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem,

Jak w kawale:

Przychodzi młody Ferenstin do ojca: tato zamknąłem sprawę Goldbluma przeciw Blumenfeldowi, z którą Ty męczyłeś się 15 lat. Na co ojciec: Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia, a Ty zacząłeś karierę od fuszerki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
34 minuty temu, darekp napisał:

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni. Można jakoś tak zrobić żeby NN konkurowały ze sobą w wielu wątkach i wychodzą takie przerażające AI - jak dołączą do tego układy wykonawcze z Boston Dynamics, to możemy powoli kopać sobie dołek. 

6 minut temu, 3grosze napisał:

Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia

Też tak czuję, może nie tak celowo przeciągnięte, pomysł powstał 15 lat temu był rozwijany do tej pory w innym celu niż lądowanie na Marsie, ale aktualna implementacja jest na pewno nowsza :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 20:54, darekp napisał:

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

Nie jestem ekspertem w dziedzinie AI, ale może uznali, że Mojave najbardziej przypomina powierzchnię Marsa i jego geologiczne formacje. Zdaje się, że testują tam sporo sprzętu NASA. Jeżeli tak, to jakie ma znaczenie testowanie w innych warunkach? Najbardziej miarodajny będzie test na Marsie ;-)

W artykule jest mowa, że wykonali 600 lotów śmigłowcem. Zakładam, że przeprowadzali kilkaset udanych lądowań w ich trakcje. Jak podają pewność wzrosła z 85% do 99%, a zysk z kolejnych testów maleje i najwyraźniej trudno było wycisnąć więcej.

Czekam z niecierpliwością na kolejne video, 10 sekund horroru ;-)

Poprzednie to jest jedno z moich ulubionych klipów na YT i widziałem je setki razy ;-)

Edytowane przez wilk
Korekta formatowania. Co Ty masz z tym czarnym tłem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 19:00, Jajcenty napisał:

Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

W dniu 8.10.2019 o 21:35, Jajcenty napisał:

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni.

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, radar napisał:

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

Nie sądzę by Marsjanie o tym wiedzieli ;) Z tymi NN to tak sobie, na szybko, pojechałem. Nie wiem czy to jest zadanie dla sieci. Może wystarczy proste rozpoznawanie obrazu? Mamy zdjęcia i czas, żeby wyuczyć NN tu na Ziemi? Jeśłi tak, to ja bym użył CNN  maksymalnie przetrenowanej co da bardzo dużą  pewność rozpoznania. A może musimy cyknąć parę fotek z orbity i mamy minutę na analizę i decyzję oraz mamy mało cykli CPU i mało prądu? Łatwo się ocenia cudzy soft ;) , ale ponieważ zajmuję się rozpozawaniem obrazu, to na podstawie mojego (przeciętnego) doświadczenia ten kosztorys wydał mi się przesadzony.

6 godzin temu, radar napisał:

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Na pewno tak, ale @darekp odniósł się do samego oprogramowania, a biorąc pod uwagę koszt sprzętu i liczbę potrzebnych testów, to emulowane środowisko wydaje się najlepszym rozwiązaniem. Od lądowania na Marsie do inżynierii programowania i dobrych praktyk ITIL :D BTW jest update ITIL do 4.0 od lutego, jakoś przeszło bez echa w światku IT :)  

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
47 minut temu, Jajcenty napisał:

Nie sądzę by Marsjanie o tym wiedzieli

Oj tam oj tam:) To była uwaga ogólna :) (chociaż swoją drogą ciekawe czy jakiś nietypowy układ wzorów na głazach nie mógł by sprawić kłopotów? )

1 godzinę temu, Jajcenty napisał:

A może musimy cyknąć parę fotek z orbity

To mnie właśnie ciekawi, wydawało mi się, że zdjęć trochę mamy, ale może rozdzielczość za słaba? No i zawsze mnie dziwi czy te bezwładnościowe czujniki nie są wystarczająco dokładne skoro na Ziemi naprowadza się nimi rakiety (wojskowe)?

1 godzinę temu, Jajcenty napisał:

ale ponieważ zajmuję się rozpozawaniem obrazu,

O proszę... pochwal się gdzie i w jakim celu?

W dniu 8.10.2019 o 21:25, 3grosze napisał:

Przychodzi młody Ferenstin

Trochę tak, ale pewnie ostateczne osiągnięcia były w ostatnich kilku latach. Deep Learning w 2004 był słaby, potem był 2006, a teraz nvidia pewnie mogła by im dostarczyć małą kość z 1000 czy 2000 corami CUDA.

1 godzinę temu, Jajcenty napisał:

update ITIL do 4.0

Aż tak wiele się nie zmieniło :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

O proszę... pochwal się gdzie i w jakim celu?

W sumie nic ciekawego, przemysł nasycił się kamerami i teraz czas coś z tego wyciągnąć. Większość zagadnień jest opanowana/ogarnięta przez dostawców CCTV, wykrywanie ruchu, ognia, numery rejestracyjne samochodów, wykrywanie ludzi w strefach zagrożenia - takie po prostu wdrażamy, ale zostaje trochę drobnicy dla rzemieślników. Robiłem pomiary detalu na taśmie, wykrywanie uszkodzeń mechanicznych przenośnika, temperatury łożysk/silników do predictive maintenance. Oczywiście Python,Numpy,OpenCV rules! 

35 minut temu, Astro napisał:

Komu by się chciało wchodzić w coś przykładowo normalnego jak Haskell?

Próbowałem programowania funkcyjnego chyba więcej razy niż rzucałem palenie i nic. Nie moja bajka. I chyba nie tylko nie moja, sądząc po popularności tego podejścia. Nawet laski na to nie lecą.

44 minuty temu, Astro napisał:

Do tego trzeba trochę inteligencji, a nie szybkich palców

No i masz wyjaśnienie. Jak do projektu potrzebujesz geniuszy, to masz bardzo drogie projekty. Nie wspominając, że geniusze są znani ze swej skłoności do współpracy i wszyscy się garną by razem z nimi robić soft i grzać się cieple ich ego :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 godziny temu, Astro napisał:

Ale wiesz, to nie musi być stanowczo droższe. Dwie inteligentne linijki kodu nie są droższe, niż 120 debilnych robiących to samo (zwykle wolniej)

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, Jajcenty said:

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Dokładnie. Spotykałem się w pracy z miłośnikiem Haskella. Napisał w nim jeden raport, który był chyba uruchomiony kilkukrotnie. Nie orientuję się dokładnie, może nawet chodził gdzieś na back-endzie przez kilka miesięcy, ale prawie nikt o nim nie słyszał i nikt nigdy nie napisał nic innego w Haskellu w tej firmie. Był to mały dodatek do projektu, więc nie ma to znaczenia. Deweloper się czegoś nauczył, a kod działał poprawnie, więc wszyscy byli zadowoleni ;-)

Klasyka XKCD odnośnie Haskella:

https://www.explainxkcd.com/wiki/index.php/1312:_Haskell

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 12.10.2019 o 10:42, Astro napisał:

Mars Landing Success Rate: 40%

Toteż pisałem o 1-2 latach testów i (mea culpa, że nie uściśliłem;) ) miałem na myśli realne testy w rodzaju tych 600 lotów z helikopterem, a nie jakieś testowanie sieci neuronowej w wirtualnym środowisku software'owym;) Zresztą w tym przypadku nie wystarczy sama sieć do rozpoznania obrazu, ale coś musi sterować silniczkami rakietowymi itp. Plus interakcję z realna przyrodą na zewnątrz (a nie jakimiś ściśle określonymi np. jakąś specyfikacją warunkami). Ja bym długo testował... ;) I bardzo dokładnie... ;) Nawet w wypadku, gdyby rozpoznawanie obrazu nie było problemem.

59 minut temu, cyjanobakteria napisał:

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

P.S. A kompilator Elma BTW jest napisany w Haskellu. ;)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, darekp said:

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework. Można nie lubić TypeScript, ale mainstreamowe IDE się bardzo dobrze integrują i można się nauczyć innego podejścia w locie, które pomaga znaleźć błędy zanim kod trafi na produkcję. Ma bardzo dobre CLI i przypomina mi dojrzałe backendowe frameworki jak Ruby On Rail i Django. Szkoda, że przeskok z A1 na A2 nie jest możliwy bez przepisania aplikacji, to na pewno nie pomogło A2 zyskać na popularności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, cyjanobakteria napisał:

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework.

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Ale nie mówię (ani nie wierzę), że jest jakaś "jedynie słuszna opcja". Tam gdzie trzeba zoptymalizować jakiś algorytm, języki imperatywne pewnie są lepsze (można wielokrotnie nadpisywać ten sam kawałek pamięci).  Sam "od zawsze" programowałem w C++ i C# (trochę też w Javie), ale coraz częściej piszę np. klasy z samymi metodami statycznymi, bo to mi się sprawdza najbardziej i to bierze się chyba z tego, że  u nas w pracy nie ma dużej presji na algorytmy i struktury danych, robi się przetwarzanie dokumentów znajdujących się w bazie danych albo formularze do ich edycji i ważne jest, żeby sprawnie zaimplementować jakąś logikę biznesową. Jeśli coś się optymalizuje, to zapytania na bazie danych. Wymagania się często zmieniają. W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne. Co dopiero zaczynam sprawdzać:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 minuty temu, darekp napisał:

W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne.

Witam po ciemnej stronie mocy! Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document(); Nie dość, że bolesna liczba powtórzeń 'document', to jeszcze mi sterta rośnie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, Jajcenty napisał:

Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document();

Mnie też ;) I jeszcze korci, żeby wykasować ten średnik na końcu;) I jeszcze albo słowo kluczowe new, albo te nawiasy po Dokument (obu naraz chyba się się nie da, chociaż głowy nie daję;)) 

P.S. Bo oczywiście pierwsze wystąpienie "Document" można już od dawna zastąpić jakimś let/var/val itp. (wszędzie oprócz Javy) ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, darekp said:

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Kilka lat temu zrobiłem projekt w AngularJS (1.x) i przeskoczyłem w bezpieczeństwo IT. Teraz trochę nadrobiłem z ciekawości i z perspektywy czasu mogę powiedzieć, że AngularJS (1.x) to był dość toporny framework. Jakby ktoś zapytał, co w nim lubiłem, to nie wiem, co bym odpowiedział :) Za to jestem pod wrażeniem Angular (2+), integracją różnych IDE (VS, Webstorm) z TypeScript i CLI. Po drodze zmieniło się jednak podejście i mainstreamowe frameworki są teraz oparte na komponentach.

Niewiele wiem na temat RxJS, ale zrobiłem kilka tutoriali z małymi aplikacjami w oparciu o nowy Angular i nie musiałem z tego korzystać, ale nie wykluczam, że w większym projekcie jest to przydatne. Zerkam też na React i to ciekawa biblioteka, dużo lżejsza, ale z drugiej strony wygląda na to, że trzeba korzystać z dodatków. Trochę mnie męczy to mieszanie HTML i JS, ale podejrzewam, że można to rozdzielić.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Ziemia doświadczyła co najmniej 5 epizodów masowego wymierania. Przyczyny niektórych z nich, jak wymierania kredowego, kiedy wyginęły dinozaury, są znane. Co do innych wymierań, nie mamy takiej pewności. Od pewnego czasu pojawiają się głosy, że za przynajmniej jedno z wymierań odpowiedzialny był wybuch supernowej. Autorzy nowych badań uważają, że bliskie Ziemi supernowe już co najmniej dwukrotnie doprowadziły do wymierania gatunków. I nie mamy gwarancji, że sytuacja się nie powtórzy.
      Podczas eksplozji supernowej dochodzi do emisji olbrzymich ilości promieniowania ultrafioletowego, X czy gamma. Z badań przeprowadzonych w 2020 roku wiemy, że wybuch supernowej w odległości mniejszej niż 10 parseków (ok. 33 lata świetlne) od Ziemi, całkowicie zabiłby życie na naszej planecie. Za wymierania mogą więc odpowiadać wybuchy, do których doszło w odległości około 20 parseków (pc). Zginęłoby wówczas wiele gatunków, ale samo życie by przetrwało.
      Alexis L. Quintana z Uniwersytetu w Alicante oraz Nicholas J. Wright i Juan Martínez García z Keele University przyjrzeli się 24 706 gwiazdom OB znajdujących się w odległości 1 kiloparseka (kpc), czyli 3261 lat świetlnych od Słońca. Dzięki temu obliczyli tempo tworzenia się takich gwiazd, liczbę supernowych oraz liczbę supernowych bliskich Ziemi. Na podstawie tych obliczeń doszli do wniosku, że supernowe mogły odpowiadać za dwa masowe wymierania na Ziemi – ordowickie sprzed 438 milionów lat oraz dewońskie, do którego doszło 374 miliony lat temu.
      Autorzy wspomnianych badań z 2020 roku stwierdzili, że supernowa Typu II była odpowiedzialna z kryzys Hangenberg, końcowy epizod wymierania dewońskiego. Ich zdaniem, promieniowanie z wybuchu supernowej docierało do Ziemi przez 100 000 lat, doprowadziło do olbrzymiego zubożenia warstwy ozonowej i masowego wymierania.
      Quintana, Wright i García wyliczają, że do eksplozji supernowej w odległości 20 pc od Ziemi dochodzi raz na około 2,5 miliarda lat.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Curtin University School of Earth and Planetary Sciences i Geological Survey of Western Australia, odkryli najstarszy na Ziemi krater uderzeniowy. Znaleźli go na obszarze North Pole Dome znajdującym się w regionie Pilbara, w którym znajdują się najstarsze skały na naszej planecie. Krater powstał 3,5 miliarda lat temu.
      Przed naszym odkryciem najstarszy znany krater uderzeniowy na Ziemi liczył sobie 2,2 miliarda lat, mówi profesor Tim Johnson i dodaje, że znalezienie starszego krateru w dużym stopniu wpływa na założenie dotyczące historii Ziemi.
      Krater zidentyfikowano dzięki stożkom zderzeniowym. To struktura geologiczna, która powstaje w wyniku szokowego przekształcenia skał. Stożki powstają w pobliżu kraterów uderzeniowych czy podziemnych prób jądrowych. W badanym miejscu stożki powstały podczas upadku meteorytu pędzącego z prędkością ponad 36 000 km/h. Było to potężne uderzenie, w wyniku którego powstał krater o średnicy ponad 100 kilometrów, a wyrzucone szczątki rozprzestrzeniły się po całej planecie.
      Wiemy, że takie zderzenia często miały miejsce na wczesnych etapach powstawania Układu Słonecznego. Odkrycie tego krateru i znalezienie innych z tego samego czasu może nam wiele powiedzieć o pojawieniu się życia na Ziemi. Kratery uderzeniowe tworzą bowiem środowisko przyjazne mikroorganizmom, takie jak zbiorniki z gorącą wodą, dodaje profesor Chris Kirkland.
      Olbrzymia ilość energii, jaka wyzwoliła się podczas uderzenia, mogła mieć wpływ na kształt młodej skorupy ziemskiej, wciskając jedne jej części pod drugie lub wymuszając ruch magmy w górę. Uderzenie mogło tez przyczynić się do powstania kratonu, dużego stabilnego fragmentu skorupy ziemskiej, będącego zalążkiem kontynentu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Hel jest, po wodorze, najbardziej rozpowszechnionym pierwiastkiem we wszechświecie. Jest jednak najmniej aktywnym pierwiastkiem chemicznym, dlatego też niemal cały hel, który mógł kiedykolwiek istnieć na Ziemi uleciał w przestrzeń kosmiczną, gdyż nie utworzył związków z żadnym innym pierwiastkiem. Taki przynajmniej pogląd panował do tej pory, a teraz może się on zmienić. Naukowcy z Japonii i Tajwanu wykazali właśnie, że w warunkach wysokiego ciśnienia hel może wiązać się z żelazem, co może oznaczać, że olbrzymie ilości helu występują w jądrze Ziemi. Jeśli tak jest, odkrycie to będzie miało olbrzymie znaczenie dla opisu wnętrza naszej planety i może wpłynąć na rozumienie mgławicy, z której powstał Układ Słoneczny.
      W skałach wulkanicznych od dawna wykrywany jest 3He. Izotop ten, w przeciwieństwie do znacznie bardziej rozpowszechnionego 4He, nie powstaje na Ziemi. Uważa się, że głęboko w ziemskim płaszczu istnieją pierwotne materiały, które go zawierają. Eksperymenty przeprowadzone przez japońsko-tajwański zespół rzucają wyzwanie temu przekonaniu.
      Od wielu lat badam procesy geologiczne i chemiczne zachodzące w głębi Ziemi. Biorąc pod uwagę panujące tam temperatury i ciśnienie, prowadzimy eksperymenty, które odzwierciedlają te warunki. Często więc korzystamy z rozgrzewanej laserowo komory diamentowej, mówi profesor Kei Hirose z Uniwersytetu Tokijskiego.
      W tym przypadku naukowcy miażdżyli w imadle diamentowym żelazo i hel. Poddawali je oddziaływaniu ciśnienia od 5 do 54 gigapaskali i temperatury o 1000 do 2820 kelwinów. Okazało się, że żelazo w takich warunkach zawiera nawet 3,3% helu. To tysiące razy więcej, niż uzyskiwano we wcześniejszych podobnych eksperymentach. Profesor Hirose podejrzewa, że częściowo odpowiada za to któryś z nowych elementów eksperymentu.
      Hel bardzo łatwo ucieka do otoczenia w standardowych warunkach temperatury i ciśnienia. Musieliśmy coś wymyślić, by uniknąć tego podczas pomiarów. Mimo, że sam eksperyment prowadziliśmy przy bardzo wysokich temperaturach, pomiarów dokonywaliśmy w warunkach kriogenicznych. W ten sposób uniknęliśmy ucieczki helu i mogliśmy go wykrywać w żelazie, wyjaśnia uczony. Badania wykazały, że hel został wbudowany w strukturę krystaliczną żelaza i pozostawał w niej nawet, gdy ciśnienie uległo zmniejszeniu.
      Wyniki eksperymentu oznaczają, że w jądrze Ziemi może znajdować się hel z mgławicy, która utworzyła Układ Słoneczny. Jeśli tak, to znaczy, że znajduje się tam gaz z mgławicy, a zawierał on też wodór. To zaś może oznaczać, że przynajmniej część wody na naszej planecie pochodzi z tego pierwotnego gazu. Niewykluczone zatem, że specjaliści muszą przemyśleć teorie dotyczące formowania się i ewolucji Ziemi.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niskie średnie temperatury na Ziemi, które umożliwiły uformowanie się pokryw lodowych na biegunach, są czymś rzadkim w historii naszej planety. Nowe badania, przeprowadzone przez zespół pod kierunkiem naukowców z University of Leeds, dowodzą, że aby takie warunki klimatyczne się pojawiły, musi dojść do zbiegu wielu złożonych procesów. Uczeni badali, dlaczego Ziemia przez zdecydowaną większość swojej historii była znacznie cieplejsza niż obecnie i nie istniały na niej pokrywy lodowe na biegunach.
      Dotychczas proponowano wiele hipotez, które miały wyjaśnić pojawianie się glacjałów na Ziemi. Mówiono o zmniejszonym wulkanizmie, zwiększonym pochłanianiu atmosferycznego węgla przez roślinność czy też o reakcji dwutlenku węgla ze skałami. Ciepłe warunki klimatyczne farenozoiku zostały przerwane przez dwa długotrwałe okresy ochłodzenia, w tym obecny, trwający od około 34 milionów lat. Te chłodniejsze okresy zbiegają się z niższą zawartością CO2 w atmosferze, jednak nie jest jasne, dlaczego poziom CO2 spada, piszą naukowcy na łamach Science Advances.
      Na potrzeby badań stworzyli nowy długoterminowy „Earth Evolution Model”. Jego powstanie było możliwe dzięki ostatnim postępom w technikach obliczeniowych. Model pokazał, że wspomniane ochłodzenia spowodowane były nie pojedynczym procesem, a ich zbiegiem. To wyjaśnia, dlaczego okresy chłodne są znacznie rzadsze od okresów ciepłych.
      Wiemy teraz, że powodem, dla którego żyjemy na Ziemi z pokrywami lodowymi na biegunach, a nie na planecie wolnej od lodu, jest przypadkowy zbieg bardzo małej aktywności wulkanicznej i bardzo rozproszonych kontynentów z wysokimi górami, które powodują duże opady i w ten sposób zwiększają usuwanie węgla z atmosfery. Bardzo ważnym wnioskiem z naszych badań jest stwierdzenie, że naturalny mechanizm klimatyczny Ziemi wydaje się faworyzować istnienie gorącego świata z wysokim stężeniem CO2 i brakiem pokryw lodowych, a nie obecny świat z niskim stężeniem CO2, pokryty częściowo lodem, mówi główny autor badań, Andrew S. Meredith. To prawdopodobnie preferencja systemu klimatycznego Ziemi ku gorącemu klimatowi uchroniła naszą planetę przed katastrofalnym całkowitym zamienieniem naszej planety w lodową pustynię. Dzięki niej życie mogło przetrwać.
      Drugi z głównych autorów badań, profesor Benjamin Mills zauważa, że z badań płyną bardzo ważne wnioski. "Nie powinniśmy spodziewać się, że Ziemia zawsze powróci do chłodniejszego okresu, jaki charakteryzował epokę przedprzemysłową. Obecna Ziemia, z jej pokrywami lodowymi jest czymś nietypowym w historii planety. Jednak ludzkość zależy od tego stanu. Powinniśmy zrobić wszystko, by go zachować i powinniśmy być ostrożni, czyniąc założenia, że zatrzymując emisję powrócimy do stanu sprzed globalnego ocieplenia. W swojej długiej historii klimat Ziemi był przeważnie gorący. Jednak w czasie historii człowieka był chłodny.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa ekspertów postanowiła odpowiedzieć na pytanie, czy pozaziemska cywilizacja o podobnym do naszego poziomie rozwoju technologicznego, byłaby w stanie wykryć Ziemię i zdobyć dowody na istnienie ludzkości, a jeśli tak, to jakie sygnały mogliby wykryć i z jakiej odległości. Zespół, pracujący pod kierunkiem doktor Sofii Sheikh z SETI Institute, składał się ze specjalistów z projektu Characterizing Atmospheric Technosignatures oraz Penn State Extraterrestrial Intelligence Center.
      Do przeprowadzenia analizy – pierwszej tego typu – naukowcy wykorzystali modele teoretyczne. Wykazały one, że pozaziemska cywilizacja z największej odległości mogłaby wykryć sygnały radiowe, takie jak te pochodzące z niedziałającego już Radioteleskopu Arecibo. Obcy mogliby zauważyć je z odległości do 12 000 lat świetlnych. Zatem sygnał taki mogłaby wykryć cywilizacja znajdująca się w połowie odległości między Ziemią a centrum Drogi Mlecznej.
      Radioteleskop Arecibo nie istnieje, więc pozostają nam inne sygnały, na podstawie których można nas odnaleźć. Deep Space Network (DSN), używaną przez NASA sieć komunikacyjną do łączenia się z pojazdami przebywającymi w przestrzeni kosmicznej, obcy mogliby zauważyć z odległości 65 lat świetlnych.
      Jednak tutaj musimy na chwilę się zatrzymać. W obu tych przypadkach – Arecibo i DSN – musimy pamiętać, że podane odległości są większe niż czas, jaki upłynął od uruchomienia tych urządzeń. Zatem ani pierwszy sygnał z Arecibo nie dotarł jeszcze na odległość 1200 lś, ani sygnału z DSN nie można zauważyć obecnie z odległości 65 lat świetlnych.
      Im bliżej Ziemi, tych więcej technosygnatur, sygnałów świadczących o obecności cywilizacji technicznej. I tak sygnatury atmosferyczne, takie jak emisja dwutlenku azotu, są dla nas obecnie łatwiejsze do wykrycia niż były jeszcze dekadę temu. Dzięki takim instrumentom jak Teleskop Webba czy planowany Habitable Worlds Observatory (HWO) możemy zauważyć obcą cywilizację z większej niż wcześniej odległości. Tak więc cywilizacja dysponująca HWO mogłaby dostrzec nas z odległości 5,7 lat świetlnych. To odległość nieco większa, niż dystans dzielący nas od najbliższej gwiazdy, Proximy Centauri. Z podobnej odległości można zarejestrować lasery wycelowane w niebo. Ludzkość czasami korzysta z takich instrumentów jak Deep Space Optical Communications, którego NASA używa do testów technologii komunikacji laserowej w przestrzeni kosmicznej.
      Z odległości 4 lat świetlnych można zauważyć sygnały sieci bezprzewodowych LTE. Z kolei sygnał z Voyagera jest widoczny z 0,97 roku świetlnego.
      Obcy mogliby wykryć też światła miast. Szczególnie te generowane przez lampy sodowe, które mają unikatowe sygnatury. Ich obserwacja jest możliwa z odległości 0,036 roku świetlnego. To 2275 jednostek astronomicznych, a więc obszar położony w pobliżu wewnętrznych krawędzi Obłoku Oorta.
      Z regionów Pasa Kuipera (30–50 au) obcy mogliby odnotować obecność miejskich wysp ciepła, a gdyby mieszkali na Marsie mieliby szansę zauważyć satelity krążące wokół Ziemi.
      Celem badań było pokazanie, w jakim miejscu my sami znajdujemy się, jeśli chodzi o możliwość wykrywania technosygnatur świadczących o obecności pozaziemskich cywilizacji. W SETI nigdy nie zakładamy, że życie i poziom rozwoju technologicznego na innych planetach są takie same jak nasze. Jednak ocena naszych możliwości pozwala zobaczyć badania prowadzone przez SETI w odpowiednim kontekście, mówi współautor badań, Macy Huston.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...