Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Lądowanie Curiosity to była betka. Mars 2020 pokaże, czym jest precyzja

Rekomendowane odpowiedzi

W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.

Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.

Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.

Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.

To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.

NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.

Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, KopalniaWiedzy.pl napisał:

Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Kurcze wybaczcie mi, albowiem nie wiem co piszę, ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym. Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo. Reasumując, jak ślepy koń w wielkiej Pardubickiej, nie widzę przeszkód?

Ten filmik nie zmienia mojego zdziwienia. Duża zaleta, że to rozwiązanie dojrzałe, wygrzane i ... wojskowe :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Ergo Sum napisał:

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

2 godziny temu, Jajcenty napisał:

ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Jajcenty napisał:

Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo.

Inteligencję pochwalić, ale sprytu ani, ani. Nie to,  co u tego:

19 godzin temu, KopalniaWiedzy.pl napisał:

Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem,

Jak w kawale:

Przychodzi młody Ferenstin do ojca: tato zamknąłem sprawę Goldbluma przeciw Blumenfeldowi, z którą Ty męczyłeś się 15 lat. Na co ojciec: Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia, a Ty zacząłeś karierę od fuszerki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
34 minuty temu, darekp napisał:

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni. Można jakoś tak zrobić żeby NN konkurowały ze sobą w wielu wątkach i wychodzą takie przerażające AI - jak dołączą do tego układy wykonawcze z Boston Dynamics, to możemy powoli kopać sobie dołek. 

6 minut temu, 3grosze napisał:

Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia

Też tak czuję, może nie tak celowo przeciągnięte, pomysł powstał 15 lat temu był rozwijany do tej pory w innym celu niż lądowanie na Marsie, ale aktualna implementacja jest na pewno nowsza :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 20:54, darekp napisał:

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

Nie jestem ekspertem w dziedzinie AI, ale może uznali, że Mojave najbardziej przypomina powierzchnię Marsa i jego geologiczne formacje. Zdaje się, że testują tam sporo sprzętu NASA. Jeżeli tak, to jakie ma znaczenie testowanie w innych warunkach? Najbardziej miarodajny będzie test na Marsie ;-)

W artykule jest mowa, że wykonali 600 lotów śmigłowcem. Zakładam, że przeprowadzali kilkaset udanych lądowań w ich trakcje. Jak podają pewność wzrosła z 85% do 99%, a zysk z kolejnych testów maleje i najwyraźniej trudno było wycisnąć więcej.

Czekam z niecierpliwością na kolejne video, 10 sekund horroru ;-)

Poprzednie to jest jedno z moich ulubionych klipów na YT i widziałem je setki razy ;-)

Edytowane przez wilk
Korekta formatowania. Co Ty masz z tym czarnym tłem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 19:00, Jajcenty napisał:

Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

W dniu 8.10.2019 o 21:35, Jajcenty napisał:

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni.

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, radar napisał:

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

Nie sądzę by Marsjanie o tym wiedzieli ;) Z tymi NN to tak sobie, na szybko, pojechałem. Nie wiem czy to jest zadanie dla sieci. Może wystarczy proste rozpoznawanie obrazu? Mamy zdjęcia i czas, żeby wyuczyć NN tu na Ziemi? Jeśłi tak, to ja bym użył CNN  maksymalnie przetrenowanej co da bardzo dużą  pewność rozpoznania. A może musimy cyknąć parę fotek z orbity i mamy minutę na analizę i decyzję oraz mamy mało cykli CPU i mało prądu? Łatwo się ocenia cudzy soft ;) , ale ponieważ zajmuję się rozpozawaniem obrazu, to na podstawie mojego (przeciętnego) doświadczenia ten kosztorys wydał mi się przesadzony.

6 godzin temu, radar napisał:

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Na pewno tak, ale @darekp odniósł się do samego oprogramowania, a biorąc pod uwagę koszt sprzętu i liczbę potrzebnych testów, to emulowane środowisko wydaje się najlepszym rozwiązaniem. Od lądowania na Marsie do inżynierii programowania i dobrych praktyk ITIL :D BTW jest update ITIL do 4.0 od lutego, jakoś przeszło bez echa w światku IT :)  

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
47 minut temu, Jajcenty napisał:

Nie sądzę by Marsjanie o tym wiedzieli

Oj tam oj tam:) To była uwaga ogólna :) (chociaż swoją drogą ciekawe czy jakiś nietypowy układ wzorów na głazach nie mógł by sprawić kłopotów? )

1 godzinę temu, Jajcenty napisał:

A może musimy cyknąć parę fotek z orbity

To mnie właśnie ciekawi, wydawało mi się, że zdjęć trochę mamy, ale może rozdzielczość za słaba? No i zawsze mnie dziwi czy te bezwładnościowe czujniki nie są wystarczająco dokładne skoro na Ziemi naprowadza się nimi rakiety (wojskowe)?

1 godzinę temu, Jajcenty napisał:

ale ponieważ zajmuję się rozpozawaniem obrazu,

O proszę... pochwal się gdzie i w jakim celu?

W dniu 8.10.2019 o 21:25, 3grosze napisał:

Przychodzi młody Ferenstin

Trochę tak, ale pewnie ostateczne osiągnięcia były w ostatnich kilku latach. Deep Learning w 2004 był słaby, potem był 2006, a teraz nvidia pewnie mogła by im dostarczyć małą kość z 1000 czy 2000 corami CUDA.

1 godzinę temu, Jajcenty napisał:

update ITIL do 4.0

Aż tak wiele się nie zmieniło :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

O proszę... pochwal się gdzie i w jakim celu?

W sumie nic ciekawego, przemysł nasycił się kamerami i teraz czas coś z tego wyciągnąć. Większość zagadnień jest opanowana/ogarnięta przez dostawców CCTV, wykrywanie ruchu, ognia, numery rejestracyjne samochodów, wykrywanie ludzi w strefach zagrożenia - takie po prostu wdrażamy, ale zostaje trochę drobnicy dla rzemieślników. Robiłem pomiary detalu na taśmie, wykrywanie uszkodzeń mechanicznych przenośnika, temperatury łożysk/silników do predictive maintenance. Oczywiście Python,Numpy,OpenCV rules! 

35 minut temu, Astro napisał:

Komu by się chciało wchodzić w coś przykładowo normalnego jak Haskell?

Próbowałem programowania funkcyjnego chyba więcej razy niż rzucałem palenie i nic. Nie moja bajka. I chyba nie tylko nie moja, sądząc po popularności tego podejścia. Nawet laski na to nie lecą.

44 minuty temu, Astro napisał:

Do tego trzeba trochę inteligencji, a nie szybkich palców

No i masz wyjaśnienie. Jak do projektu potrzebujesz geniuszy, to masz bardzo drogie projekty. Nie wspominając, że geniusze są znani ze swej skłoności do współpracy i wszyscy się garną by razem z nimi robić soft i grzać się cieple ich ego :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 godziny temu, Astro napisał:

Ale wiesz, to nie musi być stanowczo droższe. Dwie inteligentne linijki kodu nie są droższe, niż 120 debilnych robiących to samo (zwykle wolniej)

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, Jajcenty said:

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Dokładnie. Spotykałem się w pracy z miłośnikiem Haskella. Napisał w nim jeden raport, który był chyba uruchomiony kilkukrotnie. Nie orientuję się dokładnie, może nawet chodził gdzieś na back-endzie przez kilka miesięcy, ale prawie nikt o nim nie słyszał i nikt nigdy nie napisał nic innego w Haskellu w tej firmie. Był to mały dodatek do projektu, więc nie ma to znaczenia. Deweloper się czegoś nauczył, a kod działał poprawnie, więc wszyscy byli zadowoleni ;-)

Klasyka XKCD odnośnie Haskella:

https://www.explainxkcd.com/wiki/index.php/1312:_Haskell

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 12.10.2019 o 10:42, Astro napisał:

Mars Landing Success Rate: 40%

Toteż pisałem o 1-2 latach testów i (mea culpa, że nie uściśliłem;) ) miałem na myśli realne testy w rodzaju tych 600 lotów z helikopterem, a nie jakieś testowanie sieci neuronowej w wirtualnym środowisku software'owym;) Zresztą w tym przypadku nie wystarczy sama sieć do rozpoznania obrazu, ale coś musi sterować silniczkami rakietowymi itp. Plus interakcję z realna przyrodą na zewnątrz (a nie jakimiś ściśle określonymi np. jakąś specyfikacją warunkami). Ja bym długo testował... ;) I bardzo dokładnie... ;) Nawet w wypadku, gdyby rozpoznawanie obrazu nie było problemem.

59 minut temu, cyjanobakteria napisał:

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

P.S. A kompilator Elma BTW jest napisany w Haskellu. ;)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, darekp said:

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework. Można nie lubić TypeScript, ale mainstreamowe IDE się bardzo dobrze integrują i można się nauczyć innego podejścia w locie, które pomaga znaleźć błędy zanim kod trafi na produkcję. Ma bardzo dobre CLI i przypomina mi dojrzałe backendowe frameworki jak Ruby On Rail i Django. Szkoda, że przeskok z A1 na A2 nie jest możliwy bez przepisania aplikacji, to na pewno nie pomogło A2 zyskać na popularności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, cyjanobakteria napisał:

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework.

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Ale nie mówię (ani nie wierzę), że jest jakaś "jedynie słuszna opcja". Tam gdzie trzeba zoptymalizować jakiś algorytm, języki imperatywne pewnie są lepsze (można wielokrotnie nadpisywać ten sam kawałek pamięci).  Sam "od zawsze" programowałem w C++ i C# (trochę też w Javie), ale coraz częściej piszę np. klasy z samymi metodami statycznymi, bo to mi się sprawdza najbardziej i to bierze się chyba z tego, że  u nas w pracy nie ma dużej presji na algorytmy i struktury danych, robi się przetwarzanie dokumentów znajdujących się w bazie danych albo formularze do ich edycji i ważne jest, żeby sprawnie zaimplementować jakąś logikę biznesową. Jeśli coś się optymalizuje, to zapytania na bazie danych. Wymagania się często zmieniają. W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne. Co dopiero zaczynam sprawdzać:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 minuty temu, darekp napisał:

W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne.

Witam po ciemnej stronie mocy! Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document(); Nie dość, że bolesna liczba powtórzeń 'document', to jeszcze mi sterta rośnie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, Jajcenty napisał:

Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document();

Mnie też ;) I jeszcze korci, żeby wykasować ten średnik na końcu;) I jeszcze albo słowo kluczowe new, albo te nawiasy po Dokument (obu naraz chyba się się nie da, chociaż głowy nie daję;)) 

P.S. Bo oczywiście pierwsze wystąpienie "Document" można już od dawna zastąpić jakimś let/var/val itp. (wszędzie oprócz Javy) ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, darekp said:

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Kilka lat temu zrobiłem projekt w AngularJS (1.x) i przeskoczyłem w bezpieczeństwo IT. Teraz trochę nadrobiłem z ciekawości i z perspektywy czasu mogę powiedzieć, że AngularJS (1.x) to był dość toporny framework. Jakby ktoś zapytał, co w nim lubiłem, to nie wiem, co bym odpowiedział :) Za to jestem pod wrażeniem Angular (2+), integracją różnych IDE (VS, Webstorm) z TypeScript i CLI. Po drodze zmieniło się jednak podejście i mainstreamowe frameworki są teraz oparte na komponentach.

Niewiele wiem na temat RxJS, ale zrobiłem kilka tutoriali z małymi aplikacjami w oparciu o nowy Angular i nie musiałem z tego korzystać, ale nie wykluczam, że w większym projekcie jest to przydatne. Zerkam też na React i to ciekawa biblioteka, dużo lżejsza, ale z drugiej strony wygląda na to, że trzeba korzystać z dodatków. Trochę mnie męczy to mieszanie HTML i JS, ale podejrzewam, że można to rozdzielić.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Koala to jedne z najbardziej rozpoznawalnych i lubianych zwierząt na Ziemi. Te niewielkie ssaki są jednak zagrożone w wyniku utraty i fragmentacji siedlisk oraz trapiących je chorób. Wiemy, że niemal całe życie spędzają na drzewach, schodzą z nich tylko, by przemieścić się na inne drzewo. I pomimo tego, że na gatunek ten zwraca się dużo uwagi, nauka niewiele wie o tych nielicznych chwilach, które zwierzęta spędzają na ziemi. Tymczasem z najnowszych badań wynika, że właśnie to zabija koale.
      Już poprzednie badania zgonów koali pokazały, że do 66% zgonów wśród nich dochodzi w momencie, gdy są na ziemi. Są tam głównie zabijane przez psy oraz samochody. Nie wiemy, jak często koala schodzą z drzew, jak daleko i jak szybko się przemieszczają, jak długo pozostają na ziemi, dlaczego schodzą z drzew. To niezwykle ważne informacje, których potrzebujemy, jeśli chcemy zidentyfikować najbardziej zagrożone obszary lub pory dnia i opracować strategie zmniejszenia zagrożeń czyhających na te zwierzęta, mówi doktorantka Gabriella Sparkes z University of Queensland.
      Uczona wraz z zespołem wyposażyła dzikie koale w nadajniki GPS oraz akcelerometry. Urządzenia założono zwierzętom żyjącym na obszarach, na których wiele drzew wycięto na potrzeby rolnictwa. Pozycję koali rejestrowano co 5 minut, a gdy znalazły się na ziemi, była ona odnotowywana co 5 sekund. Dzięki temu możliwe było precyzyjne określenie zachowań zwierząt.
      Tym, co zaszokowało naukowców, był fakt, jak wiele czasu zwierzęta spędzają na drzewach. Okazało się, że schodzą one z nich zaledwie 2-3 razy w ciągu nocy, a łączny czas przebywania na gruncie wynosi zaledwie około 10 minut. Z badań wynika też, że przebywające na ziemi zwierzę porusza się naprawdę powoli. Niemal tyle samo czasu spędzały na siedzeniu i staniu, co na przemieszczaniu się, a szybciej poruszają się jedynie przez 7% czasu spędzanego na gruncie. To może oznaczać, że zwierzęta bardzo szczegółowo oceniają otocznie, być może starannie wybierają drzewa, na które chcą wejść, a być może szybszy ruch wiąże się z olbrzymim wydatkiem energetycznym.
      Dokonane odkrycie przynosi niezwykle ważne informacje i pokazuje, jak wielkim zagrożeniem jest wycinka drzew. Skoro w ciągu tych zaledwie 10 minut przebywania na gruncie, ginie aż 2/3 zwierząt, a fragmentacja siedlisk powoduje, że koala zmuszone są przebywać na gruncie coraz więcej czasu, dalsze niszczenie środowiska może przynieść gatunkowi zagładę.
      Teraz autorzy badań oceniają te cechy habitatów koali, które decydują, jak długo zwierzęta pozostają na drzewach. Jeśli zidentyfikujemy gatunki drzew lub warunki środowiskowe powodujące, że zwierzęta dłużej zostają na drzewach, być może będziemy w stanie tak zarządzać krajobrazem, że rzadziej będą musiały schodzić z drzew, mówi Sparkes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W ciągu ostatnich 200 lat ludzkość wybudowała tyle zapór wodnych, że masa nagromadzonej wody doprowadziła do przesunięcia się skorupy Ziemi w stosunku do osi obrotu naszej planety. Pierwsza ze zmian została wywołana przez zapory wybudowane w Amerykach, drugą zaś spowodowało budowanie zapór w Afryce i Azji.
      Skorupa Ziemi leży na plastycznej, częściowo stopionej górnej części płaszcza planety. Może się więc względem niego przesuwać. I przesuwa się w wyniku zmiany rozkładu masy. Wówczas zmienia się też położenie punktów na skorupie, które wcześniej stanowiły bieguny planety.
      Geolodzy z Uniwersytetu Harvarda opublikowali na łamach Geophysical Research Letters artykuł, w którym ocenili wpływ 6862 zapór wodnych wybudowanych przez człowieka w latach 1835–2011 na położenie skorupy.
      Pomiędzy rokiem 1835 a 1954 w Ameryce Północnej i – w znacznie mniejszym stopniu – w Europie wybudowano tak wiele zapór wodnych, że w wyniku zmian dystrybucji masy na planecie dotychczasowy punkt wyznaczający biegun północny przesunął się 20,5 centymetra w kierunku 103. południka na wschód od Greenwich, który przechodzi przez Rosję, Mongolię, Chiny, Wietnam, Laos i Indonezję. Z tych ponad 20 centymetrów ruchu na wiek XIX przypadało jedynie 0,7 cm. Następnie w latach 1954–2011 tamy wybudowane w Afryce Wschodniej i Azji spowodowały, że doszło do przesunięcia o 57,1 cm w kierunku południka 117. zachodniego, przebiegającego przez zachodnie części Kanady i USA.
      Uwięzienie tak wielkich ilości wody w zaporach spowodowało, że w badanym okresie poziom oceanów spadł o 21 milimetrów. A raczej nie zwiększył się o te 21 mm. W badanych zaporach znajduje się około 8000 kilometrów sześciennych wody.
      W sumie, z różnych przyczyn, w latach 1835–2011 skorupa ziemska przesunęła się o około 113 centymetrów, z czego 104 centymetry przypadają na wiek XX.
      Źródło: True Polar Wander Driven by Artificial Water Impoundment: 1835–2011, https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2025GL115468

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przez ostatnich 540 milionów lat zmiany w sile pola magnetycznego Ziemi były skorelowane z poziomem atmosferycznego tlenu, donosi amerykańsko-brytyjski zespół naukowy. Wyniki badań sugerują, że procesy zachodzące głęboko wewnątrz naszej planety mogły mieć wpływ na organizmy żywe na powierzchni Ziemi. O swoim odkryciu uczeni poinformowali na łamach Science Advances.
      Historia ziemskiego magnetyzmu zapisana jest w skałach. Gdy rozgrzane minerały znajdujące się magmie stygną, mogą zapisać stan lokalnego pola magnetycznego. I zapis ten pozostanie w nich dopóty, dopóki nie zostaną ponownie silnie rozgrzane. Również ze skał i minerałów można odczytać poziom tlenu w atmosferze, gdyż ich skład chemiczny zależy od ilości tlenu w czasie, gdy się tworzyły. I jeden, i drugi zapis jest od dawna używany w nauce, informacje takie można znaleźć w olbrzymiej liczbę baz danych utworzonych na potrzeby badań geofizycznych i geochemicznych. Jednak, jak twierdzą autorzy nowych badań, dotychczas nikt nie wpadł na pomysł, by dokładnie porównać ze sobą oba zapisy.
      Zadania takiego podjęli się Weijia Kuang i Ravi Kopparapu z NASA Goddard Space Flight Center, Joshua Krissansen-Totton z University of Washington oraz Benjamin J. W. Mills z University of Leeds. Te dwa zestawy danych są bardzo podobne. Ziemia to jedyna znana nam planeta, która podtrzymuje złożone formy życia. Korelacja, którą znaleźliśmy, pozwoli nam lepiej zrozumieć ewolucję oraz jak jest ona powiązana z procesami zachodzącymi wewnątrz planety, mówi Weijia Kiang.
      Uczeni prześledzili zmiany siły pola magnetycznego i poziomu tlenu w atmosferze aż do czasów eksplozji kambryjskiej, w czasie której nagle pojawiło się wiele złożonych form życia. Istnienie korelacji pomiędzy siłą pola magnetycznego, a poziomem tlenu sugeruje, że oba te zjawiska mogą być reakcją na ten sam proces, na przykład na ruch kontynentów, uważa Benjamin Mills.
      Naukowcy mają nadzieję, że uda im się prześledzić jeszcze dłuższy okres historii Ziemi. Chcą sprawdzić, czy znaleziona korelacja się utrzyma. Planują też poddać analizie inne pierwiastki niezbędne do istnienia życia, by przekonać się, czy i w ich przypadku widać taki sam schemat.
      Źródło: Strong link between Earth’s oxygen level and geomagnetic dipole revealed since the last 540 million years, https://www.science.org/doi/10.1126/sciadv.adu8826

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ziemia doświadczyła co najmniej 5 epizodów masowego wymierania. Przyczyny niektórych z nich, jak wymierania kredowego, kiedy wyginęły dinozaury, są znane. Co do innych wymierań, nie mamy takiej pewności. Od pewnego czasu pojawiają się głosy, że za przynajmniej jedno z wymierań odpowiedzialny był wybuch supernowej. Autorzy nowych badań uważają, że bliskie Ziemi supernowe już co najmniej dwukrotnie doprowadziły do wymierania gatunków. I nie mamy gwarancji, że sytuacja się nie powtórzy.
      Podczas eksplozji supernowej dochodzi do emisji olbrzymich ilości promieniowania ultrafioletowego, X czy gamma. Z badań przeprowadzonych w 2020 roku wiemy, że wybuch supernowej w odległości mniejszej niż 10 parseków (ok. 33 lata świetlne) od Ziemi, całkowicie zabiłby życie na naszej planecie. Za wymierania mogą więc odpowiadać wybuchy, do których doszło w odległości około 20 parseków (pc). Zginęłoby wówczas wiele gatunków, ale samo życie by przetrwało.
      Alexis L. Quintana z Uniwersytetu w Alicante oraz Nicholas J. Wright i Juan Martínez García z Keele University przyjrzeli się 24 706 gwiazdom OB znajdujących się w odległości 1 kiloparseka (kpc), czyli 3261 lat świetlnych od Słońca. Dzięki temu obliczyli tempo tworzenia się takich gwiazd, liczbę supernowych oraz liczbę supernowych bliskich Ziemi. Na podstawie tych obliczeń doszli do wniosku, że supernowe mogły odpowiadać za dwa masowe wymierania na Ziemi – ordowickie sprzed 438 milionów lat oraz dewońskie, do którego doszło 374 miliony lat temu.
      Autorzy wspomnianych badań z 2020 roku stwierdzili, że supernowa Typu II była odpowiedzialna z kryzys Hangenberg, końcowy epizod wymierania dewońskiego. Ich zdaniem, promieniowanie z wybuchu supernowej docierało do Ziemi przez 100 000 lat, doprowadziło do olbrzymiego zubożenia warstwy ozonowej i masowego wymierania.
      Quintana, Wright i García wyliczają, że do eksplozji supernowej w odległości 20 pc od Ziemi dochodzi raz na około 2,5 miliarda lat.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Curtin University School of Earth and Planetary Sciences i Geological Survey of Western Australia, odkryli najstarszy na Ziemi krater uderzeniowy. Znaleźli go na obszarze North Pole Dome znajdującym się w regionie Pilbara, w którym znajdują się najstarsze skały na naszej planecie. Krater powstał 3,5 miliarda lat temu.
      Przed naszym odkryciem najstarszy znany krater uderzeniowy na Ziemi liczył sobie 2,2 miliarda lat, mówi profesor Tim Johnson i dodaje, że znalezienie starszego krateru w dużym stopniu wpływa na założenie dotyczące historii Ziemi.
      Krater zidentyfikowano dzięki stożkom zderzeniowym. To struktura geologiczna, która powstaje w wyniku szokowego przekształcenia skał. Stożki powstają w pobliżu kraterów uderzeniowych czy podziemnych prób jądrowych. W badanym miejscu stożki powstały podczas upadku meteorytu pędzącego z prędkością ponad 36 000 km/h. Było to potężne uderzenie, w wyniku którego powstał krater o średnicy ponad 100 kilometrów, a wyrzucone szczątki rozprzestrzeniły się po całej planecie.
      Wiemy, że takie zderzenia często miały miejsce na wczesnych etapach powstawania Układu Słonecznego. Odkrycie tego krateru i znalezienie innych z tego samego czasu może nam wiele powiedzieć o pojawieniu się życia na Ziemi. Kratery uderzeniowe tworzą bowiem środowisko przyjazne mikroorganizmom, takie jak zbiorniki z gorącą wodą, dodaje profesor Chris Kirkland.
      Olbrzymia ilość energii, jaka wyzwoliła się podczas uderzenia, mogła mieć wpływ na kształt młodej skorupy ziemskiej, wciskając jedne jej części pod drugie lub wymuszając ruch magmy w górę. Uderzenie mogło tez przyczynić się do powstania kratonu, dużego stabilnego fragmentu skorupy ziemskiej, będącego zalążkiem kontynentu.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...