Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Lądowanie Curiosity to była betka. Mars 2020 pokaże, czym jest precyzja

Rekomendowane odpowiedzi

W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.

Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.

Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.

Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.

To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.

NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.

Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, KopalniaWiedzy.pl napisał:

Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Kurcze wybaczcie mi, albowiem nie wiem co piszę, ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym. Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo. Reasumując, jak ślepy koń w wielkiej Pardubickiej, nie widzę przeszkód?

Ten filmik nie zmienia mojego zdziwienia. Duża zaleta, że to rozwiązanie dojrzałe, wygrzane i ... wojskowe :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Ergo Sum napisał:

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

2 godziny temu, Jajcenty napisał:

ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Jajcenty napisał:

Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo.

Inteligencję pochwalić, ale sprytu ani, ani. Nie to,  co u tego:

19 godzin temu, KopalniaWiedzy.pl napisał:

Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem,

Jak w kawale:

Przychodzi młody Ferenstin do ojca: tato zamknąłem sprawę Goldbluma przeciw Blumenfeldowi, z którą Ty męczyłeś się 15 lat. Na co ojciec: Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia, a Ty zacząłeś karierę od fuszerki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
34 minuty temu, darekp napisał:

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni. Można jakoś tak zrobić żeby NN konkurowały ze sobą w wielu wątkach i wychodzą takie przerażające AI - jak dołączą do tego układy wykonawcze z Boston Dynamics, to możemy powoli kopać sobie dołek. 

6 minut temu, 3grosze napisał:

Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia

Też tak czuję, może nie tak celowo przeciągnięte, pomysł powstał 15 lat temu był rozwijany do tej pory w innym celu niż lądowanie na Marsie, ale aktualna implementacja jest na pewno nowsza :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 20:54, darekp napisał:

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

Nie jestem ekspertem w dziedzinie AI, ale może uznali, że Mojave najbardziej przypomina powierzchnię Marsa i jego geologiczne formacje. Zdaje się, że testują tam sporo sprzętu NASA. Jeżeli tak, to jakie ma znaczenie testowanie w innych warunkach? Najbardziej miarodajny będzie test na Marsie ;-)

W artykule jest mowa, że wykonali 600 lotów śmigłowcem. Zakładam, że przeprowadzali kilkaset udanych lądowań w ich trakcje. Jak podają pewność wzrosła z 85% do 99%, a zysk z kolejnych testów maleje i najwyraźniej trudno było wycisnąć więcej.

Czekam z niecierpliwością na kolejne video, 10 sekund horroru ;-)

Poprzednie to jest jedno z moich ulubionych klipów na YT i widziałem je setki razy ;-)

Edytowane przez wilk
Korekta formatowania. Co Ty masz z tym czarnym tłem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.10.2019 o 19:00, Jajcenty napisał:

Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

W dniu 8.10.2019 o 21:35, Jajcenty napisał:

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni.

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, radar napisał:

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

Nie sądzę by Marsjanie o tym wiedzieli ;) Z tymi NN to tak sobie, na szybko, pojechałem. Nie wiem czy to jest zadanie dla sieci. Może wystarczy proste rozpoznawanie obrazu? Mamy zdjęcia i czas, żeby wyuczyć NN tu na Ziemi? Jeśłi tak, to ja bym użył CNN  maksymalnie przetrenowanej co da bardzo dużą  pewność rozpoznania. A może musimy cyknąć parę fotek z orbity i mamy minutę na analizę i decyzję oraz mamy mało cykli CPU i mało prądu? Łatwo się ocenia cudzy soft ;) , ale ponieważ zajmuję się rozpozawaniem obrazu, to na podstawie mojego (przeciętnego) doświadczenia ten kosztorys wydał mi się przesadzony.

6 godzin temu, radar napisał:

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Na pewno tak, ale @darekp odniósł się do samego oprogramowania, a biorąc pod uwagę koszt sprzętu i liczbę potrzebnych testów, to emulowane środowisko wydaje się najlepszym rozwiązaniem. Od lądowania na Marsie do inżynierii programowania i dobrych praktyk ITIL :D BTW jest update ITIL do 4.0 od lutego, jakoś przeszło bez echa w światku IT :)  

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
47 minut temu, Jajcenty napisał:

Nie sądzę by Marsjanie o tym wiedzieli

Oj tam oj tam:) To była uwaga ogólna :) (chociaż swoją drogą ciekawe czy jakiś nietypowy układ wzorów na głazach nie mógł by sprawić kłopotów? )

1 godzinę temu, Jajcenty napisał:

A może musimy cyknąć parę fotek z orbity

To mnie właśnie ciekawi, wydawało mi się, że zdjęć trochę mamy, ale może rozdzielczość za słaba? No i zawsze mnie dziwi czy te bezwładnościowe czujniki nie są wystarczająco dokładne skoro na Ziemi naprowadza się nimi rakiety (wojskowe)?

1 godzinę temu, Jajcenty napisał:

ale ponieważ zajmuję się rozpozawaniem obrazu,

O proszę... pochwal się gdzie i w jakim celu?

W dniu 8.10.2019 o 21:25, 3grosze napisał:

Przychodzi młody Ferenstin

Trochę tak, ale pewnie ostateczne osiągnięcia były w ostatnich kilku latach. Deep Learning w 2004 był słaby, potem był 2006, a teraz nvidia pewnie mogła by im dostarczyć małą kość z 1000 czy 2000 corami CUDA.

1 godzinę temu, Jajcenty napisał:

update ITIL do 4.0

Aż tak wiele się nie zmieniło :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

O proszę... pochwal się gdzie i w jakim celu?

W sumie nic ciekawego, przemysł nasycił się kamerami i teraz czas coś z tego wyciągnąć. Większość zagadnień jest opanowana/ogarnięta przez dostawców CCTV, wykrywanie ruchu, ognia, numery rejestracyjne samochodów, wykrywanie ludzi w strefach zagrożenia - takie po prostu wdrażamy, ale zostaje trochę drobnicy dla rzemieślników. Robiłem pomiary detalu na taśmie, wykrywanie uszkodzeń mechanicznych przenośnika, temperatury łożysk/silników do predictive maintenance. Oczywiście Python,Numpy,OpenCV rules! 

35 minut temu, Astro napisał:

Komu by się chciało wchodzić w coś przykładowo normalnego jak Haskell?

Próbowałem programowania funkcyjnego chyba więcej razy niż rzucałem palenie i nic. Nie moja bajka. I chyba nie tylko nie moja, sądząc po popularności tego podejścia. Nawet laski na to nie lecą.

44 minuty temu, Astro napisał:

Do tego trzeba trochę inteligencji, a nie szybkich palców

No i masz wyjaśnienie. Jak do projektu potrzebujesz geniuszy, to masz bardzo drogie projekty. Nie wspominając, że geniusze są znani ze swej skłoności do współpracy i wszyscy się garną by razem z nimi robić soft i grzać się cieple ich ego :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 godziny temu, Astro napisał:

Ale wiesz, to nie musi być stanowczo droższe. Dwie inteligentne linijki kodu nie są droższe, niż 120 debilnych robiących to samo (zwykle wolniej)

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, Jajcenty said:

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Dokładnie. Spotykałem się w pracy z miłośnikiem Haskella. Napisał w nim jeden raport, który był chyba uruchomiony kilkukrotnie. Nie orientuję się dokładnie, może nawet chodził gdzieś na back-endzie przez kilka miesięcy, ale prawie nikt o nim nie słyszał i nikt nigdy nie napisał nic innego w Haskellu w tej firmie. Był to mały dodatek do projektu, więc nie ma to znaczenia. Deweloper się czegoś nauczył, a kod działał poprawnie, więc wszyscy byli zadowoleni ;-)

Klasyka XKCD odnośnie Haskella:

https://www.explainxkcd.com/wiki/index.php/1312:_Haskell

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 12.10.2019 o 10:42, Astro napisał:

Mars Landing Success Rate: 40%

Toteż pisałem o 1-2 latach testów i (mea culpa, że nie uściśliłem;) ) miałem na myśli realne testy w rodzaju tych 600 lotów z helikopterem, a nie jakieś testowanie sieci neuronowej w wirtualnym środowisku software'owym;) Zresztą w tym przypadku nie wystarczy sama sieć do rozpoznania obrazu, ale coś musi sterować silniczkami rakietowymi itp. Plus interakcję z realna przyrodą na zewnątrz (a nie jakimiś ściśle określonymi np. jakąś specyfikacją warunkami). Ja bym długo testował... ;) I bardzo dokładnie... ;) Nawet w wypadku, gdyby rozpoznawanie obrazu nie było problemem.

59 minut temu, cyjanobakteria napisał:

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

P.S. A kompilator Elma BTW jest napisany w Haskellu. ;)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, darekp said:

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework. Można nie lubić TypeScript, ale mainstreamowe IDE się bardzo dobrze integrują i można się nauczyć innego podejścia w locie, które pomaga znaleźć błędy zanim kod trafi na produkcję. Ma bardzo dobre CLI i przypomina mi dojrzałe backendowe frameworki jak Ruby On Rail i Django. Szkoda, że przeskok z A1 na A2 nie jest możliwy bez przepisania aplikacji, to na pewno nie pomogło A2 zyskać na popularności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, cyjanobakteria napisał:

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework.

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Ale nie mówię (ani nie wierzę), że jest jakaś "jedynie słuszna opcja". Tam gdzie trzeba zoptymalizować jakiś algorytm, języki imperatywne pewnie są lepsze (można wielokrotnie nadpisywać ten sam kawałek pamięci).  Sam "od zawsze" programowałem w C++ i C# (trochę też w Javie), ale coraz częściej piszę np. klasy z samymi metodami statycznymi, bo to mi się sprawdza najbardziej i to bierze się chyba z tego, że  u nas w pracy nie ma dużej presji na algorytmy i struktury danych, robi się przetwarzanie dokumentów znajdujących się w bazie danych albo formularze do ich edycji i ważne jest, żeby sprawnie zaimplementować jakąś logikę biznesową. Jeśli coś się optymalizuje, to zapytania na bazie danych. Wymagania się często zmieniają. W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne. Co dopiero zaczynam sprawdzać:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 minuty temu, darekp napisał:

W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne.

Witam po ciemnej stronie mocy! Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document(); Nie dość, że bolesna liczba powtórzeń 'document', to jeszcze mi sterta rośnie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, Jajcenty napisał:

Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document();

Mnie też ;) I jeszcze korci, żeby wykasować ten średnik na końcu;) I jeszcze albo słowo kluczowe new, albo te nawiasy po Dokument (obu naraz chyba się się nie da, chociaż głowy nie daję;)) 

P.S. Bo oczywiście pierwsze wystąpienie "Document" można już od dawna zastąpić jakimś let/var/val itp. (wszędzie oprócz Javy) ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, darekp said:

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Kilka lat temu zrobiłem projekt w AngularJS (1.x) i przeskoczyłem w bezpieczeństwo IT. Teraz trochę nadrobiłem z ciekawości i z perspektywy czasu mogę powiedzieć, że AngularJS (1.x) to był dość toporny framework. Jakby ktoś zapytał, co w nim lubiłem, to nie wiem, co bym odpowiedział :) Za to jestem pod wrażeniem Angular (2+), integracją różnych IDE (VS, Webstorm) z TypeScript i CLI. Po drodze zmieniło się jednak podejście i mainstreamowe frameworki są teraz oparte na komponentach.

Niewiele wiem na temat RxJS, ale zrobiłem kilka tutoriali z małymi aplikacjami w oparciu o nowy Angular i nie musiałem z tego korzystać, ale nie wykluczam, że w większym projekcie jest to przydatne. Zerkam też na React i to ciekawa biblioteka, dużo lżejsza, ale z drugiej strony wygląda na to, że trzeba korzystać z dodatków. Trochę mnie męczy to mieszanie HTML i JS, ale podejrzewam, że można to rozdzielić.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeszcze do niedawna naukowcy potrafili określi miejsce pochodzenia jedynie 6% meteorytów znalezionych na Ziemi. Teraz naukowcy z francuskiego Narodowego Centrum Badań Naukowych (CNRS), Europejskiego Obserwatorium Południowego i czeskiego Uniwersytetu Karola wykazali, że 70% wszystkich znalezionych na naszej planecie meteorytów pochodzi z trzech młodych rodzin asteroid.
      Rodziny te to wyniki trzech zderzeń, do których doszło w głównym pasie asteroid 5,8, 7,5 oraz 40 milionów lat temu. Badacze określili też źródło innych meteorytów, dzięki czemu możemy teraz zidentyfikować miejsce pochodzenia ponad 90% skał, które z kosmosu spadły na Ziemię. Wyniki badań zostały opublikowane w trzech artykułach. Jeden ukazał się łamach Astronomy and Astrophysics, a dwa kolejne na łamach Nature.
      Wspomniane rodziny asteroid to – od najmłodszej do najstarszej – Karin, Koronis i Massalia. Wyróżnia się Massalia, która jest źródłem 37% meteorytów. Dotychczas na Ziemi odnaleziono podczas 700 000 okruchów z kosmosu. Jedynie 6% z nich zidentyfikowano jako achondryty pochodzące z Księżyca, Marsa lub Westy, jednego z największych asteroid głównego pasa. Źródło pozostałych 94%, z których większość do chondryty, pozostawało nieznane.
      Jak to jednak możliwe, że źródłem większości znalezionych meteorytów są młode rodziny asteroid? Autorzy badań wyjaśniają, że rodziny takie charakteryzują się dużą liczbą niewielkich fragmentów powstałych w wyniku niedawnych kolizji. Ta obfitość zwiększa prawdopodobieństwo kolejnych zderzeń, co w połączeniu z duża mobilnością tych szczątków, powoduje, że mogą zostać wyrzucone z głównego pasa asteroid, a część z nich poleci w kierunku Ziemi. Starsze rodziny asteroid nie są tak liczne. Przez wiele milionów lat mniejsze fragmenty, ale na tyle duże, że mogłyby spaść na Ziemię, zniknęły w wyniku kolejnych zderzeń i ucieczki z pasa asteroid.
      Określenie pochodzenia większości meteorytów było możliwe dzięki teleskopowym badaniom składu większości rodzin asteroid w głównym pasie oraz zaawansowanymi symulacjami komputerowymi, podczas których badano dynamikę tych rodzin.
      Autorzy badań określili też pochodzenie wielkich asteroid, takich jak Ryugu czy Bennu. Okazało się, że pochodzą one od tego samego przodka co rodzina asteroid Polana.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po dziesięcioleciach udało się odkryć ambipolarne (dwukierunkowe) pole elektryczne Ziemi. To słabe pole elektryczne naszej planety, które jest tak podstawową jej cechą jak grawitacja czy pola magnetyczne. Hipoteza o istnieniu takiego pola pojawiła się ponad 60 lat temu i od tamtego czasu poszukiwano tego pola. Jest ono kluczowym mechanizmem napędzającym „wiatr polarny”, czyli ucieczkę naładowanych cząstek z ziemskiej atmosfery w przestrzeń kosmiczną. Ma ona miejsce nad ziemskimi biegunami.
      „Wiatr polarny” został odkryty w latach 60. XX wieku. Od samego początku naukowcy uważali, że jego siłą napędową jest nieznane pole elektryczne. Uważano, że jest ono generowane w skali subatomowej i jest niezwykle słabe. Przez kolejnych kilkadziesiąt lat ludzkość nie dysponowała narzędziami, które mogły zarejestrować takie pole.
      W 2016 roku Glyn Collinson i jego zespół z Goddars Space Flight Center zaczęli pracować nad instrumentami zdolnymi do zmierzenia ambipolarnego pola elektrycznego. Stworzone przez nich urządzenia oraz metoda pomiaru zakładały przeprowadzenie badań za pomocą rakiety suborbitalnej wystrzelonej z Arktyki. Badacze nazwali swoją misję Endurance, na cześć statku, którym Ernest Shackleton popłynął w 1914 roku na swoją słynną wyprawę na Antarktykę. Rakietę postanowiono wystrzelić ze Svalbardu, gdzie znajduje się najbardziej na północ wysunięty kosmodrom. Svalbard to jedyny kosmodrom na świecie, z którego można wystartować, by przelecieć przez wiatr polarny i dokonać koniecznych pomiarów, mówi współautorka badań, Suzie Imber z University of Leicester.
      Misja Endurance została wystrzelona 11 maja 2022 roku. Rakieta osiągnęła wysokość 768,03 km i 19 minut później spadła do Morza Grenlandzkiego. Urządzenia pokładowe zbierały dane przez 518 kilometrów nabierania wysokości i zanotowały w tej przestrzeni zmianę potencjału elektrycznego o 0,55 wolta. Pół wolta to tyle co nic, to napięcie baterii w zegarku. Ale to dokładnie tyle, ile trzeba do napędzenia wiatru polarnego, wyjaśnia Collinson.
      Generowane pole elektryczne oddziałuje na jony wodoru, które dominują w wietrze polarnym, z siłą 10,6-krotnie większą niż grawitacja. To więcej niż trzeba, by pokonać grawitację. To wystarczająco dużo, by wystrzelić jony z prędkością naddźwiękową prosto w przestrzeń kosmiczną, dodaje Alex Glocer z NASA. Pole napędza też cięższe pierwiastki, jak jony tlenu. Z badań wynika, że dzięki obecności tego pola elektrycznego jonosfera jest na dużej wysokości o 271% bardziej gęsta, niż byłaby bez niego. Mamy tutaj rodzaj taśmociągu, podnoszącego atmosferę do góry, dodaje Collinson.
      Pole to nazwano ambipolarnym (dwukierunkowym), gdyż działa w obie strony. Opadające pod wpływem grawitacji jony ciągną elektrony w dół, a w tym samym czasie elektrony – próbując uciec w przestrzeń kosmiczną – ciągną jony w górę. Wskutek tego wysokość atmosfery zwiększa się, a część jonów trafia na wystarczającą wysokość, by uciec w przestrzen kosmiczną w postaci wiatru polarnego.
      Odkrycie ambipolarnego pola elektrycznego otwiera przed nauką nowe pola badawcze. Jest ono bowiem, obok grawitacji i pola magnetycznego, podstawowym polem energetycznym otaczającym naszą planetę, wciąż wpływa na ewolucję naszej atmosfery w sposób, który dopiero teraz możemy badać. Co więcej, każda planeta posiadająca atmosferę powinna mieć też ambipolarne pole elektryczne. Można więc będzie go szukać i badać na Marsie czy Wenus.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jedno z ważnych pytań o początki życia brzmi: w jaki sposób cząstki RNA swobodnie przemieszczające się w pierwotnej zupie zostały opakowane w chronione błoną komórki. Odpowiedź na to pytanie zaproponowali właśnie na łamach Science Advances inżynierowie i chemicy z Uniwersytetów w Chicago i w Houston oraz Jack Szostak, laureat Nagrody Nobla w dziedzinie fizjologii lub medycyny. W swoim artykule pokazują, jak przed 3,8 miliardami lat krople deszczu mogły ochronić pierwsze protokomórki i umożliwić powstanie złożonych organizmów żywych.
      Uczeni przyjrzeli się koacerwatom, dużym grupom cząstek, samoistnie tworzącym się w układach koloidalnych (niejednorodnych mieszaninach). Zachowanie koacerwatów można porównać do zachowania kropli oleju w wodzie.
      Już dawno pojawiła się hipoteza, że nie posiadające błon mikrokrople koacerwatów mogły być modelowymi protokomórkami, gdyż mogą rosnąć, dzielić się i gromadzić wewnątrz RNA. Jednak błyskawiczna wymiana RNA pomiędzy koacerwatami, ich szybkie łączenie się, zachodzące w ciągu minut oznaczają, że poszczególne krople nie są w stanie utrzymać swojej odrębności genetycznej. To zaś oznacza, że ewolucja darwinowska nie jest możliwa, a populacja takich protokomórek byłaby narażona na błyskawiczne załamanie w wyniku rozprzestrzeniania się pasożytniczego RNA, czytamy w artykule. Innymi słowy każda kropla, która zawierałaby mutację potencjalnie użyteczną na drodze do powstania życia, błyskawicznie wymieniałaby swoje RNA z innymi RNA, nie posiadającymi takich pożytecznych mutacji. W bardzo szybkim tempie wszystkie krople stałyby się takie same. Nie byłoby różnicowania, konkurencji, a zatem nie byłoby ewolucji i nie mogłoby powstać życie.
      Jeśli dochodzi do ciągłej wymiany molekuł czy to między kroplami czy między komórkami i po krótkim czasie wszystkie one wyglądają tak samo, to nie pojawi się ewolucja. Będziemy mieli grupę klonów, wyjaśnia Aman Agrawal z Pritzker School of Molecular Engineering na University of Chicago.
      Nauka od dawna zastanawia się, co było pierwszą molekułą biologiczną. To problem kury i jajka. DNA koduje informacje, ale nie przeprowadza żadnych działań. Białka przeprowadzają działania, ale nie przenoszą informacji. Badacze tacy jak Szostak wysunęli hipotezę, że pierwsze było RNA. To molekuła jak DNA, zdolna do kodowania informacji, ale zawija się jak białko.
      RNA było więc kandydatem na pierwszy materiał biologiczny, a koacerwaty kandydatami na pierwsze protokomórki. Wszystko wydawało się dobrze układać, aż w 2014 roku Szostak opublikował artykuł, w którym informował, że wymiana materiału pomiędzy kroplami koacerwatów zachodzi zbyt szybko. Możesz stworzyć różnego rodzaju krople koacerwatów, ale nie zachowają one swojej unikatowej odrębności. Zbyt szybko będą wymieniały RNA. To był problem z którym przez długi czas nie potrafiono sobie poradzić, mówi Szostak.
      W naszym ostatnim artykule wykazaliśmy, że problem ten można przynajmniej częściowo przezwyciężyć, jeśli koacerwaty zamkniemy w wodzie destylowanej – na przykład wodzie deszczowej czy jakiejś innej słodkiej wodzie. W kroplach takich pojawia się rodzaj wytrzymałej błony, która ogranicza wymianę zawartości, dodaje uczony.
      Na trop tego zjawiska naukowcy wpadli, gdy Aman Agrawal był na studiach doktoranckich. Badał zachowanie koacerwatów poddanych działaniu pola elektrycznego w destylowanej wodzie. Jego badania nie miały nic wspólnego z początkami życia. Interesował go fascynujący materiał z inżynieryjnego punktu widzenia. Manipulował napięciem powierzchniowym, wymianą soli, molekuł itp. Chciał w swojej pracy doktorskiej badać podstawowe właściwości koacerwatów.
      Pewnego dnia Agrawal jadł obiad z promotorem swojej pracy magisterskiej, profesorem Alamgirem Karimem oraz jego starym znajomym, jednym ze światowych ekspertów inżynierii molekularnej, Matthew Tirrellem. Tirrell zaczął się zastanawiać, jak badania Agrawala nad wpływem wody destylowanej na koacerwaty mogą się mieć do początków życia na Ziemi. Zadał swoim rozmówcom pytanie, czy 3,8 miliarda lat temu na naszej planecie mogła istnieć woda destylowana. Spontanicznie odpowiedziałem „deszczówka”! Oczy mu się zaświeciły i od razu było widać, że jest podekscytowany tym pomysłem. Tak połączyły się nasze pomysły, wspomina profesor Karim.
      Tirrell skontaktował Agrawla z Szostakiem, który niedawno rozpoczął na Uniwersytecie Chicagowskim nowy projekt badawczy, nazwany z czasem Origins of Life Initiative. Profesor Tirrel zadał Szostakowi pytanie: Jak sądzisz, skąd na Ziemi przed powstaniem życia mogła wziąć się woda destylowana. I Jack odpowiedział dokładnie to, co już usłyszałem. Że z deszczu.
      Szostak dostarczył Agrawalowi próbki DNA do badań, a ten odkrył, że dzięki wodzie destylowanej transfer RNA pomiędzy kroplami koacerwatów znacząco się wydłużył, z minut do dni. To wystarczająco długo, że mogło dochodzić do mutacji, konkurencji i ewolucji. Gdy mamy populację niestabilnych protokomórek, będą wymieniały materiał genetyczny i staną się klonami. Nie ma tutaj miejsca na ewolucję w rozumieniu Darwina. Jeśli jednak ustabilizujemy te protokomórki tak, by przechowywały swoją unikatową informację wystarczająco długo, co najmniej przez kilka dni, może dojść do mutacji i cała populacja będzie ewoluowała, stwierdza Agrawal.
      Początkowo Agrawal prowadził swoje badania z komercyjnie dostępną laboratoryjną wodą destylowaną. Jest ona wolna od zanieczyszczeń, ma neutralne pH. Jest bardzo odległa od tego, co występuje w naturze. Dlatego recenzenci pisma naukowego, do którego miał trafić artykuł, zapytali Agrawala, co się stanie, jeśli woda będzie miała odczyn kwasowy, będzie bardziej podobna do tego, co w naturze.
      Naukowcy zebrali więc w Houston deszczówkę i zaczęli z nią eksperymentować. Gdy porównali wyniki badań z wykorzystaniem naturalnej deszczówki oraz wody destylowanej laboratoryjnie, okazało się, że są one identyczne. W obu rodzajach wody panowały warunki, które pozwalałyby na ewolucję RNA wewnątrz koacerwatów.
      Oczywiście skład chemiczny deszczu, który pada obecnie w Houston, jest inny, niż deszczu, który padał na Ziemi przed 3,8 miliardami lat. To samo zresztą można powiedzieć o modelowych protokomórkach. Autorzy badań dowiedli jedynie, że taki scenariusz rozwoju życia jest możliwy, ale nie, że miał miejsce.
      Molekuły, których użyliśmy do stworzenia naszych protokomórek to tylko modele do czasu, aż znajdziemy bardziej odpowiednie molekuły. Środowisko chemiczne mogło się nieco różnić, ale zjawiska fizyczne były takie same, mówi Agrawal.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po 2,5 roku pracy na dnie Krateru Jezero łazik Perseverance przygotowuje się do wielomiesięcznej wspinaczki na zachodnią krawędź Krateru. Prawdopodobnie napotka tam najbardziej stromy i najtrudniejszy teren, z jakim przyszło mu się dotychczas zmierzyć. Perseverance wyruszy w podróż 18 sierpnia, a wspinaczka i badanie terenu będą już 5. kampanią naukową prowadzoną od czasu lądowania 18 lutego 2021 roku.
      Perseverance zakończył 4 projekty badawcze, zebrał 22 próbki skał i przejechał ponad 18 mil. Zaczynamy teraz Crater Rim Campaign. Łazik jest w doskonałym stanie, a my nie możemy się doczekać, by zobaczyć, co jest na szczycie badanego przez nas obszaru, mówi Art Thompson, menedżer projektu Perseverance w Jet Propulsion Laboratory.
      Głównymi celami najnowszej kampanii badawczej są dwa miejsca, nazwane „Pico Turquino” oraz „Witch Hazel Hill”. Na zdjęciach z orbiterów krążących wokół Marsa widać, że na Pico Turquino znajdują się stare pęknięcia, które mogą powstać w wyniku zjawisk hydrotermalnych. Z kolei warstwy, z których zbudowane jest Witch Hazel Hill sugerują, że struktura ta powstała w czasach, gdy na Marsie panował zupełnie inny klimat niż obecnie. Zdjęcia ujawniły tam podłoże skalne o jaśniejszym kolorze, podobne do tego, które łazik znalazł na obszarze zwanym „Bright Angel”. Tamtejsza skała „Cheyava Falls” miała strukturę i sygnatury chemiczne wskazujące, że mogła powstać przed miliardami lat w wyniku działania organizmów żywych w środowisku wodnym.
      Podczas podróży ku krawędzi krateru Perseverance będzie polegał na półautomatycznych mechanizmach, których celem jest unikanie zbyt dużego ryzyka. Ma wspinać się po stokach nachylonych nawet o 23 stopnie i unikać miejsc, których nachylenie będzie wynosiło ponad 30 stopni. Łazik wjedzie na wysokość 300 metrów i zakończy podróż w miejscu nazwanym „Aurora Park”.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...