Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Lądowanie Curiosity to była betka. Mars 2020 pokaże, czym jest precyzja

Recommended Posts

W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.

Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.

Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.

Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.

To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.

NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.

Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.


« powrót do artykułu

Share this post


Link to post
Share on other sites
17 godzin temu, KopalniaWiedzy.pl napisał:

Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.

Kurcze wybaczcie mi, albowiem nie wiem co piszę, ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym. Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo. Reasumując, jak ślepy koń w wielkiej Pardubickiej, nie widzę przeszkód?

Ten filmik nie zmienia mojego zdziwienia. Duża zaleta, że to rozwiązanie dojrzałe, wygrzane i ... wojskowe :D

 

Share this post


Link to post
Share on other sites
2 godziny temu, Ergo Sum napisał:

hmmm... czyli mam rozumieć że testowali to tylko w w jednym miejscu ??????!!!!!

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

2 godziny temu, Jajcenty napisał:

ale dla mnie to robi wrażenie czegoś w rodzaju projektu na zaliczenie - góra dwa tygodnie dla studenta. Jeszcze 5-10 lat temu, zgoda, to dość wymagające zadanie, ale teraz?  Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Share this post


Link to post
Share on other sites
2 godziny temu, Jajcenty napisał:

Nie chwaląc się udaje mi się mierzyć odległości w odkuwce  na przenośniku w tempie 3-7 fps, a jest to zadanie ciężkie obliczeniowo.

Inteligencję pochwalić, ale sprytu ani, ani. Nie to,  co u tego:

19 godzin temu, KopalniaWiedzy.pl napisał:

Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem,

Jak w kawale:

Przychodzi młody Ferenstin do ojca: tato zamknąłem sprawę Goldbluma przeciw Blumenfeldowi, z którą Ty męczyłeś się 15 lat. Na co ojciec: Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia, a Ty zacząłeś karierę od fuszerki.

Share this post


Link to post
Share on other sites
34 minuty temu, darekp napisał:

Na AI się nie znam, ale gdy się ryzykuje sprzętem wartym miliony/miliardy to IMHO co najmniej 1-2 lata należałoby by przeznaczyć na same testy oprogramowania.

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni. Można jakoś tak zrobić żeby NN konkurowały ze sobą w wielu wątkach i wychodzą takie przerażające AI - jak dołączą do tego układy wykonawcze z Boston Dynamics, to możemy powoli kopać sobie dołek. 

6 minut temu, 3grosze napisał:

Bożżższe, dzięki tej sprawie wybudowałem dom i opłaciłem Twoje studia

Też tak czuję, może nie tak celowo przeciągnięte, pomysł powstał 15 lat temu był rozwijany do tej pory w innym celu niż lądowanie na Marsie, ale aktualna implementacja jest na pewno nowsza :D

Share this post


Link to post
Share on other sites
W dniu 8.10.2019 o 20:54, darekp napisał:

Pustynia Mojave ma 65 tys. km kwadratowych powierzchni - tyle co województwa mazowieckie i wielkopolskie razem wzięte. Chyba ujdzie, chociaż ja przez ostrożność też wolałbym pewnie testować w kilku różnych krainach geograficznych. Ale może rzeczywiście oni mają dostateczne doświadczenie, żeby tak wybrać.

Nie jestem ekspertem w dziedzinie AI, ale może uznali, że Mojave najbardziej przypomina powierzchnię Marsa i jego geologiczne formacje. Zdaje się, że testują tam sporo sprzętu NASA. Jeżeli tak, to jakie ma znaczenie testowanie w innych warunkach? Najbardziej miarodajny będzie test na Marsie ;-)

W artykule jest mowa, że wykonali 600 lotów śmigłowcem. Zakładam, że przeprowadzali kilkaset udanych lądowań w ich trakcje. Jak podają pewność wzrosła z 85% do 99%, a zysk z kolejnych testów maleje i najwyraźniej trudno było wycisnąć więcej.

Czekam z niecierpliwością na kolejne video, 10 sekund horroru ;-)

Poprzednie to jest jedno z moich ulubionych klipów na YT i widziałem je setki razy ;-)

Edited by wilk
Korekta formatowania. Co Ty masz z tym czarnym tłem?

Share this post


Link to post
Share on other sites
W dniu 8.10.2019 o 19:00, Jajcenty napisał:

Absolutnie każdy może sobie wytrenować CNN, te wszystkie SSD, YOLO rozpoznają obiekty niemalże w czasie rzeczywistym.

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

W dniu 8.10.2019 o 21:35, Jajcenty napisał:

Te dwa lata testów da się skrócić zwiekszając liczbę rdzeni.

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Share this post


Link to post
Share on other sites
6 godzin temu, radar napisał:

CNN to pomału będzie przeszłość, za bardzo podatne są na ataki.

Nie sądzę by Marsjanie o tym wiedzieli ;) Z tymi NN to tak sobie, na szybko, pojechałem. Nie wiem czy to jest zadanie dla sieci. Może wystarczy proste rozpoznawanie obrazu? Mamy zdjęcia i czas, żeby wyuczyć NN tu na Ziemi? Jeśłi tak, to ja bym użył CNN  maksymalnie przetrenowanej co da bardzo dużą  pewność rozpoznania. A może musimy cyknąć parę fotek z orbity i mamy minutę na analizę i decyzję oraz mamy mało cykli CPU i mało prądu? Łatwo się ocenia cudzy soft ;) , ale ponieważ zajmuję się rozpozawaniem obrazu, to na podstawie mojego (przeciętnego) doświadczenia ten kosztorys wydał mi się przesadzony.

6 godzin temu, radar napisał:

Mam wrażenie, że nie chodzi tylko o trenowanie sieci, ale o testy całości oprogramowania, sieć to zaledwie czątka, ważna, ale niewielka.

Na pewno tak, ale @darekp odniósł się do samego oprogramowania, a biorąc pod uwagę koszt sprzętu i liczbę potrzebnych testów, to emulowane środowisko wydaje się najlepszym rozwiązaniem. Od lądowania na Marsie do inżynierii programowania i dobrych praktyk ITIL :D BTW jest update ITIL do 4.0 od lutego, jakoś przeszło bez echa w światku IT :)  

 

Share this post


Link to post
Share on other sites
47 minut temu, Jajcenty napisał:

Nie sądzę by Marsjanie o tym wiedzieli

Oj tam oj tam:) To była uwaga ogólna :) (chociaż swoją drogą ciekawe czy jakiś nietypowy układ wzorów na głazach nie mógł by sprawić kłopotów? )

1 godzinę temu, Jajcenty napisał:

A może musimy cyknąć parę fotek z orbity

To mnie właśnie ciekawi, wydawało mi się, że zdjęć trochę mamy, ale może rozdzielczość za słaba? No i zawsze mnie dziwi czy te bezwładnościowe czujniki nie są wystarczająco dokładne skoro na Ziemi naprowadza się nimi rakiety (wojskowe)?

1 godzinę temu, Jajcenty napisał:

ale ponieważ zajmuję się rozpozawaniem obrazu,

O proszę... pochwal się gdzie i w jakim celu?

W dniu 8.10.2019 o 21:25, 3grosze napisał:

Przychodzi młody Ferenstin

Trochę tak, ale pewnie ostateczne osiągnięcia były w ostatnich kilku latach. Deep Learning w 2004 był słaby, potem był 2006, a teraz nvidia pewnie mogła by im dostarczyć małą kość z 1000 czy 2000 corami CUDA.

1 godzinę temu, Jajcenty napisał:

update ITIL do 4.0

Aż tak wiele się nie zmieniło :)

Share this post


Link to post
Share on other sites
2 godziny temu, Jajcenty napisał:

Nie sądzę by Marsjanie o tym wiedzieli ;) 

Oj tam, oj tam. Nie chcą się ujawniać, stąd dość prawdopodobny wskaźnik:
Mars Landing Success Rate: 40%
https://mars.nasa.gov/mars-exploration/missions/historical-log/
(oczywiście to propaganda ;))

36 minut temu, radar napisał:

układ wzorów na głazach nie mógł by sprawić kłopotów?

Zwykłe maskowanie., do tego subtelne. ;)

37 minut temu, radar napisał:

ale może rozdzielczość za słaba?

Stanowczo nie. :)
Polecam historię ze sławetnym wybiciem nowego krateru na Marsie o nazwie Schiaparelli (pisałem kiedyś o tym).
Niestety, patrząc na dyskusję widzę, że programiści oczekują tylko jednego, a właściwie trzech rzeczy: kasa, kasa, kasa... :D
Oczywiście i tak dają ciała. Cóż, takie czasy (próbują robić za magików naszej rzeczywistości, a zwyczajnie są niedouczeni ;)).

P.S. Komu by się chciało wchodzić w coś przykładowo normalnego jak Haskell? Do tego trzeba trochę inteligencji, a nie szybkich palców. :D

Share this post


Link to post
Share on other sites
Godzinę temu, radar napisał:

O proszę... pochwal się gdzie i w jakim celu?

W sumie nic ciekawego, przemysł nasycił się kamerami i teraz czas coś z tego wyciągnąć. Większość zagadnień jest opanowana/ogarnięta przez dostawców CCTV, wykrywanie ruchu, ognia, numery rejestracyjne samochodów, wykrywanie ludzi w strefach zagrożenia - takie po prostu wdrażamy, ale zostaje trochę drobnicy dla rzemieślników. Robiłem pomiary detalu na taśmie, wykrywanie uszkodzeń mechanicznych przenośnika, temperatury łożysk/silników do predictive maintenance. Oczywiście Python,Numpy,OpenCV rules! 

35 minut temu, Astro napisał:

Komu by się chciało wchodzić w coś przykładowo normalnego jak Haskell?

Próbowałem programowania funkcyjnego chyba więcej razy niż rzucałem palenie i nic. Nie moja bajka. I chyba nie tylko nie moja, sądząc po popularności tego podejścia. Nawet laski na to nie lecą.

44 minuty temu, Astro napisał:

Do tego trzeba trochę inteligencji, a nie szybkich palców

No i masz wyjaśnienie. Jak do projektu potrzebujesz geniuszy, to masz bardzo drogie projekty. Nie wspominając, że geniusze są znani ze swej skłoności do współpracy i wszyscy się garną by razem z nimi robić soft i grzać się cieple ich ego :) 

Share this post


Link to post
Share on other sites
37 minut temu, Jajcenty napisał:

Nie moja bajka.

Wszystko wymaga czasu. Kiedyś powszechnie klepano w basicu (nawet w M$ :D), ale jak widzisz jest inaczej. Jak ktoś dwadzieścia lat kuje młotem, to CNC wydaje mu się fanaberią... A jednak. ;)

39 minut temu, Jajcenty napisał:

No i masz wyjaśnienie.

Doskonale to wiem, ale chyba już komentarz zbędny. ;)

P.S. Tanio i szybko można umierać. Zwłaszcza za idee wyborcze. :D
Ale wiesz, to nie musi być stanowczo droższe. Dwie inteligentne linijki kodu nie są droższe, niż 120 debilnych robiących to samo (zwykle wolniej).

ed. Dodam, że ta naturalnie wszyta cecha, która nazywa się "obsługą błędów" jest prześliczna. Jak doskonale wiesz, to jakieś 80% czasu spuszczania się "programistów". Jak doskonale widzimy od lat, wychodzi im tak sobie. ;)

Łatanie, łatanie, łatanie... Mam tylko obawy. Zaczyna mi to przypominać piaskowanie hełmów w polskim wojsku. Zapewne wiesz co mam na myśli.

55 minut temu, Jajcenty napisał:

Nawet laski na to nie lecą.

Wiem, inteligentnych jest niewiele ;), ale jednak. Co ciekawsze, według moich obserwacji, są zwykle atrakcyjniejsze; i lecą... :D

 

Share this post


Link to post
Share on other sites
23 godziny temu, Astro napisał:

Ale wiesz, to nie musi być stanowczo droższe. Dwie inteligentne linijki kodu nie są droższe, niż 120 debilnych robiących to samo (zwykle wolniej)

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Share this post


Link to post
Share on other sites
1 hour ago, Jajcenty said:

Żeby język się upowszechnił potrzebny jest ekosystem dla niego.  Haskel to lata 90 ubiegłego stulecia, jak nie wybił się do tej pory... A jak będę potrzebował czegoś szybkiego, to zawsze pozostaje c/c++. Czy może być coś szybszego od asemblera?

 

Dokładnie. Spotykałem się w pracy z miłośnikiem Haskella. Napisał w nim jeden raport, który był chyba uruchomiony kilkukrotnie. Nie orientuję się dokładnie, może nawet chodził gdzieś na back-endzie przez kilka miesięcy, ale prawie nikt o nim nie słyszał i nikt nigdy nie napisał nic innego w Haskellu w tej firmie. Był to mały dodatek do projektu, więc nie ma to znaczenia. Deweloper się czegoś nauczył, a kod działał poprawnie, więc wszyscy byli zadowoleni ;-)

Klasyka XKCD odnośnie Haskella:

https://www.explainxkcd.com/wiki/index.php/1312:_Haskell

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
W dniu 12.10.2019 o 10:42, Astro napisał:

Mars Landing Success Rate: 40%

Toteż pisałem o 1-2 latach testów i (mea culpa, że nie uściśliłem;) ) miałem na myśli realne testy w rodzaju tych 600 lotów z helikopterem, a nie jakieś testowanie sieci neuronowej w wirtualnym środowisku software'owym;) Zresztą w tym przypadku nie wystarczy sama sieć do rozpoznania obrazu, ale coś musi sterować silniczkami rakietowymi itp. Plus interakcję z realna przyrodą na zewnątrz (a nie jakimiś ściśle określonymi np. jakąś specyfikacją warunkami). Ja bym długo testował... ;) I bardzo dokładnie... ;) Nawet w wypadku, gdyby rozpoznawanie obrazu nie było problemem.

59 minut temu, cyjanobakteria napisał:

Z tego co się orientuję, programowanie funkcjonalne przechodzi mały renesans przynajmniej w świecie JS. Widziałem sporo artykułów na temat w ciągu ostatnich kilku lat.

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

P.S. A kompilator Elma BTW jest napisany w Haskellu. ;)

Edited by darekp

Share this post


Link to post
Share on other sites
1 hour ago, darekp said:

To się pochwalę, że mam za sobą małą stronkę (ale dla całkiem poważnego klienta) napisaną w języku Elm ;) Jak się sprawdzi w praktyce, to dopiero się okaże, bo jeszcze nie wdrożona, ale jak na razie mam chęć dalej używać Elma zamiast Reacta (o Angularze nie wspominając) ;)

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework. Można nie lubić TypeScript, ale mainstreamowe IDE się bardzo dobrze integrują i można się nauczyć innego podejścia w locie, które pomaga znaleźć błędy zanim kod trafi na produkcję. Ma bardzo dobre CLI i przypomina mi dojrzałe backendowe frameworki jak Ruby On Rail i Django. Szkoda, że przeskok z A1 na A2 nie jest możliwy bez przepisania aplikacji, to na pewno nie pomogło A2 zyskać na popularności.

Share this post


Link to post
Share on other sites
4 godziny temu, cyjanobakteria napisał:

Angular zbiera dużo negatywnych opinii, ale A2 i dalsze wersje to porządny framework.

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Ale nie mówię (ani nie wierzę), że jest jakaś "jedynie słuszna opcja". Tam gdzie trzeba zoptymalizować jakiś algorytm, języki imperatywne pewnie są lepsze (można wielokrotnie nadpisywać ten sam kawałek pamięci).  Sam "od zawsze" programowałem w C++ i C# (trochę też w Javie), ale coraz częściej piszę np. klasy z samymi metodami statycznymi, bo to mi się sprawdza najbardziej i to bierze się chyba z tego, że  u nas w pracy nie ma dużej presji na algorytmy i struktury danych, robi się przetwarzanie dokumentów znajdujących się w bazie danych albo formularze do ich edycji i ważne jest, żeby sprawnie zaimplementować jakąś logikę biznesową. Jeśli coś się optymalizuje, to zapytania na bazie danych. Wymagania się często zmieniają. W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne. Co dopiero zaczynam sprawdzać:)

Share this post


Link to post
Share on other sites
22 minuty temu, darekp napisał:

W takiej sytuacji pożytek z obiektów jest mały, bardziej sprawdzają się zbiory małych funkcji i powstaje wrażenie, że jednak te języki funkcyjne mogą być bardziej przydatne.

Witam po ciemnej stronie mocy! Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document(); Nie dość, że bolesna liczba powtórzeń 'document', to jeszcze mi sterta rośnie. 

Share this post


Link to post
Share on other sites
13 minut temu, Jajcenty napisał:

Boli mnie za każdym kiedy piszę coś w rodzaju Document document = new Document();

Mnie też ;) I jeszcze korci, żeby wykasować ten średnik na końcu;) I jeszcze albo słowo kluczowe new, albo te nawiasy po Dokument (obu naraz chyba się się nie da, chociaż głowy nie daję;)) 

P.S. Bo oczywiście pierwsze wystąpienie "Document" można już od dawna zastąpić jakimś let/var/val itp. (wszędzie oprócz Javy) ;)

Share this post


Link to post
Share on other sites
2 hours ago, darekp said:

Mi się Angular nie podoba, jakiś taki zbyt sztuczny, zagmatwany, takie mam wrażenie, TypeScript mi dość przypadł do gustu. Zresztą jeśli chodzi o Angulara (przynajmniej jego najnowsze wersje), to chyba bez biblioteki RxJS niewiele się w nim da zrobić, a RxJS to trochę takie wprowadzanie cichaczem funkcyjności w gruncie rzeczy?

Kilka lat temu zrobiłem projekt w AngularJS (1.x) i przeskoczyłem w bezpieczeństwo IT. Teraz trochę nadrobiłem z ciekawości i z perspektywy czasu mogę powiedzieć, że AngularJS (1.x) to był dość toporny framework. Jakby ktoś zapytał, co w nim lubiłem, to nie wiem, co bym odpowiedział :) Za to jestem pod wrażeniem Angular (2+), integracją różnych IDE (VS, Webstorm) z TypeScript i CLI. Po drodze zmieniło się jednak podejście i mainstreamowe frameworki są teraz oparte na komponentach.

Niewiele wiem na temat RxJS, ale zrobiłem kilka tutoriali z małymi aplikacjami w oparciu o nowy Angular i nie musiałem z tego korzystać, ale nie wykluczam, że w większym projekcie jest to przydatne. Zerkam też na React i to ciekawa biblioteka, dużo lżejsza, ale z drugiej strony wygląda na to, że trzeba korzystać z dodatków. Trochę mnie męczy to mieszanie HTML i JS, ale podejrzewam, że można to rozdzielić.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat.
      Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie.
      Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat.
      Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 0o0 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A.
      Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu.
      Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania.
      Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20.
      Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat.
      W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił.
      Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Transiting Exoplanet Survey Satellite (TESS) odkrył swoją pierwszą planetę wielkości Ziemi znajdującą się w ekosferze gwiazdy. Istnienie TOI 700 d została potwierdzona za pomocą Teleskopu Kosmicznego Spitzera.
      TOI 700 do jedna z niewielu znanych nam planet, która znajduje się w ekosferze swojej gwiazdy i jest wielkości Ziemi. "TESS został zaprojektowany i wystrzelony z myślą o poszukiwaniach planet wielkości Ziemi krążących woków pobliskich gwiazd. Planety towarzyszące niedalekim gwiazdom są łatwiejsze do odnalezienia. Odkrycie TOI 700 d to znaczące osiągnięcie dla TESS. Potwierdzenie wielkości planety i jej obecności w ekosferze to z kolei osiągnięcie Spitzera, teleskopu, którego misja ma się zakończyć 30 stycznia bieżącego roku", mówi Paul Hertz, dyrektor wydziału astrofizyki w kwaterze głównej NASA w Waszyngtonie.
      TESS monitoruje przez 27 dni wybrany sektory nieboskłonu. Poszukuje zmian jasności gwiazd, które mogą świadczyć o przechodzeniu planet na ich tle. TOI 700 to niewielka chłodna gwiazda typu M położona w odległości około 100 lat świetlnych w południowej części Gwiazdozbioru Złotej Ryby. Ma o 60% mniejszą masę od Słońca, a jej powierzchnia jest dwukrotnie chłodniejsza. Gwiazdę widać na 11 z 13 sektorów obserwowanych przez TESS w pierwszym roku misji. Dzięki tak długiemu czasowi obserwacji udało się zauważyć trzy planety przechodzące na jej tle.
      Początkowo gwiazda TOI 700 została zakwalifikowana jako bardziej podobna do Słońca, przez co jej planety wydawały się gorętsze i większe niż w rzeczywistości. Gdy dokonano korekt okazało się, że najbardziej zewnętrzna z planet jest wielkości Ziemi i znajduje się ekosferze. Co więcej, przez 11 miesięcy obserwacji nie zaobserwowano na gwieździe żadnych rozbłysków, co zwiększa szanse, że TOI 700 d ma stabilną atmosferę i warunki odpowiednie do życia.
      Najbardziej wewnętrzna planeta układu, TOI 700 b jest niemal dokładnie wielkości Ziemi, prawdopodobnie jest skalista i okrąża swoją gwiazdę w ciągu 10 dni. Kolejna z planet – TOI 700 c – ma średnicę 2,6 razy większą od średnicy Ziemi, jest prawdopodobniej gazowa, a jej czas obiegu wokół gwiazdy wynosi 16 dni. Znajdująca się w ekosferze TOI 700 d jest o 20% większa od naszej planety, obiega gwiazdę w ciągu 37 dni i otrzymuje z niej 86% energii jaką Ziemia otrzymuje od Słońca.
      Wszystkie planety prawdopodobnie charakteryzuje obrót synchroniczny, co oznacza, że jedna ich strona jest zawsze wystawiona w kierunku gwiazdy.
      Jako, że gwiazda TOI 700 jest jasna, znajduje się w pobliżu i nie zauważono na niej rozbłysków, jest ona bardzo dobrym celem kolejnych badań, pozwalających na precyzyjne pomiary masy. W niedalekiej zaś przyszłości powinno być możliwe zbadanie, czy planety mają atmosfery i jaki jest ich skład.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed dwoma laty w atmosferze pojawił się fragment wielkiej asteroidy. Niewielki meteoryt spłonął w ziemskiej atmosferze 28 kwietnia 2017 roku nad Kioto. Dane zebrane przez sieć SonotaCo pozwoliły stwierdzić, że w momencie wejścia w atmosferę okruch ważył około 29 gramów i miał średnice około 3 centymetrów. Teraz grupa naukowców z Narodowego Obserwatorium Astronomicznego Japonii, Wydziału Fizyki Uniwersytetu w Kioto oraz Nippon Meteor Society określiła, skąd fragment pochodził.
      Na podstawie badań trajektorii lotu uczeni stwierdzili [PDF], że okruch to fragment obiektu 2003 YT1. To podwójna asteroida, w skład której wchodzi większy obiekt o średnicy około 2 kilometrów, wokół którego krąży obiekt o średnicy 210 metrów. Ocenia się, że istnieje 6-procentowe ryzyko, iż w ciągu najbliższych 10 milionów lat asteroida zderzy się z Ziemią.
      Zdaniem Japończyków układ podwójny powstał w wyniku efektu YORP (Yarkovsky-O'Keefe-Radzievskii-Paddack). Polega on na zmianie prędkości asteroidy pod wpływem promieniowania słonecznego. Jedna strona asteroidy jest ogrzewana przez Słońce, staje się cieplejsza od drugiej, promieniowanie cieplne z tej strony jest silniejsze, powstaje różnica w ciśnieniu promieniowania, która prowadzi do zmiany prędkości obrotowej. Przyspieszenie może być tak duże, że prowadzi do rozerwania asteroidy.
      Naukowcy z Kraju Kwitnącej Wiśni zbadali potencjalne mechanizmy produkcji odłamków z tej asteroidy, w tym utratę stabilności pod wpływem obrotu, uderzenia, fotojonizację, sublimację lodu, pękania pod wpływem temperatury i inne. Wykazali, że pod wpływem siły odśrodkowej z asteroidy mogą uwalniać się fragmenty o wielkości liczonej w milimetrach i centymetrach. Podobnej wielkości fragmenty mogą pojawić się w wyniku zderzeń z mikrometeorytami o średnicy około 1 mm. Inne mechanizmy nie zapewniają powstania tak dużych odłamków jak ten, który spłoną w atmosferze Ziemi.
      Asteroida 2003 YT1 została odkryta przed 16 lat i obecnie uważa się, że nie stanowi ona ryzyka dla naszej planety. Sama asteroida nie przelatywała w pobliżu Ziemi w roku 2017, dlatego też początkowo nie było wiadomo, skąd pochodził fragment, który spłonął nad Kioto. Jego trajektorię udało się jednak z dużą precyzją wyliczyć dzięki globalnej sieci śledzenia meteorytów.
      2003 YT1 jest zaliczana do Grupy Apolla. To ponad 10 000 planetoid bliskich Ziemi, które przecinają orbitę naszej planety. Czas obiegu 2003 YT1 wokół Słońca wynosi 427 dni, a odległość od naszej gwiazdy waha się od 0,8 do 1,4 j.a. Następnej bliskiej wizyty tej asteroidy możemy się spodziewać 3 listopada 2023 roku, kiedy znajdzie się ona w odległości niecałych 9 000 000 kilometrów od Ziemi, z kolei w kwietniu 2073 roku asteroida podleci do Ziemi na odległość 1,7 miliona km.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W internecie karierę robi przygotowany przez NASA film „Siedem minut horroru“. To opowieść o niezwykłym lądowaniu na Marsie, jakie będzie miała miejsce już w najbliższy poniedziałek, 6 sierpnia.
      W listopadzie ubiegłego roku NASA wysłała w kierunku Czerwonej Planety swoją kolejną misję - Mars Science Laboratory. Na pokładzie pojazdu znajduje się największy i najbardziej zaawansowany technologicznie łazik marsjański. Curiosity to najbardziej skomplikowane laboratorium naukowe, jakie kiedykolwiek ludzie wysłali na Marsa.
      „Siedem minut horroru“ to historia niezwykłego lądowania i napięcia, w jakim specjaliści z NASA będą czekali na informacje o udanym lądowaniu. Lądowaniu, jakie się jeszcze nie odbywało. Po raz pierwszy bowiem do posadowienia łazika na planecie zostanie wykorzystany kosmiczny dźwig wyposażony w silniki rakietowe, który opuści łazik na linie.
      Od momentu wejścia pojazdu w atmosferę Marsa do chwili posadzenia na niej Curiosity minie siedem minut. Tymczasem sygnał z Marsa na Ziemię biegnie 14 minut. Zatem w momencie, gdy NASA dowie się, że Mars Science Laboratory wszedł w atmosferę Czerwonej Planety, Curiosity może już od 7 minut leżeć roztrzaskany na jej powierzchni. Minie kolejne 7 minut, zanim nadejdzie sygnał o lądowaniu. To właśnie te wspomniane w tytule „minuty horroru“.
      NASA pracowała nad Mars Science Laboratory przez ostatnie 12 lat.
      G. Scott Hubbard, profesor ze Stanford University i były dyrektor programu Mars Science Laboratory mówi, że bardzo się denerwuje. Przeprowadzili wszystkie możliwe testy, które można było zrobić na Ziemi. Powinniśmy czuć się pewnie, bo zostało zrobione wszystko, by misja zakończyła się sukcesem. Jednak z drugiej strony Mars jest znany z tego, że robi niespodzianki - stwierdził uczony. I przypomina, że aż połowa podjętych przez NASA prób lądowania na Marsie skończyła się porażką. Przyczyny niepowodzeń były różne - od burz piaskowych po usterki techniczne.
      Bill Nye, znany specjalista ds. eksploracji kosmosu i szef Planetary Society przypomina: Mars to trudne zadanie. Rosjanie podjęli 21 prób lądowania. Żadna się nie udała. Europa ma swoim koncie 1 próbę. Nieudaną. W przypadku NASA odsetek udanych wynosi jedynie około 50%.
      Największym radzieckim sukcesem było udane lądowanie Marsa 3 w grudniu 1971 roku. Jednak już po 20 sekundach utracono kontakt z pojazdem. Amerykanie do swoich największych sukcesów zaliczają misje Viking 1 i Viking 2 z 1976 roku, dzięki którym uzyskano zdjęcia i analizy chemiczne powierzchni Marsa, lądowanie łazika marsjańskiego z 1997 roku (misja Mars Pathfinder), umieszczenie na powierzchni Czerwonej Planety w 2004 roku łazików Spirit i Opportunity (ten drugi ciągle pracuje i przesyła dane) oraz trwającą przez 155 dni misję pojazdu Mars Phoenix, który w 2008 roku badał obszar arktyczny.
      Z kolei najbardziej spektakularne porażki to rozpadnięcie się w 1960 roku radzieckiego Sputnika 22, który miał polecieć na Marsa a nie przetrwał wejścia na orbitę, rozbicie się o powierzchnię Czerwonej Planety radzieckiego Marsa 2 w 1971. W roku 1974 radziecki Mars 6 zamilkł przed lądowaniem, a z Marsem 7 stracono kontakt po wejściu na orbitę Marsa. W 1996 roku rosyjski Mars 96 uległ awarii podczas startu. Trzy lata później, w 1999 roku należący do NASA Mars Polar Lander rozbił się na podczas lądowania. W 2004 roku Beagle 2, wysłany przez Europejską Agencję Kosmiczną przestał odpowiadać krótko po lądowaniu.
      Najnowszą z głośnych porażek była ubiegłoroczna nieudana rosyjska misja Fobos-Grunt.
       

      « powrót do artykułu
×
×
  • Create New...