Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Dwunożny robot Cassie samodzielnie przebiegł 5 kilometrów

Rekomendowane odpowiedzi

Cassie, pierwszy dwunożny robot używający maszynowego uczenia się do kontroli otoczenia w czasie poruszania się na zewnątrz, przeszedł do historii, przebywając samodzielnie 5 kilometrów w czasie około 53 minut. Robot powstał pod kierunkiem profesora Jonathana Hursta, a na jego powstanie grant w wysokości 1 miliona dolarów przyznała DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych).

Robot powstał w 2017 roku i od tego czasu Narodowa Fundacja Nauki finansowała dalsze badania nad nim. Pracujący przy Cassie naukowcy i studenci skupili się na opracowaniu mechanizmów maszynowego uczenia się.

Cassie nauszył się biegać korzystając z algorytmu deep reinforcement learning. Dzięki niemu robot nauczył się nieprzerwanego dokonywania drobnych korekt pozycji, balansowania, by utrzymać się w pionie podczas biegu. "Cassie jest bardzo wydajny, gdyż z takim zamysłem był projektowany i budowany. Chcemy dotrzeć do granic możliwości tego sprzętu i pokazać, na co go stać", mówi doktorant Jeremy Dao z Dynamic Robotics Laboratory. Deep reinforcement learning to potężny algorytm, który daje możliwość nauczenia robota takich czynności jak bieganie, skakanie czy wchodzenie i schodzenie po schodach, dodaje Yesh Godse.

Naukowcy twierdzą, że pewnego dnia widok robota na ulicy będzie równie powszechny jak widok samochodu. I roboty, podobnie jak samochody, znacząco zmienią nasze życie.

Obecnie poważnym ograniczeniem w rozpowszechnieniu się robotów jest zrozumienie przemieszczania się z użyciem kończyn. Jednak na tym polu dokonuje się duży postęp.

Wspomniana na wstępie 5-kilometrowa przebieżka zajęła Cassie 53 minuty i 3 sekundy. Wliczono w to około 6,5 minuty, jakich było potrzeba, by robot zresetował się po dwóch upadkach. Przyczyną pierwszego było przegrzanie komputera, przyczyną drugiego, zbyt duża prędkość podczas zakręcania.

Cassie już wcześniej nauczył się chodzić po schodach, a proces uczenia możemy oglądać na poniższym filmie.

 


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fajny, ale wygląda że nie opanował najprostszej sztuki - stania bez ruchu :D musi dreptać żeby się nie wygruzić. Asimo sympatyczniejsze ;)

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Uczestnicy słynnego eksperymentu Milgrama tak bardzo ulegali autorytetowi prowadzącego, że byli w stanie na jego polecenie zadawać silny ból innemu człowiekowi. Takie bezwzględne bezrefleksyjne posłuszeństwo może prowadzić do zbrodni. Naukowcy z Uniwersytetu SWPS powtórzyli eksperyment Milgrama, ale prowadzącym był robot. Okazało się, że ludzie są skłonni podporządkować się poleceniom robota i na jego rozkaz krzywdzić innych.
      W latach 60. XX wieku amerykański psycholog Stanley Milgram, zastanawiając się nad przyczynami, dla których ludzie w czasie II wojny światowej wykonywali zbrodnicze rozkazy, przeprowadził eksperyment, którego celem było wykazanie, na ile H. sapiens ma skłonność do ulegania autorytetom. Osobom, które brały udział w eksperymencie powiedziano, że jego celem jest zbadanie wpływu kar na skuteczność uczenia się. W eksperymencie brał udział uczestnik-nauczyciel oraz uczeń. Eksperymentator zaś kazał nauczycielowi karać ucznia aplikując mu coraz silniejszy wstrząs elektryczny. Uczeń, którym była podstawiona osoba, w rzeczywistości nie był rażonym prądem (ale uczestnik-nauczyciel o tym nie wiedział), jednak w odpowiedzi na rzekomo podawane napięcie elektryczne, krzyczał z bólu. Eksperyment wykazał, że aż 62% uczestników – ulegając autorytetowi eksperymentatora – nacisnęło w końcu na generatorze przycisk 450 V, czyli najwyższy.
      Naukowcy z Uniwersytetu SWPS postanowili sprawdzić, czy ludzie będą równie posłuszni robotowi, jak innemu człowiekowi. Przeniesienie różnych funkcji nadzoru i podejmowania decyzji na robota budzi jednak szczególnie silne emocje, ponieważ wiąże się z różnymi zagrożeniami etycznymi i moralnymi. Pojawia się pytanie, czy wspomniane wyżej posłuszeństwo wykazywane przez badanych zgodnie z paradygmatem Milgrama nadal występowałoby, gdyby to robot (zamiast człowieka, tj. profesora uczelni) kazał uczestnikom zadać elektrowstrząsy innej osobie? Celem naszego badania było udzielenie odpowiedzi na to pytanie, mówi doktor Konrad Maj.
      Doktor Maj we współpracy z profesorem Dariuszem Dolińskim i doktorem Tomaszem Grzybem, powtórzył eksperyment Milgrama, ale w roli eksperymentatora osadzono robota. W grupie kontrolnej eksperymentatorem był człowiek. W badaniach wzięli udział uczestnicy, którzy nie wiedzieli, na czym polegał eksperyment Milgrama. Okazało się, że ludzie ulegają też autorytetowi robota i na jego polecenie są skłonni krzywdzić innych ludzi. Co więcej, zarejestrowano bardzo wysoki poziom posłuszeństwa. Aż 90% uczestników w obu grupach – badanej i kontrolnej – nacisnęło wszystkie przyciski na generatorze, dochodząc do wartości 150 V. Od kilku dekad z powodów etycznych te 150 V przyjmuje się za górną wartość przy eksperymencie Milgrama.
      O ile nam wiadomo, to pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić. Co więcej, nasz eksperyment pokazał również, że jeśli robot eskaluje żądania, instruując człowieka, aby zadawał coraz większy ból innemu człowiekowi, ludzie też są skłonni to zrobić, dodaje doktor Maj.
      Już wcześniejsze badania wykazały, że ludzie tak mocno uznają autorytet robota, że podążają za jego poleceniami, nawet gdy nie mają one sensu. Tak było np. podczas eksperymentu, w czasie którego osoby ewakuowane z – symulowanego – pożaru, podążały za poleceniami robota, mimo że wskazał im on drogę ewakuacji przez ciemne pomieszczenie bez widocznego wyjścia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Irinjadappilly Sree Krishna Temple w Kerali żywego słonia zastąpił rzeczywistych rozmiarów mechaniczny model. Będzie on wykorzystywany w różnych rytuałach, np. do przewożenia posągów bóstw podczas procesji. Robot został przekazany przez PETA India oraz aktorkę Parvathy Thiruvothu.
      Irinjadappilly Raman, bo takie imię nadano mechanicznemu słoniowi, potrafi poruszać głową, oczami, uszami i trąbą. Waży 800 kg i ma 3,3 m wysokości. Stworzyła go grupa artystów z dystryktu Thrissur (wcześniej dostarczała ona figury słoni na Dubai Shopping Festival).
      Umożliwienie słoniom życia na wolności powinno być właściwą formą oddawania czci Ganeśi [bogowi mądrości i pomyślności; jest on przedstawiany jako tęgi mężczyzna z głową słonia] - powiedział Rajkumar Namboothiri. Wyraził też nadzieję, że inne świątynie pójdą za przykładem Irinjadappilly Sree Krishna Temple i również zastąpią żywe słonie mechanicznymi.
      Wcześniej świątynia wypożyczała słonie na czas festiwali, ale w ostatnich latach przestała to robić ze względu na wysokie koszty i reakcje zwierząt. Gdy usłyszeliśmy o grupie konstruującej figury do Dubaju, zorganizowaliśmy spotkanie i poprosiliśmy o dostosowanego do naszych sugestii zmodyfikowanego mechanicznego słonia. Później pojawiła się oferta finansowania przez PETA India - opowiada Namboothiri.
      Mechaniczny słoń może przewieźć na swoim grzbiecie do 5 osób. Kornak steruje jego trąbą za pomocą specjalnego przełącznika. W maszynie znajduje się 5 silników. Ramę z metalu pokrywa „skóra” z gumy.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Parku Archeologicznym Pompejów pracę rozpoczął Spot, czworonożny robot, który pomaga w monitorowaniu zabytkowego miejsca i dba o bezpieczeństwo jego pracowników. Spot przeprowadza inspekcję ruin, dostarczając nagrań, które następnie są wykorzystywane podczas badań archeologicznych i podejmowania decyzji dotyczących m.in. konieczności przeprowadzenia prac zabezpieczających.
      Spot pracuje w ramach szerszego projektu o nazwie Smart @ POMPEI. W jego ramach tworzony jest inteligentny samowystarczalny system zarządzania Parkiem. Obecnie w ramach projektu pracują Leica BLK2FLY, czyli pierwszy latający skaner laserowy zdolny do autonomicznego wykonywania skanów 3D oraz wspomniany już Spot firmy Boston Dynamics. Analizą danych dostarczonych przez urządzenia zajmują się specjalne stworzone na potrzeby Pompejów inteligentne platformy.
      Postęp technologiczny w dziedzinie robotyki, sztucznej inteligencji i systemów autonomicznych doprowadził do pojawienia się rozwiązań, które łatwo znalazły zastosowanie w przemyśle i produkcji. Dotychczas nie stosowano takich rozwiązań w archeologii, gdyż to rozległe heterogeniczne środowisko. Dzisiaj, dzięki współpracy z przemysłem wysokich technologii chcemy przetestować roboty w podziemnych tunelach wykopanych przez złodziei rabujących Pompeje. Tunele takie to często bardzo niebezpieczne miejsca. Dzięki robotom będziemy w stanie szybko i bezpiecznie je eksplorować, mówi dyrektor Parku Gabriel Zuchtriegel.
      Od 2012 roku aktywność złodziei rabujących Pompeje wyraźnie się zmniejszyła, gdyż włoska policja zintensyfikowała wysiłki na rzecz walki z nimi. Jednak na terenie otaczającym Pompeje wciąż znajdowane są nowe tunele wykopane przez rabusiów.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ludzkość może nie być w stanie kontrolować superinteligentnej sztucznej inteligencji (SI), sądzą autorzy najnowszych teoretycznych badań. Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy tego typu AI (artificial intelligence).
      Na naszych oczach dokonuje się szybki postęp algorytmów sztucznej inteligencji. Maszyny wygrywają z ludźmi w go i pokera, pokonują doświadczonych pilotów myśliwców podczas walki powietrznej, uczą się od podstaw metodą prób i błędów, zapowiadają wielką rewolucję w medycynie i naukach biologicznych, stawiają diagnozy równie dobrze co lekarze i potrafią lepiej od ludzi odróżniać indywidualne ptaki. To pokazuje, na jak wielu polach dokonuje się szybki postęp.
      Wraz z tym postępem rodzą się obawy o to, czy będziemy w stanie kontrolować sztuczną inteligencję. Obawy, które są wyrażane od co najmniej kilkudziesięciu lat. Od 1942 roku znamy słynne trzy prawa robotów, które pisarz Isaac Asimov przedstawił w opowiadaniu „Zabawa w berka”: 1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy, 2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem, 3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem. Później Asimov dodał nadrzędne prawo 0: Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
      W 2014 roku filozof Nick Bostrom, dyrektor Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim badał, w jaki sposób superinteligentna SI może nas zniszczyć, w jaki sposób możemy ją kontrolować i dlaczego różne metody kontroli mogą nie działać. Bostrom zauważył dwa problemy związane z kontrolą AI. Pierwszy to kontrolowanie tego, co SI może zrobić. Na przykład możemy kontrolować, czy podłączy się do internetu. Drugi to kontrolowanie tego, co będzie chciała zrobić. Aby to kontrolować, będziemy np. musieli nauczyć ją zasad pokojowego współistnienia z ludźmi. Jak stwierdził Bostrom, superinteligentna SI będzie prawdopodobnie w stanie pokonać wszelkie ograniczenia, jakie będziemy chcieli nałożyć na to, co może zrobić. Jeśli zaś chodzi o drugi problem, to Bostrom wątpił, czy będziemy w stanie czegokolwiek nauczyć superinteligentną sztuczną inteligencję.
      Teraz z problemem kontrolowania sztucznej inteligencji postanowił zmierzyć się Manuel Alfonseca i jego zespół z Universidad Autonoma de Madrid. Wyniki swojej pracy opisał na łamach Journal of Artificial Intelligence Research.
      Hiszpanie zauważają, że jakikolwiek algorytm, którego celem będzie zapewnienie, że AI nie zrobi ludziom krzywdy, musi najpierw symulować zachowanie mogące zakończyć się krzywdą człowieka po to, by maszyna potrafiła je rozpoznać i zatrzymać. Jednak zdaniem naukowców, żaden algorytm nie będzie w stanie symulować zachowania sztucznej inteligencji i z całkowitą pewnością stwierdzić, czy konkretne działanie może zakończyć się krzywdą dla człowieka. Już wcześniej udowodniono, że pierwsze prawo Asimova jest problemem, którego nie da się wyliczyć. Jego przestrzeganie jest więc nierealne.
      Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy superinteligentną maszynę, stwierdzają badacze. Wynika to z twierdzenia Rice'a, zgodnie z którym nie można odgadnąć, jaki będzie wynik działania programu komputerowego patrząc wyłącznie na jego kod.
      Alfonseca i jego koledzy mają jednak też i dobre wiadomości. Otóż nie musimy się już teraz martwić tym, co zrobi superinteligentna SI. Istnieją bowiem trzy poważne ograniczenia dla badań takich, jakie prowadzą Hiszpanie. Po pierwsze, taka niezwykle inteligentna AI powstanie nie wcześniej niż za 200 lat. Po drugie nie wiadomo, czy w ogóle możliwe jest stworzenie takiego rodzaju sztucznej inteligencji, czyli maszyny inteligentnej na tylu polach co ludzie. Po trzecie zaś, o ile możemy nie być w stanie kontrolować superinteligentnej SI, to powinno być możliwe kontrolowanie sztucznej inteligencji, która jest superinteligentna w wąskim zakresie. Już mamy superinteligencję takiego typu. Na przykład mamy maszyny, które liczą znacznie szybciej niż ludzie. To superinteligencja wąskiego typu, prawda?, stwierdza Alfonseca.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...