Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Kinect może... ratować życie

Recommended Posts

Naukowcy z brytyjskiego University of Warwick pracują nad robotem, który miałby ratować ofiary trzęsień ziemi wjeżdżając w miejsca, które są zbyt niebezpieczne, by sprawdzali je ratownicy. Dotychczas tego typu urządzenia wykorzystują niezwykle drogie technologie laserowe. Brytyjczycy postanowili wykorzystać znacznie tańszego Kinecta.

Zespół z Warwick Mobile Robotics (WMR), używając produktu z Redmond, zbudował robota, który jest w stanie stworzyć dokładną mapę otoczenia i zidentyfikować miejsca, w których mogą być ludzie.

Wystarczy dwóch ludzi, którzy z bezpiecznego miejsca będą sterowali robotem i szukali ofiar - mówi Peter Crook, jeden z zaangażowanych w prace inżynierów.

Twórcy robota oceniają, że dzięki użyciu Kinecta w miejsce laserów można na każdym urządzeniu zaoszczędzić około 2000 funtów. Ponadto Kinect jest bardziej zaawansowany niż technologie laserowe.

Wcześniej używaliśmy technologii Lidar, ale daje on dwuwymiarowy obraz i informację, jak daleko są przeszkody. Kinect daje obraz 3D, więc widzimy dokładny rozkład otoczenia i odległości - dodaje.

Robot to niewielkie urządzenie, które nie jest w stanie samodzielnie pomóc ofierze, ale pozwala na jej precyzyjną lokalizację. Szczególną zaletą wykorzystania Kinecta jest możliwość tworzenia trójwymiarowej mapy okolicy, po której poruszał się robot, co może znakomicie ułatwić ekipom ratunkowym dotarcie do zasypanych ludzi. Obraz taki możnaby przekazywać bezpośrednio ratownikom.

Teraz naukowcy z Warwick starają się zebrać fundusze, dzięki którym będzie można ich robota wysyłać w miejsca trzęsień ziemi i katastrof budowlanych, by przeprowadzić testy w warunkach polowych.

Share this post


Link to post
Share on other sites

Autor trochę przesadził z tytułem "Kinect może... ratować życie" sugeruje że to urządzenie samo coś robi aby pomoc, a tu zwykły zdalnie sterowany system, taki sam jak ze zwykłej kamery umieszczonej na samochodziku czy samolocie, tylko że tym razem w 3D bo kinect ma 2 kamerki...

 

zaraz sypną się tytuły: Kinect może szpiegować, Kinekt może robić 3D mapy terenu... Kinect to... kinect tamto.. a to guano prawda ;).

 

Kinect sam nic nie robi, to narzędzie (jak młotek) które sprytni programiści wykorzystują do tysięcy zastosowań. Podobnie jak iSmrody od ogryzka.

 

Może teraz o młotku tez zaczniemy pisać "Młotek może zabijać" "Młotek może niszczyć mury" "Młotek goźną bronią w ręce terrorysty" "Młotek uratował życie (ktoś przestał nim walić kogoś w głowę...)"  :P

Share this post


Link to post
Share on other sites

Autor trochę przesadził z tytułem "Kinect może... ratować życie" sugeruje że to urządzenie samo coś robi aby pomoc, a tu zwykły zdalnie sterowany system, taki sam jak ze zwykłej kamery umieszczonej na samochodziku czy samolocie, tylko że tym razem w 3D bo kinect ma 2 kamerki...

[...]

 

Po części masz rację, ale nie do końca. Kinnect to nie jest po prostu urządzenie z 2 kamerkami. Jest to urządzenie, które wykorzystuje laserowy projektor pracujący w podczerwieni (generuje pole wypełnione kropkami). Owszem, posiada niby 2 kamery, z tym, że jedna rejestruje obraz w zakresie widzialnym, a druga rejestruje zmiany w siatce podczerwonych kropek. Dane uzyskane z kinnecta to coś więcej niż obrazy dla lewego i prawego oka, bo pozwalają nie tylko "widzieć w 3D", ale też wygenerować cyfrowy model otoczenia, po którym można się np wirtualnie poruszać.

 

Owszem, sam kinnect życia nikomu nie uratuje, ale jeżeli jest w stanie poprawić choć trochę czas dotarcia do ofiar przez dostarczenie znacznie dokładniejszych danych z robota i to za znacznie mniejsze pieniądze, to wcale nie widzę tu jakiegoś nadużycia w tytule artykułu.

Share this post


Link to post
Share on other sites

Prawda to jest, święta prawda:)

Teraz starszy artykuł ("Microsoft udostępni SDK dla Kinecta" 22-02-2011 12:40), z którego wynika (oczywiście żarcik), że Zespół z Warwick Mobile Robotics (WMR) to hakerzy:)

Share this post


Link to post
Share on other sites

Dla ludzi niebędących w temacie filmik pokazujący możliwości kinnecta.

 

 

Ten przykład w sam raz pasuje do tego artykułu. Gdyby jeszcze użyć 2 lub 3 kinnectów na jednym robocie (każdy skierowany w innym kierunku - np każdy obrócony o 120 stopni przy użyciu 3, żeby uzyskać obraz dookoła robota).

Share this post


Link to post
Share on other sites

@cyberant: no... duża część tytułów, to jakaś tam przesada. ;) "Karetka może uratować życie"... nie karetka, a ludzie ją obsługujący.... "Szybki telefon na pogotowie może uratować życie"... itp. itd. :P

 

@jpvenom: a to akurat nie żarcik. :D Oni złamali Kinecta. I początkowo martwili się, że nie będą mogli skomercjalizować swojego systemu. Ale skoro MS zapowiedział komercyjne SDK, to nie będzie problemu.

Share this post


Link to post
Share on other sites

Panie Mariuszu - zdaje sobie sprawę z tego że prasa rządzi się własnymi prawami ;) a takie 'drobne naciąganie' służy przyciągnięciu czytelnika . Ale czytając tytuł i potem treść trochę się rozczarowałem stąd mój post. Przeważnie się nie czepiam :P Bardziej trafny tytulik by mógł brzmieć "Kinect wykorzystany przy ratowaniu życia" itd...

 

@yaworski - "Kinnect to nie jest po prostu urządzenie z 2 kamerkami. (...)" Owszem jest :P precyzyjniej to specjalizowany komputer z dwoma kamerkami, i interfejsem pozwalającym na komunikacje z PC / XBOX. Jednak cały czas robi tylko to - co mu programista każe. Możliwości jego wykorzystania jest bardzo wiele i osobiście uważam to za naprawdę rewolucyjne urządzenie za niewielką cenę...

 

Jednak jest pewne - daleko Kinectowi do samodzielnego podejmowania decyzji, tak żeby przestał być uważany za "tylko urządzenie" ewentualnie - przedmiot jak sugeruje tytuł. Na szczęście pozostała treść newsa jest jak najbardziej sensowna i czyta się ją z przyjemnością) :D

 

Technicznie bliżej mu do młotka niż chociażby pantofelka :)

Share this post


Link to post
Share on other sites

Absolutnie się zgadzam ;) Kinect, podobnie jak komputery, samochody itp. itd. to tylko narzędzia, młotki. :P Przykro mi, że Pana rozczarowała treść notki. jednak chyba nie do końca... całkiem ciekawy pomysł na młotek :D

Share this post


Link to post
Share on other sites
całkiem ciekawy pomysł na młotek :P

Ano, i to z optycznym trójwymiarowym naprowadzaniem trzonkowym ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Inżynierowie z amerykańsko-chińskiego zespołu zbudowali miękkiego robota z funkcjami neurobiomimetycznymi. Naukowcy twierdzą, że to pierwszy krok w kierunku bardziej złożonego sztucznego układu nerwowego.
      Prof. Cunjiang Yu z Uniwersytetu w Houston podkreśla, że dzięki temu w przyszłości powstaną protezy, które będą się bezpośrednio łączyć z nerwami obwodowymi w tkankach biologicznych, zapewniając sztucznym kończynom funkcje neurologiczne. Osiągnięcie autorów publikacji z pisma Science Advances przybliża też perspektywę miękkich robotów, które będą potrafiły myśleć i podejmować decyzje.
      Akademicy z ekipy Yu dodają, że ich odkrycia przydadzą się zarówno specjalistom z dziedziny neuroprotetyki, jak i obliczeń neuromorficznych (chodzi o przetwarzanie dużych ilości danych przy niewielkim zużyciu energii; a wszystko to za pomocą urządzeń naśladujących elektryczne działanie sieci nerwowych).
      Czerpiąc inspiracje z natury, naukowcy zaprojektowali tranzystory synaptyczne, czyli tranzystory działające podobnie do neuronów, które spełniają swoje funkcje nawet po rozciągnięciu o 50%.
      Podczas testów tranzystor umożliwiał np. powstanie potencjału postsynaptycznego pobudzającego czy zjawiska facylitacji (ang. paired-pulse facilitation, PPF), a także realizował funkcje pamięciowe.
      Koniec końców miękki robot został wyposażony w odkształcalną sztuczną skórę z gumy wrażliwej na nacisk i tranzystorów synaptycznych. Dzięki temu był w stanie "wyczuwać" interakcje ze środowiskiem zewnętrznym i odpowiednio na nie reagować.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za kilka tygodni w Tokio ruszy kawiarnia, której pomysłodawcy wpadli na niezwykłą ideę jednoczesnego zatrudnienia osób z bardzo poważnym stopniem niepełnosprawności oraz robotów. W kawiarni mają pracować roboty, które będą kontrolowane zdalnie przez niepełnosprawnych przebywających we własnych domach.
      Androidy, wysokości mniej więcej 7-letniego dziecka, zostały wyposażone w kamery oraz mikrofony, dzięki czemu ich operatorzy zobaczą i usłyszą to, co dzieje się wokół. Pomysłodawcy mają nadzieję, że dzięki ich działaniom więcej firm zdecyduje się na zatrudnienie osób z ciężkimi niepełnosprawnościami, np. z chorobami prowadzącymi do zaniku mięśni.
      Wspomniane roboty OriHime-D. Ich operatorami będą osoby cierpiące np. na stwardnienie zanikowe boczne (choroba Lou Gehringa), tę samą chorobę, na którą cierpiał Stephen Hawking. Jeśli testy wypadną pomyślnie, to niewykluczone, że jeszcze przed Igrzyskami Olimpijskimi w Tokio w 2020 roku kawiarnia będzie na stałe zatrudniała roboty i niepełnosprawnych. Każdy powinien mieć prawo do pracy, mówi jeden z pomysłodawców, Masatane Muto, który sam cierpi na stwardnienie zanikowe boczne.
      Roboty OriHime-D mają 120 centymetrów wysokości i ważą około 20 kilogramów, będą pracowały w dzielnicy Akasaka od 26 listopada do 7 grudnia.
      Mniejsze wersje podobnych urządzeń sprzedaje około 70 japońskich firm. Są one wykorzystywane m.in. przez uczniów, którzy z jakichś powodów nie mogą chodzić do szkoły.
      Przedsiębiorstwem, które stoi za niezwykłą kawiarnią i które samo produkuje roboty, jest Ory Lab. Jego szef, Kentaro Yoshifuji, cierpiał w młodości na chorobę wywołaną stresem, przez co jako dziecko był izolowany od kolegów. Studiował robotykę na tokijskim Waseda University, chcąc opracować system porozumiewania się ludzi za pośrednictwem robotów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Miliony ludzi na całym świecie z różnych powodów potrzebują pomocy w ubieraniu. Roboty mogłyby się sprawdzić przy tym zadaniu, na razie kłopotów przysparzają jednak skomplikowane ludzkie ciało i same ubrania. By sprostać zapotrzebowaniu, w Georgia Institute of Technology skonstruowano robota PR2, który w ciągu 1 dnia przeanalizował blisko 11 tys. symulacji ubierania człowieka i na tej podstawie "wyobraził sobie", co może czuć ubierana w szpitalną koszulę istota ludzka.
      Maszyna nie polega na wzroku, ale na dotyku oraz siłach generowanych i odbieranych podczas przesuwania ubrania przez dłoń, łokieć i ramię człowieka.
      Niektóre przeanalizowane symulacje ubierania przebiegały wzorcowo, inne były spektakularnymi porażkami - gdy koszula zahaczała się o dłoń lub łokieć, robot przykładał do ręki niebezpieczne siły.
      Na podstawie tych przykładów sieć neuronowa PR2 nauczyła się szacować siły przykładane do człowieka.
      Ludzie uczą się nowych umiejętności metodą prób i błędów. PR2 także daliśmy taką możliwość. Przeprowadzanie tysięcy prób na człowieku byłoby zarówno niebezpieczne, jak i żmudne. Za pomocą symulacji, w ciągu zaledwie jednego dnia, robot mógł się jednak swobodnie nauczyć, co człowiek czuje podczas ubierania - wyjaśnia doktorant Zackory Erickson.
      Robot nauczył się także przewidywać konsekwencje ubierania w różny sposób. Wie, że o ile pewne ruchy naprężają tkaninę, o tyle inne pozwalają przesunąć koszulę gładko wzdłuż ludzkiej ręki. Maszyna wykorzystuje te przewidywania, by wybrać ruchy, które pozwolą bezproblemowo ubrać rękę.
      Po nauce na symulacjach przyszedł czas na ubieranie prawdziwych ludzi. Ochotnicy siadali naprzeciw robota i patrzyli, jak podnosił on koszulę i zaczynał ją wkładać na ich rękę.
      Kluczem jest to, że robot zawsze myśli zawczasu. Pyta sam siebie, "czy jeśli włożę koszulę w ten sposób, na ramię człowieka zadziała większa, czy mniejsza siła? Co by się stało, gdybym to zrobił inaczej?" - opowiada prof. Charlie Kemp.
      Naukowcy manipulowali czasowaniem robota i pozwolili mu planować przyszłe ruchy na 1/5 s do przodu. Nie schodzili poniżej tego czasu, bo zwiększało to wskaźnik błędów. Na razie robot ubiera tylko jedną rękę. Cały proces zajmuje mu ok. 10 sekund.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amazon kupi firmę Kiva Systems, producenta robotów obsługujących magazyny. Transakcja warta 775 milionów dolarów to największe przejęcie dokonane przez Amazona od 2009 roku, kiedy to koncern Bezosa kupił Zappos.
      Istniejąca od 10 lat Kiva produkuje roboty, które krążą po magazynie i przewożą niewielkie przenośne regały, transportując towary, które zostały zamówione przez klientów. Roboty podjeżdżają z nimi do stanowiska, w którym pracuje człowiek realizujący zamówienie. Pracownik zdejmuje z półki towar, skanuje go, by się upewnić, że zamówienie zostanie prawidłowo zrealizowane i pakuje. Roboty czekają zaś cierpliwe w kolejce z kolejnymi regałami.
      Roboty Kiva nie są tanie. Startowy zestaw kosztuje 1-2 milionów dolarów, a wyposażenie dużego magazynu, w którym zatrudnionych jest 1000 robotów to wydatek rzędu 15-20 milionów dolarów. Przygotowanie takiego magazynu trwa około 6 miesięcy. Tyle czasu potrzeba na jego zaplanowanie, przeprowadzenie symulacji i testów. Później konieczne jest odpowiednie przeszkolenie załogi.
      Jednak taki zautomatyzowany magazyn oznacza znaczne oszczędności czasu i pieniędzy, więc inwestycja szybko się zwraca.
       
    • By KopalniaWiedzy.pl
      Amerykańskie Laboratorium Badawcze Marynarki Wojennej (Naval Research Laboratory) powołało zespół, którego celem jest stworzenie humanoidalnego strażaka. SAFFiR (Shipboard Autonomous Firefighting Robot - Pokładowy Robot Pożarniczy) będzie miał za zadanie walkę z pożarami na okrętach przyszłości.
      Samo zlokalizowanie pożaru na statku jest trudne, a walka z nim wiąże się z olbrzymim niebezpieczeństwem. Stąd pomysł na zaprzęgnięcie do tych zadań maszyn. Specjaliści zdecydowali, że powinny mieć one kształt człowieka, gdyż dzięki temu będzie im najłatwiej poruszać się po pomieszczeniach jednostek pływających, korzystać z wąskich przejść, korzystać ze schodów czy drabin.
      Robot zostanie wyposażony w zaawansowane czujniki umożliwiające nawigację, czujnik gazu, kamerę i kamerę stereo na podczerwień, która pozwoli na widzenie przez dym. Urządzenie musi być w stanie obsłużyć gaśnice i rzucać specjalne granaty zawierające środek gaśniczy. Założono, że będzie wyposażony w akumulator, który zapewni mu energię na 30 minut walki z ogniem.
      SAFFiR będzie korzystał z algorytmów umożliwiających interakcję z ludźmi, podejmowanie decyzji i działanie jak członek zespołu. Ma rozumieć mowę i gesty oraz rozpoznać, na czym skupiona jest uwaga dowódcy zespołu gaśniczego.
      Pierwsze próby urządzenia mają zostać przeprowadzone we wrześniu 2013 roku. Weźmie on udział w ćwiczeniach na pokładzie pamiętającego II wojnę światową okrętu desantowego USS Shadwell, który służy do ćwiczeń pożarowych na statkach.
      W projekcie budowy robota biorą też udział Virginia Tech i University of Pennsylvania.
×
×
  • Create New...