Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Roboty pozwolą niepełnosprawnym na zdalną pracę w kawiarni

Recommended Posts

Za kilka tygodni w Tokio ruszy kawiarnia, której pomysłodawcy wpadli na niezwykłą ideę jednoczesnego zatrudnienia osób z bardzo poważnym stopniem niepełnosprawności oraz robotów. W kawiarni mają pracować roboty, które będą kontrolowane zdalnie przez niepełnosprawnych przebywających we własnych domach.

Androidy, wysokości mniej więcej 7-letniego dziecka, zostały wyposażone w kamery oraz mikrofony, dzięki czemu ich operatorzy zobaczą i usłyszą to, co dzieje się wokół. Pomysłodawcy mają nadzieję, że dzięki ich działaniom więcej firm zdecyduje się na zatrudnienie osób z ciężkimi niepełnosprawnościami, np. z chorobami prowadzącymi do zaniku mięśni.

Wspomniane roboty OriHime-D. Ich operatorami będą osoby cierpiące np. na stwardnienie zanikowe boczne (choroba Lou Gehringa), tę samą chorobę, na którą cierpiał Stephen Hawking. Jeśli testy wypadną pomyślnie, to niewykluczone, że jeszcze przed Igrzyskami Olimpijskimi w Tokio w 2020 roku kawiarnia będzie na stałe zatrudniała roboty i niepełnosprawnych. Każdy powinien mieć prawo do pracy, mówi jeden z pomysłodawców, Masatane Muto, który sam cierpi na stwardnienie zanikowe boczne.

Roboty OriHime-D mają 120 centymetrów wysokości i ważą około 20 kilogramów, będą pracowały w dzielnicy Akasaka od 26 listopada do 7 grudnia.

Mniejsze wersje podobnych urządzeń sprzedaje około 70 japońskich firm. Są one wykorzystywane m.in. przez uczniów, którzy z jakichś powodów nie mogą chodzić do szkoły.

Przedsiębiorstwem, które stoi za niezwykłą kawiarnią i które samo produkuje roboty, jest Ory Lab. Jego szef, Kentaro Yoshifuji, cierpiał w młodości na chorobę wywołaną stresem, przez co jako dziecko był izolowany od kolegów. Studiował robotykę na tokijskim Waseda University, chcąc opracować system porozumiewania się ludzi za pośrednictwem robotów.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Inżynierowie z amerykańsko-chińskiego zespołu zbudowali miękkiego robota z funkcjami neurobiomimetycznymi. Naukowcy twierdzą, że to pierwszy krok w kierunku bardziej złożonego sztucznego układu nerwowego.
      Prof. Cunjiang Yu z Uniwersytetu w Houston podkreśla, że dzięki temu w przyszłości powstaną protezy, które będą się bezpośrednio łączyć z nerwami obwodowymi w tkankach biologicznych, zapewniając sztucznym kończynom funkcje neurologiczne. Osiągnięcie autorów publikacji z pisma Science Advances przybliża też perspektywę miękkich robotów, które będą potrafiły myśleć i podejmować decyzje.
      Akademicy z ekipy Yu dodają, że ich odkrycia przydadzą się zarówno specjalistom z dziedziny neuroprotetyki, jak i obliczeń neuromorficznych (chodzi o przetwarzanie dużych ilości danych przy niewielkim zużyciu energii; a wszystko to za pomocą urządzeń naśladujących elektryczne działanie sieci nerwowych).
      Czerpiąc inspiracje z natury, naukowcy zaprojektowali tranzystory synaptyczne, czyli tranzystory działające podobnie do neuronów, które spełniają swoje funkcje nawet po rozciągnięciu o 50%.
      Podczas testów tranzystor umożliwiał np. powstanie potencjału postsynaptycznego pobudzającego czy zjawiska facylitacji (ang. paired-pulse facilitation, PPF), a także realizował funkcje pamięciowe.
      Koniec końców miękki robot został wyposażony w odkształcalną sztuczną skórę z gumy wrażliwej na nacisk i tranzystorów synaptycznych. Dzięki temu był w stanie "wyczuwać" interakcje ze środowiskiem zewnętrznym i odpowiednio na nie reagować.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Politechnika Wrocławska uruchomiła na terenie kampusu pilotażowy system elektronicznych znaczników, które ułatwiają poruszanie się po terenie osobom z niepełnoprawnościami. Urządzenia zostały zamontowane w trzydziestu miejscach m.in. w gmachu głównym, Bibliotechu i na stacjach Polinki.
      Od dłuższego czasu zwiększamy dostępność naszej uczelni i kampusu dla osób z niepełnosprawnościami. Dotyczy to nie tylko kwestii architektonicznych, czyli dostosowania budynków do ich potrzeb, lecz także dostępności informacyjnej. Chodzi przede wszystkim o to, żeby osoby odwiedzające Politechnikę Wrocławską mogły bez żadnych problemów sprawdzić, gdzie się znajdują, co jest w danym miejscu oferowane czy gdzie można uzyskać pomoc – mówi Marek Tankielun, kierownik Pracowni Tyfloinformatycznej Politechniki Wrocławskiej.
      Czujniki można obecnie znaleźć w trzydziestu miejscach na terenie całego kampusu naszej uczelni. Te niewielkie urządzenia zamontowane zostały zarówno wewnątrz budynków, jak i na elewacjach. Posiadają autonomiczne źródło energii, co pozwala na pracę nie krótszą niż trzy lata. Chcąc z nich skorzystać, wystarczy ściągnąć na smartfon lub tablet darmową aplikację Totupoint i mieć ją uruchomioną w trakcie poruszania się po kampusie.
      Gdy zbliżymy się do znacznika, z zamontowanego w nim głośnika usłyszymy informację o naszym aktualnym położeniu np. wejściu na stołówkę w Strefie Kultury Studenckiej czy na stację „Polinki”. Dodatkowo w aplikacji mobilnej wyświetlają się rozbudowane opisy tekstowe z informacjami o poruszaniu się po obiekcie, dostępności informacyjnej i architektonicznej – wyjaśnia Marek Tankielun, który sam jest osobą niewidomą.
      W razie potrzeby istnieje również możliwość wezwania asysty, bowiem aplikacja ma zapisane numery telefoniczne np. do Biura Karier, obsługi stołówki czy Sekcji Wsparcia Osób Niepełnosprawnych. Gdy przechodzimy obok stołówki, aplikacja wyświetli nam także aktualne menu. Co ważne, z systemem połączona jest strona internetowa, na której można wcześniej sprawdzić, gdzie rozlokowane są znaczniki i jakie zawierają informacje.
      Sama aplikacja dostępna jest w języku polskim i angielskim. Jest ona także bardzo prosta w użytkowaniu. Można ją oczywiście konfigurować według własnych potrzeb, ale standardowe ustawienia są dobrane tak, by od samego początku móc z niej korzystać bez najmniejszych problemów – dodaje kierownik.
      Obecnie urządzenia można znaleźć w budynkach A-1, C-13, C-18, D-21, H-14, a także na obu stacjach kolei linowej „Polinka”. W pierwszym etapie naszego projektu zdecydowaliśmy o umieszczeniu znaczników w kluczowych, naszym zdaniem, miejscach, z których korzystają pracownicy, studenci, a także osoby odwiedzające Politechnikę. I tak np. budynek C-13 został wybrany ze względu na zlokalizowany tam Dział Socjalny, Dział Rekrutacji i naszą sekcję, a gmach główny m.in. ze względu na znajdującą się tam bibliotekę i aulę, w której odbywają się różnego rodzaju uroczystości – tłumaczy Marek Tankielun.
      Kampus Politechniki Wrocławskiej to jedyne miejsce na Dolnym Śląsku, w którym działają tego typu urządzenia. Jest to też jedyny w Polsce tak rozbudowany system, bowiem najczęściej stosowane rozwiązania ograniczają się do komunikatów tekstowych i dźwiękowych.
      Oczywiście mamy w planach jego dalszą rozbudowę. Najpierw chcielibyśmy się jednak dowiedzieć, jak nasze rozwiązania oceniają użytkownicy i jakich jeszcze oczekują treści. Może chcieliby na przykład, żeby w aplikacji pojawiła się informacja w języku migowym o tym, jak skorzystać z „Polinki” czy stołówki? Jesteśmy otwarci na wszelkie uwagi, bo możliwości rozwoju są bardzo szerokie. Znaczniki pozwalają na umieszczenie w nich każdej treści tekstowej i multimedialnej – podkreśla Marek Tankielun.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Miliony ludzi na całym świecie z różnych powodów potrzebują pomocy w ubieraniu. Roboty mogłyby się sprawdzić przy tym zadaniu, na razie kłopotów przysparzają jednak skomplikowane ludzkie ciało i same ubrania. By sprostać zapotrzebowaniu, w Georgia Institute of Technology skonstruowano robota PR2, który w ciągu 1 dnia przeanalizował blisko 11 tys. symulacji ubierania człowieka i na tej podstawie "wyobraził sobie", co może czuć ubierana w szpitalną koszulę istota ludzka.
      Maszyna nie polega na wzroku, ale na dotyku oraz siłach generowanych i odbieranych podczas przesuwania ubrania przez dłoń, łokieć i ramię człowieka.
      Niektóre przeanalizowane symulacje ubierania przebiegały wzorcowo, inne były spektakularnymi porażkami - gdy koszula zahaczała się o dłoń lub łokieć, robot przykładał do ręki niebezpieczne siły.
      Na podstawie tych przykładów sieć neuronowa PR2 nauczyła się szacować siły przykładane do człowieka.
      Ludzie uczą się nowych umiejętności metodą prób i błędów. PR2 także daliśmy taką możliwość. Przeprowadzanie tysięcy prób na człowieku byłoby zarówno niebezpieczne, jak i żmudne. Za pomocą symulacji, w ciągu zaledwie jednego dnia, robot mógł się jednak swobodnie nauczyć, co człowiek czuje podczas ubierania - wyjaśnia doktorant Zackory Erickson.
      Robot nauczył się także przewidywać konsekwencje ubierania w różny sposób. Wie, że o ile pewne ruchy naprężają tkaninę, o tyle inne pozwalają przesunąć koszulę gładko wzdłuż ludzkiej ręki. Maszyna wykorzystuje te przewidywania, by wybrać ruchy, które pozwolą bezproblemowo ubrać rękę.
      Po nauce na symulacjach przyszedł czas na ubieranie prawdziwych ludzi. Ochotnicy siadali naprzeciw robota i patrzyli, jak podnosił on koszulę i zaczynał ją wkładać na ich rękę.
      Kluczem jest to, że robot zawsze myśli zawczasu. Pyta sam siebie, "czy jeśli włożę koszulę w ten sposób, na ramię człowieka zadziała większa, czy mniejsza siła? Co by się stało, gdybym to zrobił inaczej?" - opowiada prof. Charlie Kemp.
      Naukowcy manipulowali czasowaniem robota i pozwolili mu planować przyszłe ruchy na 1/5 s do przodu. Nie schodzili poniżej tego czasu, bo zwiększało to wskaźnik błędów. Na razie robot ubiera tylko jedną rękę. Cały proces zajmuje mu ok. 10 sekund.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amazon kupi firmę Kiva Systems, producenta robotów obsługujących magazyny. Transakcja warta 775 milionów dolarów to największe przejęcie dokonane przez Amazona od 2009 roku, kiedy to koncern Bezosa kupił Zappos.
      Istniejąca od 10 lat Kiva produkuje roboty, które krążą po magazynie i przewożą niewielkie przenośne regały, transportując towary, które zostały zamówione przez klientów. Roboty podjeżdżają z nimi do stanowiska, w którym pracuje człowiek realizujący zamówienie. Pracownik zdejmuje z półki towar, skanuje go, by się upewnić, że zamówienie zostanie prawidłowo zrealizowane i pakuje. Roboty czekają zaś cierpliwe w kolejce z kolejnymi regałami.
      Roboty Kiva nie są tanie. Startowy zestaw kosztuje 1-2 milionów dolarów, a wyposażenie dużego magazynu, w którym zatrudnionych jest 1000 robotów to wydatek rzędu 15-20 milionów dolarów. Przygotowanie takiego magazynu trwa około 6 miesięcy. Tyle czasu potrzeba na jego zaplanowanie, przeprowadzenie symulacji i testów. Później konieczne jest odpowiednie przeszkolenie załogi.
      Jednak taki zautomatyzowany magazyn oznacza znaczne oszczędności czasu i pieniędzy, więc inwestycja szybko się zwraca.
       
    • By KopalniaWiedzy.pl
      Amerykańskie Laboratorium Badawcze Marynarki Wojennej (Naval Research Laboratory) powołało zespół, którego celem jest stworzenie humanoidalnego strażaka. SAFFiR (Shipboard Autonomous Firefighting Robot - Pokładowy Robot Pożarniczy) będzie miał za zadanie walkę z pożarami na okrętach przyszłości.
      Samo zlokalizowanie pożaru na statku jest trudne, a walka z nim wiąże się z olbrzymim niebezpieczeństwem. Stąd pomysł na zaprzęgnięcie do tych zadań maszyn. Specjaliści zdecydowali, że powinny mieć one kształt człowieka, gdyż dzięki temu będzie im najłatwiej poruszać się po pomieszczeniach jednostek pływających, korzystać z wąskich przejść, korzystać ze schodów czy drabin.
      Robot zostanie wyposażony w zaawansowane czujniki umożliwiające nawigację, czujnik gazu, kamerę i kamerę stereo na podczerwień, która pozwoli na widzenie przez dym. Urządzenie musi być w stanie obsłużyć gaśnice i rzucać specjalne granaty zawierające środek gaśniczy. Założono, że będzie wyposażony w akumulator, który zapewni mu energię na 30 minut walki z ogniem.
      SAFFiR będzie korzystał z algorytmów umożliwiających interakcję z ludźmi, podejmowanie decyzji i działanie jak członek zespołu. Ma rozumieć mowę i gesty oraz rozpoznać, na czym skupiona jest uwaga dowódcy zespołu gaśniczego.
      Pierwsze próby urządzenia mają zostać przeprowadzone we wrześniu 2013 roku. Weźmie on udział w ćwiczeniach na pokładzie pamiętającego II wojnę światową okrętu desantowego USS Shadwell, który służy do ćwiczeń pożarowych na statkach.
      W projekcie budowy robota biorą też udział Virginia Tech i University of Pennsylvania.
×
×
  • Create New...