Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Roboty pozwolą niepełnosprawnym na zdalną pracę w kawiarni

Recommended Posts

Za kilka tygodni w Tokio ruszy kawiarnia, której pomysłodawcy wpadli na niezwykłą ideę jednoczesnego zatrudnienia osób z bardzo poważnym stopniem niepełnosprawności oraz robotów. W kawiarni mają pracować roboty, które będą kontrolowane zdalnie przez niepełnosprawnych przebywających we własnych domach.

Androidy, wysokości mniej więcej 7-letniego dziecka, zostały wyposażone w kamery oraz mikrofony, dzięki czemu ich operatorzy zobaczą i usłyszą to, co dzieje się wokół. Pomysłodawcy mają nadzieję, że dzięki ich działaniom więcej firm zdecyduje się na zatrudnienie osób z ciężkimi niepełnosprawnościami, np. z chorobami prowadzącymi do zaniku mięśni.

Wspomniane roboty OriHime-D. Ich operatorami będą osoby cierpiące np. na stwardnienie zanikowe boczne (choroba Lou Gehringa), tę samą chorobę, na którą cierpiał Stephen Hawking. Jeśli testy wypadną pomyślnie, to niewykluczone, że jeszcze przed Igrzyskami Olimpijskimi w Tokio w 2020 roku kawiarnia będzie na stałe zatrudniała roboty i niepełnosprawnych. Każdy powinien mieć prawo do pracy, mówi jeden z pomysłodawców, Masatane Muto, który sam cierpi na stwardnienie zanikowe boczne.

Roboty OriHime-D mają 120 centymetrów wysokości i ważą około 20 kilogramów, będą pracowały w dzielnicy Akasaka od 26 listopada do 7 grudnia.

Mniejsze wersje podobnych urządzeń sprzedaje około 70 japońskich firm. Są one wykorzystywane m.in. przez uczniów, którzy z jakichś powodów nie mogą chodzić do szkoły.

Przedsiębiorstwem, które stoi za niezwykłą kawiarnią i które samo produkuje roboty, jest Ory Lab. Jego szef, Kentaro Yoshifuji, cierpiał w młodości na chorobę wywołaną stresem, przez co jako dziecko był izolowany od kolegów. Studiował robotykę na tokijskim Waseda University, chcąc opracować system porozumiewania się ludzi za pośrednictwem robotów.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Badacze z Rutgers University stworzyli kierowanego USG robota do pobierania krwi, który radził sobie z tym zadaniem tak samo dobrze, a nawet lepiej niż ludzie. Odsetek skutecznych procedur wyliczony dla 31 pacjentów wynosił 87%. Dla 25 osób z łatwo dostępnymi żyłami współczynnik powodzenia sięgał zaś aż 97%.
      W urządzeniu znajduje się analizator hematologiczny z wbudowaną wirówką. Może ono być wykorzystywane przy łóżkach pacjentów, a także w karetkach czy gabinetach lekarskich.
      Wenopunkcja, czyli nakłuwanie żyły, by wprowadzić igłę bądź cewnik, to częsta procedura medyczna. W samych Stanach rocznie przeprowadza się ją ponad 1,4 mld razy. Wcześniejsze badania wykazały, że nie udaje się to u 27% pacjentów z niewidocznymi żyłami, 40% osób bez żył wyczuwalnych palpacyjnie i u 60% wyniszczonych chorych.
      Powtarzające się niepowodzenia związane z wkłuciem pod kroplówkę zwiększają ryzyko zakażeń czy zakrzepicy. Czas poświęcany na przeprowadzenie procedury się wydłuża, rosną koszty i liczba zaangażowanych w to osób.
      Takie urządzenie jak nasze może pomóc pracownikom służby zdrowia szybko, skutecznie i bezpiecznie pozyskać próbki, zapobiegając w ten sposób niepotrzebnym komplikacjom i bólowi towarzyszącemu kolejnym próbom wprowadzenia igły - podkreśla doktorant Josh Leipheimer.
      W przyszłości urządzenie może być wykorzystywane w takich procedurach, jak cewnikowanie dożylne, dializowanie czy wprowadzanie kaniuli tętniczej.
      Kolejnym etapem prac ma być udoskonalenie urządzenia, tak by zwiększyć odsetek udanych procedur u pacjentów z trudno dostępnymi żyłami. Jak podkreślają Amerykanie, dane uzyskane w czasie tego studium zostaną wykorzystane do usprawnienia sztucznej inteligencji w robocie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Robot z piórami gołębia to najnowsze dzieło naukowców z Uniwersytetu Stanforda. Korzysta ono z dodatkowego elementu, ułatwiającego ptakom latanie – możliwości manipulowania rozstawem piór i kształtem skrzydeł.
      David Lentink ze Stanforda przyglądał się sposobowi pracy skrzydeł, poruszając skrzydłami martwego gołębia. Zauważył, że najważniejszy dla zmiany kształtu skrzydeł są kąty poruszania się dwóch stawów: palca i nadgarstka. To dzięki ich zmianie sztywne pióra zmieniają kształt tak, że zmienia się cały układ skrzydeł, co znakomicie pomaga w kontroli lotu.
      Korzystając z tych doświadczeń Lentink wraz z zespołem zbudowali robota, którego wyposażyli w prawdziwe pióra gołębia.
      Robot to urządzenie badawcze. Dzięki niemu naukowcy z USA mogą prowadzić eksperymenty bez udziału zwierząt. Zresztą wielu testów i tak nie udało by się przeprowadzić wykorzystując zwierzęta. Na przykład uczeni zastanawiali się, czy gołąb może skręcać poruszając palcem tylko przy jednym skrzydle.
      Problem w tym, że nie wiem, jak wytresować ptaka, by poruszył tylko jednym palcem, a jestem bardzo dobry w tresurze ptaków, mówi Lentink, inżynier i biolog z Uniwersytetu Stanforda. Robotyczne skrzydła rozwiązują ten problem. Testy wykazały, że zgięcie tylko jednego z palców pozwala robotowi na wykonanie zakrętu, a to wskazuje, że ptaki również mogą tak robić.
      Uczeni przeprowadzili też próby chcąc się dowiedzieć, jak ptaki zapobiegają powstaniu zbyt dużych przerw pomiędzy rozłożonymi piórami. Pocierając jedno pióro o drugie zauważyli, że początkowo łatwo się one z siebie ześlizgują, by później się sczepić. Badania mikroskopowe wykazały, że na krawędziach piór znajdują się niewielkie haczyki zapobiegające ich zbytniemu rozłożeniu. Gdy pióra znowu się do siebie zbliżają, haczyki rozczepiają się. W tym tkwi ich tajemnica. Mają kierunkowe rzepy, które utrzymują pióra razem, mówi Lentink.
      Uczeni, aby potwierdzić swoje spostrzeżenia, odwrócili pióra i tak skonstruowane skrzydło umieścili w tunelu aerodynamicznym. Pęd powietrza utworzył takie przerwy między piórami, że wydajność skrzydła znacznie spadła.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z amerykańsko-chińskiego zespołu zbudowali miękkiego robota z funkcjami neurobiomimetycznymi. Naukowcy twierdzą, że to pierwszy krok w kierunku bardziej złożonego sztucznego układu nerwowego.
      Prof. Cunjiang Yu z Uniwersytetu w Houston podkreśla, że dzięki temu w przyszłości powstaną protezy, które będą się bezpośrednio łączyć z nerwami obwodowymi w tkankach biologicznych, zapewniając sztucznym kończynom funkcje neurologiczne. Osiągnięcie autorów publikacji z pisma Science Advances przybliża też perspektywę miękkich robotów, które będą potrafiły myśleć i podejmować decyzje.
      Akademicy z ekipy Yu dodają, że ich odkrycia przydadzą się zarówno specjalistom z dziedziny neuroprotetyki, jak i obliczeń neuromorficznych (chodzi o przetwarzanie dużych ilości danych przy niewielkim zużyciu energii; a wszystko to za pomocą urządzeń naśladujących elektryczne działanie sieci nerwowych).
      Czerpiąc inspiracje z natury, naukowcy zaprojektowali tranzystory synaptyczne, czyli tranzystory działające podobnie do neuronów, które spełniają swoje funkcje nawet po rozciągnięciu o 50%.
      Podczas testów tranzystor umożliwiał np. powstanie potencjału postsynaptycznego pobudzającego czy zjawiska facylitacji (ang. paired-pulse facilitation, PPF), a także realizował funkcje pamięciowe.
      Koniec końców miękki robot został wyposażony w odkształcalną sztuczną skórę z gumy wrażliwej na nacisk i tranzystorów synaptycznych. Dzięki temu był w stanie "wyczuwać" interakcje ze środowiskiem zewnętrznym i odpowiednio na nie reagować.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Politechnika Wrocławska uruchomiła na terenie kampusu pilotażowy system elektronicznych znaczników, które ułatwiają poruszanie się po terenie osobom z niepełnoprawnościami. Urządzenia zostały zamontowane w trzydziestu miejscach m.in. w gmachu głównym, Bibliotechu i na stacjach Polinki.
      Od dłuższego czasu zwiększamy dostępność naszej uczelni i kampusu dla osób z niepełnosprawnościami. Dotyczy to nie tylko kwestii architektonicznych, czyli dostosowania budynków do ich potrzeb, lecz także dostępności informacyjnej. Chodzi przede wszystkim o to, żeby osoby odwiedzające Politechnikę Wrocławską mogły bez żadnych problemów sprawdzić, gdzie się znajdują, co jest w danym miejscu oferowane czy gdzie można uzyskać pomoc – mówi Marek Tankielun, kierownik Pracowni Tyfloinformatycznej Politechniki Wrocławskiej.
      Czujniki można obecnie znaleźć w trzydziestu miejscach na terenie całego kampusu naszej uczelni. Te niewielkie urządzenia zamontowane zostały zarówno wewnątrz budynków, jak i na elewacjach. Posiadają autonomiczne źródło energii, co pozwala na pracę nie krótszą niż trzy lata. Chcąc z nich skorzystać, wystarczy ściągnąć na smartfon lub tablet darmową aplikację Totupoint i mieć ją uruchomioną w trakcie poruszania się po kampusie.
      Gdy zbliżymy się do znacznika, z zamontowanego w nim głośnika usłyszymy informację o naszym aktualnym położeniu np. wejściu na stołówkę w Strefie Kultury Studenckiej czy na stację „Polinki”. Dodatkowo w aplikacji mobilnej wyświetlają się rozbudowane opisy tekstowe z informacjami o poruszaniu się po obiekcie, dostępności informacyjnej i architektonicznej – wyjaśnia Marek Tankielun, który sam jest osobą niewidomą.
      W razie potrzeby istnieje również możliwość wezwania asysty, bowiem aplikacja ma zapisane numery telefoniczne np. do Biura Karier, obsługi stołówki czy Sekcji Wsparcia Osób Niepełnosprawnych. Gdy przechodzimy obok stołówki, aplikacja wyświetli nam także aktualne menu. Co ważne, z systemem połączona jest strona internetowa, na której można wcześniej sprawdzić, gdzie rozlokowane są znaczniki i jakie zawierają informacje.
      Sama aplikacja dostępna jest w języku polskim i angielskim. Jest ona także bardzo prosta w użytkowaniu. Można ją oczywiście konfigurować według własnych potrzeb, ale standardowe ustawienia są dobrane tak, by od samego początku móc z niej korzystać bez najmniejszych problemów – dodaje kierownik.
      Obecnie urządzenia można znaleźć w budynkach A-1, C-13, C-18, D-21, H-14, a także na obu stacjach kolei linowej „Polinka”. W pierwszym etapie naszego projektu zdecydowaliśmy o umieszczeniu znaczników w kluczowych, naszym zdaniem, miejscach, z których korzystają pracownicy, studenci, a także osoby odwiedzające Politechnikę. I tak np. budynek C-13 został wybrany ze względu na zlokalizowany tam Dział Socjalny, Dział Rekrutacji i naszą sekcję, a gmach główny m.in. ze względu na znajdującą się tam bibliotekę i aulę, w której odbywają się różnego rodzaju uroczystości – tłumaczy Marek Tankielun.
      Kampus Politechniki Wrocławskiej to jedyne miejsce na Dolnym Śląsku, w którym działają tego typu urządzenia. Jest to też jedyny w Polsce tak rozbudowany system, bowiem najczęściej stosowane rozwiązania ograniczają się do komunikatów tekstowych i dźwiękowych.
      Oczywiście mamy w planach jego dalszą rozbudowę. Najpierw chcielibyśmy się jednak dowiedzieć, jak nasze rozwiązania oceniają użytkownicy i jakich jeszcze oczekują treści. Może chcieliby na przykład, żeby w aplikacji pojawiła się informacja w języku migowym o tym, jak skorzystać z „Polinki” czy stołówki? Jesteśmy otwarci na wszelkie uwagi, bo możliwości rozwoju są bardzo szerokie. Znaczniki pozwalają na umieszczenie w nich każdej treści tekstowej i multimedialnej – podkreśla Marek Tankielun.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Miliony ludzi na całym świecie z różnych powodów potrzebują pomocy w ubieraniu. Roboty mogłyby się sprawdzić przy tym zadaniu, na razie kłopotów przysparzają jednak skomplikowane ludzkie ciało i same ubrania. By sprostać zapotrzebowaniu, w Georgia Institute of Technology skonstruowano robota PR2, który w ciągu 1 dnia przeanalizował blisko 11 tys. symulacji ubierania człowieka i na tej podstawie "wyobraził sobie", co może czuć ubierana w szpitalną koszulę istota ludzka.
      Maszyna nie polega na wzroku, ale na dotyku oraz siłach generowanych i odbieranych podczas przesuwania ubrania przez dłoń, łokieć i ramię człowieka.
      Niektóre przeanalizowane symulacje ubierania przebiegały wzorcowo, inne były spektakularnymi porażkami - gdy koszula zahaczała się o dłoń lub łokieć, robot przykładał do ręki niebezpieczne siły.
      Na podstawie tych przykładów sieć neuronowa PR2 nauczyła się szacować siły przykładane do człowieka.
      Ludzie uczą się nowych umiejętności metodą prób i błędów. PR2 także daliśmy taką możliwość. Przeprowadzanie tysięcy prób na człowieku byłoby zarówno niebezpieczne, jak i żmudne. Za pomocą symulacji, w ciągu zaledwie jednego dnia, robot mógł się jednak swobodnie nauczyć, co człowiek czuje podczas ubierania - wyjaśnia doktorant Zackory Erickson.
      Robot nauczył się także przewidywać konsekwencje ubierania w różny sposób. Wie, że o ile pewne ruchy naprężają tkaninę, o tyle inne pozwalają przesunąć koszulę gładko wzdłuż ludzkiej ręki. Maszyna wykorzystuje te przewidywania, by wybrać ruchy, które pozwolą bezproblemowo ubrać rękę.
      Po nauce na symulacjach przyszedł czas na ubieranie prawdziwych ludzi. Ochotnicy siadali naprzeciw robota i patrzyli, jak podnosił on koszulę i zaczynał ją wkładać na ich rękę.
      Kluczem jest to, że robot zawsze myśli zawczasu. Pyta sam siebie, "czy jeśli włożę koszulę w ten sposób, na ramię człowieka zadziała większa, czy mniejsza siła? Co by się stało, gdybym to zrobił inaczej?" - opowiada prof. Charlie Kemp.
      Naukowcy manipulowali czasowaniem robota i pozwolili mu planować przyszłe ruchy na 1/5 s do przodu. Nie schodzili poniżej tego czasu, bo zwiększało to wskaźnik błędów. Na razie robot ubiera tylko jedną rękę. Cały proces zajmuje mu ok. 10 sekund.
       


      « powrót do artykułu
×
×
  • Create New...