Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Shafiq ur Réhman z Umeå University zaprezentował w swojej pracy doktorskiej oprogramowanie i urządzenie, które pozwalają niewidomym odbierać cudze emocje w czasie rzeczywistym. Szwedzi nazywają to alfabetem Braille'a dla uczuć.

Niewidomi próbują kompensować sobie brak informacji wzrokowych innymi zmysłami, np. słuchem. Ale trudno zrozumieć złożone emocje wyłącznie na podstawie samego głosu – podkreśla Shafiq ur Réhman. Jego grupa badawcza opracowała więc nową technologię, na którą składają się kamera internetowa, urządzenie wielkości monety i wyświetlacz dotykowy. Informacje wzrokowe z kamery tłumaczy się na prezentowane na skórze zaawansowane wzorce drgań. Wibracje są aktywowane sekwencyjnie, by przekazać dynamiczne dane na temat emocji przejawianej przez daną osobę i jej intensywności.

Na początku niewidomy musi się jednak nauczyć układów odpowiadających poszczególnym emocjom. Prosi się go więc o zajęcie miejsca naprzeciw kamery i wyrażanie różnych uczuć. W tej fazie wyświetlacz dotykowy jest montowany z tyłu krzesła. Podczas późniejszych kontaktów z innymi ludźmi drgania wygodniej przekazywać np. na skórę przedramienia.

Studium zostało sfinansowane przez Szwedzki Komitet Badań Naukowych. Naukowcy założyli firmę Videoakt AB i to ona opatentowała wynalazek. Ur Réhman podkreśla, że dotykową informację zwrotną można także wykorzystać do usprawnienia komunikacji osób widzących. Z powodzeniem zademonstrowaliśmy, że technologię da się wdrożyć w telefonach komórkowych do przekazywania na żywo meczów piłkarskich czy ludzkich emocji.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Prostą w obsłudze nawigację wewnątrz budynków, mającą ułatwić osobom niewidomym i słabo widzącym samodzielne dotarcie do celu zaprojektowali studenci Politechniki Łódzkiej.
      Rozwiązanie wykorzystuje beacony, czyli niewielkie nadajniki sygnału radiowego, mogące komunikować się ze smartfonami.
      Nasze rozwiązanie nie wymaga przebudowy budynku, a jedynie znajomości jego planów oraz montażu beaconów, które jest łatwe i tanie. Zaprojektowaliśmy też prosty interfejs z wysokim kontrastem barw oraz komunikatami głosowymi, aby dostosować naszą aplikację do możliwości osób słabowidzących i niewidomych - mówi Zofia Durys z International Faculty of Engineering (IFE) PŁ.
      Pomysł na aplikację zrodził się podczas zajęć w ramach PBL (Problem Based Learning) w grupie studentów kierunku inżyniera biomedyczna na IFE PŁ. PBL polega na losowym dobraniu międzynarodowych grup studentów i postawieniu przed nimi problemu, z którym nie spotkali się nigdy wcześniej. Taki projekt rozwija m.in. umiejętności pracy w grupie - dodała Durys.
      Studenci mieli zaprojektować inteligentne rozwiązania dla osób z niepełnosprawnościami (ang. Smart building for people with disabilities). Jak przyznają, jednym z najtrudniejszych aspektów zadania było powiązanie tematu ze ściśle określoną grupą społeczną.
      Po rozmowach z osobami niepełnosprawnymi i przeprowadzeniu ankiet online na międzynarodowych portalach związanych z osobami niepełnosprawnymi, studenci postanowili zaprojektować rozwiązane adresowane do osób niewidomych i słabo widzących, dla których dużym problemem jest poruszanie się w nieznanych miejscach.
      Postanowiliśmy zaprojektować prostą w obsłudze nawigację wewnątrz budynków, pozwalającą na całkowitą samodzielność w dotarciu do celu. Program nawigacyjny ma komunikować się z beaconami rozmieszczonymi w budynku i informować o dalszej drodze - wyjaśniła współtwórczyni rozwiązania Natalia Jędrzejczak.
      Gdy smartfon wejdzie w zasięg beacona, może dostać od niego informacje zwrotną, w tym przypadku - dalsze wskazówki nawigacyjne.
      Urządzenia mają zasięg do kilkudziesięciu metrów i mogą lokalizować użytkownika z dokładnością do metra. Według studentów, po uruchomieniu aplikacji smartfon zbiera sygnały od najbliższego beacona i namierza użytkownika. Po lokalizacji wyświetla się plan budynku, dostosowany do często używanych przez niewidomych aplikacji, odczytujących dane z ekranu.
      Osoba korzystająca z programu nawigacyjnego wprowadza cel wędrówki, może to zrobić głosowo lub ręcznie, zależnie od swoich możliwości. Po wyznaczeniu najkrótszej trasy, komunikaty głosowe prowadzą użytkownika do celu. Po dotarciu można wybrać opcję kontynuowania drogi lub wyjść z aplikacji.
      Zdaniem Jędrzejczak, odpowiednie rozstawienie beaconów sprawi, że precyzja nawigacji będzie duża. Zapewni to niepełnosprawnym większą swobodę i niezależność poruszania się po obiektach. Mamy nadzieję, że takimi rozwiązaniami zainteresują się międzynarodowe firmy i wesprą dostępność inteligentnych rozwiązań dla niepełnosprawnych - dodała.
      Obok Zofii Durys i Natalii Jędrzejczak w skład grupy wchodzą: Michał Żołdak i Fernando Espinosa z Hiszpanii. Opiekunami naukowymi i dydaktycznymi grupy byli: prof. Piotr Borkowski z Katedry Aparatów Elektrycznych PŁ i prof. Makoto Hasegawa z Chitose Institute of Science and Technology z Japonii.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Windows 8 będzie miał wersję dla procesorów ARM, jednak wraz z przewidzianym na jesień bieżącego roku debiutem systemu, na rynku może pojawić się mniej niż pięć urządzeń korzystających z tej wersji systemu z Redmond. Jednocześnie zadebiutuje ponad 40 urządzeń z Windows 8 dla procesorów x86.
      Przyczyną tak małego zainteresowania producentów urządzeń z ARM systemem Windows są wysokie wymagania, jakie Microsoft stawia przed tego typu gadżetami.
      Z nieoficjalnych doniesień wynika, że Asus i Nokia już pracują nad windowsowymi tabletami z układem ARM. Niewykluczone, że takie urządzenie pokaże też HP, ale firma skupi się przede wszystkim na platformie x86. Z kolei Dell, Lenovo i Samsung najprawdopodobniej, przynajmniej na początku, będą produkowały urządzenia tylko z procesorami x86.
    • By KopalniaWiedzy.pl
      Profesor Patrick Baudisch z niemieckiego Instytutu Hasso Plattner stworzył system identyfikujący użytkowników ekranów dotykowych po... obuwiu. Projekt Bootstrapper wykorzystuje kamery umieszczone pod ekranem.
      Główną zaletą tego systemu jest jego niska cena. Profesor Baudisch zaznacza, że celem Bootstrappera nie jest zabezpieczanie systemu ale łatwa identyfikacja użytkownika. Buty są bardzo dobrym znakiem rozpoznawczym, gdyż zwykle pary noszone przez poszczególne osoby znacznie się od siebie różnią, zatem systemy wizyjne nie będą miały większych problemów z ich przyporządkowaniem do konkretnej osoby. System może powiązać buty z sesją użytkownika, ułatwiając jednoczesne korzystanie z tego samego wyświetlacza przez różne osoby.
      Podczas prób z wykorzystaniem 18 ochotników okazało się, że system rozpoznaje buty z 89-procentową dokładnością.
      Każdy korzystał z oprogramowania na dużych ekranach dotykowych wie, jakim problemem jest odróżnianie poszczególnych osób. Technika Bootstraper to eleganckie rozwiązanie, gdyż wykorzystuje prosty kompaktowy system identyfikacji - mówi profesor Daniel Wigdor z University of Toronto.
      Profesor Baudisch przyznaje, że jego system nie jest doskonały. Jeśli większa liczba osób będzie korzystała z wyświetlacza i ktoś sięgnie dłonią tak, że pozycja dłoni będzie sugerowała, iż należy ona do innej pary butów, system może się pomylić i przypisać wykonaną czynność do niewłaściwego konta. Ponadto system staje się bezużyteczny, gdy użytkownicy noszą takie same obuwie, jak ma to miejsce np. w wojsku.
      Zdaniem Wigdora do rozwiązania problemu identyfikacji konieczne będzie połączenie kilku różnych technik, np. rozpoznawania butów, czujników nacisku w krześle i innych.
      System Baudischa można natomiast przyjąć się np. w domach czy w centrach handlowych.
    • By KopalniaWiedzy.pl
      Mierząc drobne zmiany w sposobie chodzenia, można określić czyjeś emocje, stwierdzić, czy dana osoba mówi prawdę, a nawet przewidzieć, czy w najbliższym czasie zachoruje, choć w tym momencie nie ma jeszcze żadnych (odczuwalnych) objawów.
      Prof. Rory Wilson, biolog morski ze Swansea University, opracował urządzenie o nazwie Daily Diary na potrzeby badań na dzikich pingwinach. Później przystosowano je do eksperymentów na innych zwierzętach i człowieku. Jak tłumaczy Brytyjczyk, zmiany postawy ciała są mierzone między 50 a 100 razy na sekundę. Wg niego, można to wykorzystać np. w wariografach.
      Wyniki prac dopiero zostaną opublikowane, ale już teraz widać, że są obiecujące. Wilson, który wystąpił na konferencji z okazji 35-lecia Rolex Awards for Enterprise, wyjaśnia, że Daily Diary jest nieco większy od zegarka. Można go nosić przy pasku lub na nadgarstku, a wbudowane przyspieszeniomierze zbierają dane na temat sposobu chodzenia.
      W czasie testów proszono ochotników, by przeszli się po korytarzu. Najpierw oglądali oni filmiki wywołujące określony nastrój lub proszono ich, by skłamali. W ten sposób łatwo było dopasować warianty mikroruchów ciała do emocji.
      W ramach współpracy Wilsona z ekipami naukowymi z całego świata urządzenie jego pomysłu wykorzystano do badania zachowania różnych zwierząt, w tym rekinów, słoni morskich, kondorów czy borsuków. Wkrótce ma się rozpocząć studium dotyczące poziomu stresu u słoni.
      A co z wykrywaniem choroby za pomocą Daily Diary? Naszym zamiarem jest sprawdzenie, czy da się przewidzieć chorobę na postawie sygnałów ruchowych. Lekarz mógłby prosić pacjenta, by przez tydzień nosił urządzenie. Dzięki temu bez przeprowadzania wywiadu dałoby się stwierdzić, jak dobrze śpi i jak często zażywa leki. Wilson wspomina też o zapobieganiu napadom padaczki czy "wpadaniu na trop" grypy.
    • By KopalniaWiedzy.pl
      Zdolność rozpoznawania wyrazów twarzy i emocji zawartych w tekście zależy od ciśnienia krwi. Prof. James A. McCubbin z Clemson University zauważył niedawno, że osoby z podwyższonym ciśnieniem cechuje obniżona zdolność rozpoznawania złości, strachu, smutku i radości zarówno na twarzach, jak i w tekście.
      To trochę przypomina życie w świecie e-maili bez emotikonów. Umieszczamy w liście śmiejące się buźki, by pokazać, że żartujemy. W innym razie niektórzy ludzie mogliby źle zrozumieć nasze poczucie humoru i wpaść w złość - tłumaczy obrazowo McCubbin.
      Wg Amerykanina, część osób przejawia tzw. "stłumienie emocjonalne", zwiększające prawdopodobieństwo niewłaściwego reagowania na złość i inne emocje krewnych, współpracowników czy przyjaciół. By nie pomylić np. złości z przekomarzaniem czy żartami, w złożonych sytuacjach społecznych trzeba polegać na wyrazach twarzy i słownych wskazówkach emocjonalnych.
      Jeśli masz stłumienie emocjonalne, możesz nie ufać innym, bo nie jesteś w stanie odczytać emocjonalnego znaczenia wyrazu ich twarzy ani komunikatów słownych. Możesz nawet podejmować nadmierne ryzyko, ponieważ nie potrafisz w pełni ocenić zagrożeń środowiskowych.
      McCubbin twierdzi, że stłumienie emocjonalne może prowadzić do nadciśnienia i podwyższenia ryzyka choroby niedokrwiennej serca. Tworzy się błędne koło, bo wyższe ciśnienie oznacza stłumienie emocjonalne, a ono utrudnia kontakty międzyludzkie, co w jeszcze większym stopniu podwyższa ciśnienie.
      Wiedząc, że osoby z podwyższonym ciśnieniem wykazują stłumione reakcje emocjonalne na bodźce emocjonalne, zespół doktora McCubbina postanowił przyjrzeć się zależności między hemodynamiką spoczynkową serca a rozpoznawaniem uczuć. Uwzględniono 106 Afroamerykanów: 55 kobiet i 51 mężczyzn. Średnia wieku wynosiła 52,8 roku. Większość badanych miała niską pozycję socjoekonomiczną. Wszyscy brali udział w pilotażowym studium Healthy Aging in Nationally Diverse Longitudinal Samples.
      Badani oceniali znaczenie emocjonalne wyrazów twarzy i zdań w ramach Testu Percepcji Afektu (Perception of Affect Test, PAT). Stale monitorowano spoczynkowe ciśnienie krwi, całkowity opór obwodowy (ang. total peripheral resistance, TPR), czyli całkowity opór przepływu krwi w naczyniach, tętno oraz rzut serca.
      Okazało się, że ogólny wynik w PAT był odwrotnie związany z wiekiem, a także zarówno ze skurczowym, jak i skurczowym ciśnieniem krwi (im lepszy wynik, tym niższe ciśnienie). Po wzięciu poprawki na zmienne demograficzne, stan umysłu, wskaźnik masy ciała i przyjmowane leki dokładność rozpoznawania afektu w zadaniach PAT nadal pozostała odwrotnie związana z ciśnieniem i całkowitym oporem obwodowym. Naukowcy uważają, że natrafili na ważne powiązania między regulacją emocji przez ośrodkowy układ nerwowy, procesami hemodynamicznymi i rozwojem nadciśnienia.
×
×
  • Create New...