-
Similar Content
-
By KopalniaWiedzy.pl
Naukowcy z Instytutu Psychologii UJ oraz Karolinska Institutet zauważyli, że osoby niewidome lepiej od widzących wyczuwają bicie własnego serca. To odkrycie sugeruje, że po utracie wzroku mózg lepiej wyczuwa sygnały dobiegające z wnętrza organizmu.
Autorzy badań opublikowali na łamach Journal of Experimental Psychology: General artykuł, w którym opisali wyniki eksperymentu z udziałem 36 widzących oraz 36 niewidomych ochotników. Obie grupy zostały odpowiednio dobrane pod względem wieku i płci. Zadaniem badanych było skupienie się na biciu własnego serca i liczenie liczby uderzeń. Nie mogli sprawdzać pulsu ręcznie. Liczenie w ten sposób odbywało się kilkukrotnie, przez krótkie okresy, których długości badani nie znali. Naukowcy prosili ich następnie o podanie liczy uderzeń, a odpowiedzi porównywano z rzeczywistą zarejestrowaną ich liczbą. Ponadto uczestnicy oceniali, na skali 0–10, jak dobrze wykonali zadanie.
Okazało się, że osoby niewidome uzyskały lepsze wyniki. Nasze wyniki są istotnym krokiem w badaniach nad plastycznością mózgu i pokazują, że u osób niewidomych wyostrza się nie tylko słuch i dotyk, jak wiemy z poprzednich badań, ale także dostęp do sygnałów z wnętrza ciała. To z kolei pozwala nam lepiej zrozumieć, w jaki sposób osoby niewidome postrzegają swoje emocje przy braku informacji wzrokowej, mówi profesor Marcin Szwed.
Eksperyment to część większego projektu, w ramach których Karolinska Institutet zajmuje się problemami percepcji ciała, a Instytut Psychologii UJ – plastycznością mózgu. Obie instytucje postanowiły wkroczyć na niemal nieznany temat badawczy i sprawdzić, w jaki sposób osoby niewidome postrzegają własne ciała. Naukowcy chcą przygotować pierwszy szczegółowy opis różnić i podobieństw w postrzeganiu własnego ciała przez osoby widzące i niewidome.
Ich praca już spotkała się z zainteresowaniem. Napłynęły właśnie bardzo entuzjastyczne recenzje artykułu o społecznym i emocjonalnym odbiorze dotyku u niewidomych. Profesor Szwed i mgr Dominika Radziun zapowiadają, że wkrótce ukaże się kolejna publikacja zespołu.
« powrót do artykułu -
By KopalniaWiedzy.pl
Prostą w obsłudze nawigację wewnątrz budynków, mającą ułatwić osobom niewidomym i słabo widzącym samodzielne dotarcie do celu zaprojektowali studenci Politechniki Łódzkiej.
Rozwiązanie wykorzystuje beacony, czyli niewielkie nadajniki sygnału radiowego, mogące komunikować się ze smartfonami.
Nasze rozwiązanie nie wymaga przebudowy budynku, a jedynie znajomości jego planów oraz montażu beaconów, które jest łatwe i tanie. Zaprojektowaliśmy też prosty interfejs z wysokim kontrastem barw oraz komunikatami głosowymi, aby dostosować naszą aplikację do możliwości osób słabowidzących i niewidomych - mówi Zofia Durys z International Faculty of Engineering (IFE) PŁ.
Pomysł na aplikację zrodził się podczas zajęć w ramach PBL (Problem Based Learning) w grupie studentów kierunku inżyniera biomedyczna na IFE PŁ. PBL polega na losowym dobraniu międzynarodowych grup studentów i postawieniu przed nimi problemu, z którym nie spotkali się nigdy wcześniej. Taki projekt rozwija m.in. umiejętności pracy w grupie - dodała Durys.
Studenci mieli zaprojektować inteligentne rozwiązania dla osób z niepełnosprawnościami (ang. Smart building for people with disabilities). Jak przyznają, jednym z najtrudniejszych aspektów zadania było powiązanie tematu ze ściśle określoną grupą społeczną.
Po rozmowach z osobami niepełnosprawnymi i przeprowadzeniu ankiet online na międzynarodowych portalach związanych z osobami niepełnosprawnymi, studenci postanowili zaprojektować rozwiązane adresowane do osób niewidomych i słabo widzących, dla których dużym problemem jest poruszanie się w nieznanych miejscach.
Postanowiliśmy zaprojektować prostą w obsłudze nawigację wewnątrz budynków, pozwalającą na całkowitą samodzielność w dotarciu do celu. Program nawigacyjny ma komunikować się z beaconami rozmieszczonymi w budynku i informować o dalszej drodze - wyjaśniła współtwórczyni rozwiązania Natalia Jędrzejczak.
Gdy smartfon wejdzie w zasięg beacona, może dostać od niego informacje zwrotną, w tym przypadku - dalsze wskazówki nawigacyjne.
Urządzenia mają zasięg do kilkudziesięciu metrów i mogą lokalizować użytkownika z dokładnością do metra. Według studentów, po uruchomieniu aplikacji smartfon zbiera sygnały od najbliższego beacona i namierza użytkownika. Po lokalizacji wyświetla się plan budynku, dostosowany do często używanych przez niewidomych aplikacji, odczytujących dane z ekranu.
Osoba korzystająca z programu nawigacyjnego wprowadza cel wędrówki, może to zrobić głosowo lub ręcznie, zależnie od swoich możliwości. Po wyznaczeniu najkrótszej trasy, komunikaty głosowe prowadzą użytkownika do celu. Po dotarciu można wybrać opcję kontynuowania drogi lub wyjść z aplikacji.
Zdaniem Jędrzejczak, odpowiednie rozstawienie beaconów sprawi, że precyzja nawigacji będzie duża. Zapewni to niepełnosprawnym większą swobodę i niezależność poruszania się po obiektach. Mamy nadzieję, że takimi rozwiązaniami zainteresują się międzynarodowe firmy i wesprą dostępność inteligentnych rozwiązań dla niepełnosprawnych - dodała.
Obok Zofii Durys i Natalii Jędrzejczak w skład grupy wchodzą: Michał Żołdak i Fernando Espinosa z Hiszpanii. Opiekunami naukowymi i dydaktycznymi grupy byli: prof. Piotr Borkowski z Katedry Aparatów Elektrycznych PŁ i prof. Makoto Hasegawa z Chitose Institute of Science and Technology z Japonii.
« powrót do artykułu -
By KopalniaWiedzy.pl
Windows 8 będzie miał wersję dla procesorów ARM, jednak wraz z przewidzianym na jesień bieżącego roku debiutem systemu, na rynku może pojawić się mniej niż pięć urządzeń korzystających z tej wersji systemu z Redmond. Jednocześnie zadebiutuje ponad 40 urządzeń z Windows 8 dla procesorów x86.
Przyczyną tak małego zainteresowania producentów urządzeń z ARM systemem Windows są wysokie wymagania, jakie Microsoft stawia przed tego typu gadżetami.
Z nieoficjalnych doniesień wynika, że Asus i Nokia już pracują nad windowsowymi tabletami z układem ARM. Niewykluczone, że takie urządzenie pokaże też HP, ale firma skupi się przede wszystkim na platformie x86. Z kolei Dell, Lenovo i Samsung najprawdopodobniej, przynajmniej na początku, będą produkowały urządzenia tylko z procesorami x86.
-
By KopalniaWiedzy.pl
Profesor Patrick Baudisch z niemieckiego Instytutu Hasso Plattner stworzył system identyfikujący użytkowników ekranów dotykowych po... obuwiu. Projekt Bootstrapper wykorzystuje kamery umieszczone pod ekranem.
Główną zaletą tego systemu jest jego niska cena. Profesor Baudisch zaznacza, że celem Bootstrappera nie jest zabezpieczanie systemu ale łatwa identyfikacja użytkownika. Buty są bardzo dobrym znakiem rozpoznawczym, gdyż zwykle pary noszone przez poszczególne osoby znacznie się od siebie różnią, zatem systemy wizyjne nie będą miały większych problemów z ich przyporządkowaniem do konkretnej osoby. System może powiązać buty z sesją użytkownika, ułatwiając jednoczesne korzystanie z tego samego wyświetlacza przez różne osoby.
Podczas prób z wykorzystaniem 18 ochotników okazało się, że system rozpoznaje buty z 89-procentową dokładnością.
Każdy korzystał z oprogramowania na dużych ekranach dotykowych wie, jakim problemem jest odróżnianie poszczególnych osób. Technika Bootstraper to eleganckie rozwiązanie, gdyż wykorzystuje prosty kompaktowy system identyfikacji - mówi profesor Daniel Wigdor z University of Toronto.
Profesor Baudisch przyznaje, że jego system nie jest doskonały. Jeśli większa liczba osób będzie korzystała z wyświetlacza i ktoś sięgnie dłonią tak, że pozycja dłoni będzie sugerowała, iż należy ona do innej pary butów, system może się pomylić i przypisać wykonaną czynność do niewłaściwego konta. Ponadto system staje się bezużyteczny, gdy użytkownicy noszą takie same obuwie, jak ma to miejsce np. w wojsku.
Zdaniem Wigdora do rozwiązania problemu identyfikacji konieczne będzie połączenie kilku różnych technik, np. rozpoznawania butów, czujników nacisku w krześle i innych.
System Baudischa można natomiast przyjąć się np. w domach czy w centrach handlowych.
-
By KopalniaWiedzy.pl
Mierząc drobne zmiany w sposobie chodzenia, można określić czyjeś emocje, stwierdzić, czy dana osoba mówi prawdę, a nawet przewidzieć, czy w najbliższym czasie zachoruje, choć w tym momencie nie ma jeszcze żadnych (odczuwalnych) objawów.
Prof. Rory Wilson, biolog morski ze Swansea University, opracował urządzenie o nazwie Daily Diary na potrzeby badań na dzikich pingwinach. Później przystosowano je do eksperymentów na innych zwierzętach i człowieku. Jak tłumaczy Brytyjczyk, zmiany postawy ciała są mierzone między 50 a 100 razy na sekundę. Wg niego, można to wykorzystać np. w wariografach.
Wyniki prac dopiero zostaną opublikowane, ale już teraz widać, że są obiecujące. Wilson, który wystąpił na konferencji z okazji 35-lecia Rolex Awards for Enterprise, wyjaśnia, że Daily Diary jest nieco większy od zegarka. Można go nosić przy pasku lub na nadgarstku, a wbudowane przyspieszeniomierze zbierają dane na temat sposobu chodzenia.
W czasie testów proszono ochotników, by przeszli się po korytarzu. Najpierw oglądali oni filmiki wywołujące określony nastrój lub proszono ich, by skłamali. W ten sposób łatwo było dopasować warianty mikroruchów ciała do emocji.
W ramach współpracy Wilsona z ekipami naukowymi z całego świata urządzenie jego pomysłu wykorzystano do badania zachowania różnych zwierząt, w tym rekinów, słoni morskich, kondorów czy borsuków. Wkrótce ma się rozpocząć studium dotyczące poziomu stresu u słoni.
A co z wykrywaniem choroby za pomocą Daily Diary? Naszym zamiarem jest sprawdzenie, czy da się przewidzieć chorobę na postawie sygnałów ruchowych. Lekarz mógłby prosić pacjenta, by przez tydzień nosił urządzenie. Dzięki temu bez przeprowadzania wywiadu dałoby się stwierdzić, jak dobrze śpi i jak często zażywa leki. Wilson wspomina też o zapobieganiu napadom padaczki czy "wpadaniu na trop" grypy.
-
-
Recently Browsing 0 members
No registered users viewing this page.