Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Wydarzenia muzyczne dla niesłyszących
dodany przez
KopalniaWiedzy.pl, w Ciekawostki
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Osoby niesłyszące, które posługują się językiem migowym, szybciej rozpoznają i interpretują język ciała niż niemigający ludzie słyszący - twierdzą naukowcy z Uniwersytetów Kalifornijskich w Davis oraz Irvine (Cognition).
Istnieje wiele anegdot o niesłyszących lepiej radzących sobie ze wskazówkami z mowy ciała, ale to pierwszy [twardy] dowód - zaznacza prof. David Corina.
Corina i doktorant Michael Grosvald mierzyli czas reakcji słyszących i niesłyszących na serię wideoklipów z ludźmi pokazującymi znaki z amerykańskiego języka migowego oraz nieznaczące gesty, np. głaskanie brody. Spodziewaliśmy się, że niesłyszący będą szybciej rozpoznawać język migowy, ponieważ znają go i posługują się nim na co dzień, ale prawdziwym zaskoczeniem było, że w porównaniu do słyszących, o ok. 100 milisekund prędzej rozpoznawali także gesty niejęzykowe - wyjaśnia Corina.
Wyniki uzyskane przez zespół sugerują, że ludzka zdolność komunikowania się jest modyfikowalna i nie ogranicza się do mowy. Język migowy wydaje się bazować na systemie wykorzystywanym do rozpoznawania gestów i mowy ciała, a nie na zupełnie nowym układzie.
-
przez KopalniaWiedzy.pl
Dorosłe osoby, które urodziły się głuche lub straciły słuch w pierwszych latach życia, lepiej widzą, ponieważ ich siatkówka inaczej się rozwija. Dzięki temu są w stanie wychwycić więcej informacji z peryferyjnej części pola widzenia.
Doktorzy Charlotte Codina i David Buckley z Uniwersytetu w Sheffield przeprowadzili badania obrazowe siatkówki (zastosowali optyczną tomografię koherencyjną, OCT) i oceniali wrażliwość peryferyjnego widzenia. Zauważyli, że u osób niesłyszących neurony są inaczej rozłożone w siatkówce, nadając priorytet skroniowemu peryferyjnemu polu widzenia.
Wcześniejsze badania pokazywały, że ludzie niesłyszący mają szersze pole widzenia od słyszących, ale zakładano, że za zjawisko to odpowiadają zmiany w korze wzrokowej. Studium Brytyjczyków tego nie wyklucza, ale wskazuje na dodatkowe zmiany zachodzące na samym początku drogi bodźca wzrokowego - w siatkówce.
Naukowcy odkryli też powiększenie pierścienia nerwowo-siatkówkowego, czyli tkanki zawartej między zewnętrznym brzegiem wnęki tarczy nerwu wzrokowego a zewnętrznym brzegiem tarczy. Sugeruje to, że osoby niesłyszące mają więcej neuronów transmitujących informacje wzrokowe niż słyszący.
Posługując się OCT, naukowcy mogli ocenić głębokość różnych struktur, w tym warstwy włókien nerwowych, oraz rozmiary elementów składowych nerwu wzrokowego. Podczas jednej z wizyt zeskanowano siatkówkę, a na drugiej przeprowadzono pomiary pola widzenia. Zmiany w rozkładzie neuronów na siatkówce były silnie powiązane ze stopniem polepszenia widzenia peryferyjnego.
Wcześniej w ogóle nie przypuszczano, że siatkówka może się do tego stopnia zmienić […] - podsumowuje dr Codina. Specjaliści dodają, że większe peryferyjne pole widzenia oznacza dla niesłyszących sporo korzyści, np. szybsze dostrzeganie zagrożenia na obrzeżach pola widzenia.
-
przez KopalniaWiedzy.pl
Gdy przed miesiącem Steve Jobs prezentował narzędzie Face Time dla iPhone'a, mówił, że dzięki niemu osoby niesłyszące będą mogły wykorzystać mechanizm wideokonferencji do przekazywania sobie znaków języka migowego. Prezes Apple'a nie wspomniał jednak, że współczesna technologia nie pozwala na przekazanie za pomocą urządzeń mobilnych obrazu o jakości wystarczającej do porozumiewania się osobom niesłyszącym. Z kolei tam, gdzie istnieje możliwość skorzystania z bezprzewodowych łączy o wysokiej przepustowości są one albo blokowane przez firmy telekomunikacyjne, albo też trzeba za nie dodatkowo - niemało - zapłacić.
Osoby niesłyszące ucieszy zatem wiadomość, że na University of Washington rozpoczęły się testy nowej metody kompresji pomyślanej właśnie na potrzeby takiego rodzaju komunikacji.
To pierwsze w USA badania nad sposobem wykorzystywania przekazu wideo w telefonach komórkowych przez osoby niesłyszące - mówi główna autorka projektu, profesor Eve Riskin z grupy badawczej MobileASL. Naukowcy skupili się nad szczególną metodą optymalizacji kompresji. Jako że przepustowość łączy z których korzystają komórki jest niska, obraz musi być mocno skompresowany, co jednak negatywnie wpływa na jego jakość. W efekcie nie można dostrzec wszystkich szczegółów potrzebnych do komunikowania się za pomocą języka migowego. Uczeni z MobileASL opracowali mechanizm, który identyfikuje dłonie i twarz w celu zapewnienia jak najlepszej jakości przekazywanego obrazu. Twarz i dłonie są mniej kompresowane, niż reszta obrazu. Dzięki temu udało się uzyskać obraz wystarczający do komunikowania językiem migowym przy przepustowości rzędu 30 Kb/s. Ponadto nowa technologia potrafi rozpoznać, czy użytkownik właśnie "miga" czy też nie i odpowiednio dostosować pobór mocy.
Obecnie końca dobiega pierwszy etap testów. Wzięło w nich udział 200 uczestników, którzy przez trzy tygodnie komunikują się językiem migowym za pośrednictwem urządzeń przenośnych. Średni czas trwania pojedynczego połączenia wynosi około 1,5 minuty.
Uczeni badają nie tylko sprawność systemu kompresji i możliwość prowadzenia rozmów, ale badają też, jak ich technologia wpływa na długość pracy na pojedynczym ładowaniu baterii.
Na razie większość uczestników chwali sobie możliwość "migania" przez telefon. Dotychczas ich ulubionymi metodami komunikowania się na odległość były e-mail i SMS-y.
Za kilka miesięcy rozpoczną się testy na znacznie szerszą skalę. Uczeni ciągle też starają się udoskonalić mechanizmy kompresji, by za pomocą jak najmniejszej ilości danych przesłać jak najdoskonalszy obraz i nie wyczerpać przy tym zbyt szybko baterii telefonu.
-
przez KopalniaWiedzy.pl
Gdy posługujemy się słownikami języków obcych, to zwykle możemy sprawdzić każde słowo w dwie strony: przekonać się jak wyraz polski wygląda po angielsku, lub sprawdzić, co oznacza w angielskim dane słowo. Niestety, nie istnieją podobne słowniki dla osób niesłyszących. Działają one w jedną stronę, pozwalając jedynie sprawdzić, jak gestami wyrazić dane słowo.
To jednak nie wystarcza np. rodzicom niesłyszących dzieci, którzy chcą sprawdzić, co dziecko im powiedziało. Dlatego też na Boston University powstaje słownik tłumaczący gesty na wyrazy. Celem projektu jest stworzenie technologii, która umożliwi wgranie obrazu wideo przestawiającego osobę pokazującą interesujący nas znak, a słownik wyszuka odpowiadający mu wyraz. Możliwe też będzie samodzielne przedstawienie znaku przed kamerą.
Naukowcy podjęli się bardzo ambitnego zadania. Język znaków składa się z tysięcy gestów, które mogą ponadto zmieniać znaczenie w zależności od kontekstu. Ponadto obecnie istnieje bardzo mało utrwalonych na wideo obrazów przedstawiających konkretne znaki, a więc baza danych utworzona na podstawie tych przykładów będzie niedoskonała. Musimy bowiem pamiętać, że komputer musi przeanalizować wiele przykładów tego samego znaku, by poradzić sobie później z różnym ich prezentowaniem przez różne osoby. W końcu przeszkodą będzie też i sam fakt, że nie można oczekiwać od "migających", by zawsze prezentowali znaki w sposób idealny. Twórcy słownika muszą brać pod uwagę liczne odchylenia od normy.
-
przez KopalniaWiedzy.pl
Naukowcy z Instytutu Ucha Bionicznego w Melbourne badali aktywność mózgu u głuchych od urodzenia kotów, które już we wczesnym dzieciństwie wyposażono w implanty ślimaka. Niewykluczone, że dzięki ich odkryciom dzieci z podobną niepełnosprawnością będą w przyszłości mówić tak samo dobrze jak maluchy słyszące (The Journal of Comparative Neurology).
Zwykle drgania fal dźwiękowych pobudzają w uchu wewnętrznym tzw. komórki rzęsate, zwane też komórkami słuchowymi bądź włoskowatymi. Drgania mechaniczne są zatem przekształcane w impulsy nerwowe. U głuchych zwierząt dość często komórki zmysłowe są nieprawidłowo zbudowane, dlatego implanty muszą stymulować neurony bezpośrednio.
Australijczykom zależało na sprawdzeniu, jak mózg reaguje na pobudzanie w ten właśnie sposób. Utrwalali aktywność elektryczną kory siedemnastu 8-miesięcznych kotów. Zwierzęta nie słyszały od urodzenia. Dziesięć otrzymało implant ślimaka stosunkowo niedawno, a 7 wszczepiono go w wieku 8 tygodni. Okazało się, że w pierwszej grupie włączenie urządzenia skutkowało chaotyczną aktywnością kory. Dźwięk nie był postrzegany spójnie, co w przypadku ludzi uniemożliwiałoby opanowanie mowy. W drugiej grupie aktywność kory przypominała zaś wzorce występujące u słyszących zwierząt.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.