Znajdź zawartość
Wyświetlanie wyników dla tagów 'Haskins Laboratories' .
Znaleziono 1 wynik
-
Ruch i układ skóry twarzy oraz mięśni wokół ust wpływa nie tylko na wymowę słów, ale również na to, jak słyszy się kwestie wypowiadane przez kogoś innego (Proceedings of the National Academy of Sciences). Naukowcy z Haskins Laboratories przy Uniwersytecie Yale posłużyli się ramionami robota, które naciągały twarz badanego w taki sposób, który normalnie towarzyszy samodzielnemu wypowiadaniu się. Okazało się, że ten prosty zabieg wpływał na słyszenie generowanych komputerowo słów. Tworzyły one kontinuum rozciągające się między wyrazami "head" oraz "had". Kiedy maszyna wyciągała skórę słuchającego ku górze, dźwięk brzmiał dla niego bardziej jak "head". Gdy ściągała ją w dół – słyszał on "had". Ciągnięcie do tyłu nie wywoływało żadnego efektu percepcyjnego. Jak łatwo się domyślić, bardzo istotne było zgranie w czasie działań robota i odtwarzania dźwięków. Skutek występował tylko wtedy, gdy naciąganie pojawiało się w takim momencie, że ochotnik mógłby sam wypowiadać słyszane słowa. Autorzy eksperymentu udowodnili, że podczas przetwarzania dźwięków mowy uaktywnia się układ czuciowo-ruchowy, co oznacza, że w percepcji mowy biorą udział neuronalne składowe mechanizmów produkcji mowy. Być może spostrzeżenie to przyczyni się do lepszego zrozumienia afazji.