Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'mowa'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 21 results

  1. Panzee, szympansica wychowywana od 8. dnia życia przez prymatologów z Uniwersytetu Stanowego Georgii, potrafi rozpoznawać syntetyczną mowę nawet wtedy, gdy generowane komputerowo słowa są wybrakowane albo zniekształcone. Oznacza to, że szympansy dysponują rozwiniętą zdolnością rozpoznawania słów i że musiała ona prawdopodobnie występować także u wspólnego przodka człowieka i tych małp. Naukowcy od zawsze traktują szympansicę jak człowieka. Mówią do niej, nauczyli ją też korzystania z symboli zwanych leksigramami. W rezultacie Panzee uzyskała biegłość w rozumieniu ok. 130 angielskich słów – opowiada doktorantka Lisa Heimbauer. Hipoteza "Speech is Special" zakłada, że tylko ludzie są w stanie wytwarzać mowę dzięki szczególnej budowie aparatu artykulacyjnego i przetwarzać ją za pomocą wyspecjalizowanego modułu poznawczego. Miały tego dowodzić badania demonstrujące, że ludzie są w stanie zrozumieć mowę nawet wtedy, gdy jest bardzo zniekształcona (np. w wyniku zmiany częstotliwości) lub zdekompletowana. Istnieje jednak również alternatywna teoria, której twórcy i zwolennicy uważają, że przetwarzanie słuchowe przebiega podobnie u wszystkich ssaków, dlatego zwierzęta rozumieją mowę. By stwierdzić, jak jest naprawdę i rozstrzygnąć zadawniony naukowy spór, Heimbauer i jej koledzy z uczelni Michael Beran i Michael Owren postanowili przetestować umiejętności Panzee. Amerykanie odtwarzali szympansicy słowa z wokodera, czyli urządzenia do syntezy dźwięków. Miały one zmienioną częstotliwość. Małpa słuchała także mowy sinusoidalnej (trzy pierwsze formanty są zamieniane na sygnały sinusoidalne o częstotliwościach odpowiadającym tym formantom; postrzeganie dźwięków mowopodobnych jako mowy jest uznawane za przejaw istnienia wyspecjalizowanego modułu kognitywnego, o którym wspominaliśmy na początku). Okazało się, że Panzee rozumie oba zniekształcone rodzaje mowy częściej, niż miałoby to miejsce w przypadku losowych trafień. Wg tria naukowców, umożliwiło jej to wychowanie. Opisane zjawisko akcentuje wagę wczesnych doświadczeń w kształtowaniu percepcji mowy. Wiele wskazuje na to, że ludzki moduł percepcji/przetwarzania mowy jest udoskonaloną wersją modułu obecnego u wspólnego przodka szympansa i człowieka.
  2. Jeśli chcemy przekonać kogoś do własnego zdania, wyperswadować coś czy skłonić do postępowania zgodnego z naszymi planami, najlepiej mówić w umiarkowanym tempie, robić częste przerwy i nie być nadmiernie pobudzonym. Naukowcy z Instytutu Badań Społecznych University of Michigan przeanalizowali ok. 1400 rozmów telefonicznych, podczas których próbowano zachęcić ludzi do wzięcia udziału w sondzie. Najgorzej radzili sobie ankieterzy, którzy mówili bardzo szybko, nie robili pauz i byli zbyt ożywieni. W ramach studium amerykańscy psycholodzy analizowali nagrania komunikatów wprowadzających w wykonaniu 100 kobiet i mężczyzn. Zwracali szczególną uwagę na tempo mówienia, fluencję słowną oraz wysokość głosu i porównywali je ze skutecznością ankieterów w przekonywaniu rozmówcy do wzięcia udziału w wywiadzie. Okazało się, że badani wymawiający ok. 3,5 słowa na sekundę wypadali o wiele lepiej od ankieterów wypowiadających się bardzo wolno lub bardzo szybko. Szef zespołu Jose Benki wyjaśnia, że osoby mówiące zbyt szybko są postrzegane jako kłamcy, a mówiące bardzo wolno jako niezbyt inteligentne lub nadmiernie pedantyczne. Studium ujawniło także, że zbyt duża zmienność tembru głosu brzmi, wg odbiorców, sztucznie, jak gdyby ankieter za bardzo się starał. Akademicy z University of Michigan ustalili też, że najlepiej sprawdzali się ankieterzy, którzy robili częste pauzy (ok. 4-5 razy na minutę). Idealnie płynna mowa może być bowiem uznawana za wyuczoną na pamięć kwestię.
  3. Skupiając się na tym, czego słuchamy, mózg wycisza wszystkie zakłócające dźwięki. Sytuacja wygląda jednak zupełnie inaczej, gdy słyszymy i monitorujemy swoją własną mowę na tle hałasu. Okazuje się, że dysponujemy całą siecią ustawień, która pozwala nam wybiórczo wyciszyć i pogłośnić wydawane i słyszane dźwięki. Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley i San Francisco oraz z Uniwersytetu Johnsa Hopkinsa śledzili aktywność elektryczną mózgów pacjentów z padaczką. Odkryli, że neurony jednej części kory słuchowej się wygaszały, a w innych się rozświetlały. Wcześniejsze badania wykazały, że małpy dysponują wybiórczym układem słuchowym, który pozwala im "podkręcić" wydawane przez siebie zawołania związane z rozrodem, pokarmem czy alarmowe. Dotąd nie było jednak wiadomo, jak taki system jest zorganizowany u ludzi. Zwykliśmy myśleć, że ludzki układ słuchowy jest w dużej mierze hamowany podczas mówienia, ale my odkryliśmy ciasno upakowane placki kory o bardzo różnej wrażliwości na własną mowę, co daje znacznie bardziej złożony obraz – tłumaczy Adeen Flinker, doktorant z Berkeley. Znaleźliśmy dowody na istnienie milionów neuronów wyładowujących się naraz za każdym razem, gdy słyszymy jakiś dźwięk. Znajdują się one tuż obok milionów neuronów ignorujących zewnętrzne dźwięki, ale wyładowujących się razem za każdym razem, gdy sami coś mówimy. Taka mozaika reakcji może odgrywać ważną rolę w tym, jak rozróżniamy własną mowę od mowy innych. Choć studium nie daje odpowiedzi na pytanie, po co tak bacznie śledzimy własną mowę, Flinker sądzi, że da się wskazać kilka powodów. Na pewno przydaje się to podczas nauki języka, do monitorowania wypowiadanych kwestii oraz dostosowywania się do rozmaitych głośnych środowisk. "Bez względu na to, czy chodzi o naukę nowego języka, czy rozmowę ze znajomymi w hałaśliwym barze, musimy słyszeć, co mówimy i zmieniać dynamicznie naszą mowę, dostosowując się do wymogów otoczenia". Amerykanin przypomina, że schizofrenicy nie potrafią odróżnić swoich wewnętrznych głosów od głosów innych ludzi, co sugeruje, że nie mają opisywanego wybiórczego mechanizmu słuchowego. Poszczególne regiony mózgu odpowiadają za kontrolę innej głośności, a są od siebie oddalone o zaledwie kilka milimetrów. Uzyskane przez akademików wyniki pozwolą opracować bardziej szczegółowe mapy kory słuchowej, wykorzystywane podczas operacji na mózgu. W ramach opisywanego eksperymentu naukowcy śledzili aktywność elektryczną zdrowej tkanki mózgu hospitalizowanych epileptyków. Pacjenci mieli powtarzać słyszane słowa i samogłoski. Porównano sygnały elektryczne związane z mówieniem i słyszeniem. Dzięki temu ustalono, że niektóre regiony kory słuchowej są mniej aktywne w czasie mówienia, podczas gdy inne utrzymują lub zwiększają swoją aktywność.
  4. Dysleksja jest kojarzona z problemami dotyczącymi czytania, pisania oraz mowy. Kiedyś zasugerowano, że zaburzenie wiąże się z głębszym deficytem przetwarzania słuchowego, który nie ogranicza się wyłącznie do języka. Nie było na to wystarczających dowodów, teraz jednak zespół naukowców z Belgii, Szwajcarii i Wielkiej Brytanii wykazał, że dorośli z dysleksją mają również problem z przetwarzaniem dźwięków niejęzykowych (Proceedings of the National Academy of Sciences). W dysleksji wzrokowo-przestrzennej ujawnia się tendencja do odwracania liter bądź cyfr oraz problemy z zapisywaniem symboli we właściwym porządku (złożeniem ich w spójną i sensowną całość). W dysleksji słuchowo-językowej zaburzeniu ulega odbiór, pamięć, systematyzowanie albo wyróżnianie bodźców słuchowych. Poza tym wyróżnia się dysleksję integracyjną, gdzie zaburzona jest koordynacja poszczególnych funkcji (wzrokowej, kinestetycznej, słuchowej, motorycznej i dotykowej) oraz typ mieszany. Dyskusja na temat przyczyn tego zaburzenia rozwojowego nie doprowadziła do ostatecznych rozstrzygnięć, a jednym z najważniejszych zagadnień etiologicznych pozostawało pytanie o możliwość istnienia ogólniejszych deficytów analizy słuchowej. By jakoś rozwiązać tę zagadkę, międzynarodowy zespół przeprowadził eksperyment, w którym wzięli udział dorośli z dysleksją słuchową. Zaprezentowano im precyzyjnie kontrolowane bodźce słuchowe. Badanym odtworzono nagrania spółgłosek i samogłosek w wersji językowej i w kontekście niezwiązanym z mową. W nagraniu dla spółgłosek w wersji językowej pojawiały się szybkie przejścia między sylabami "ba" i "da". W wersji niejęzykowej zmieniano wysokość poszczególnych głosek sylaby, np. zaczynano od wysokiego "b", a kończono niskim "a" lub na odwrót. Eksperyment powtórzono ze związanymi i niezwiązanymi z mową wersjami samogłosek "u" i "y". Okazało się, że osoby z dysleksją miały problemy z odróżnieniem od siebie spółgłosek, natomiast radziły sobie równie dobrze jak niedyslektycy z samogłoskami. Ludzie, u których nie zdiagnozowano dysleksji, mieli niewielki kłopot z rozróżnieniem niejęzykowych wersji spółgłosek, lecz dyslektycy wydawali się zapędzeni w kozi róg nawet przy niejęzykowych dźwiękach, które brzmiały jedynie lekko nienaturalnie. Wskazuje to na zaburzenie przetwarzania zmian w intonacji dźwięku, bez względu na jego źródło i znaczenie. Specjaliści uważają, że dyslektykom pomógłby trening spółgłoskowy skoncentrowany na przekształceniach wysokości dźwięku.
  5. Gdy słuchamy czyichś wypowiedzi, za każdym razem aktywuje się nasz własny układ produkcji mowy. Ma to miejsce bez względu na to, czy staramy się zignorować nadchodzące dźwięki. Psycholodzy z Royal Holloway, University of London uważają, że odkrycie to pomoże usunąć przynajmniej część zaburzeń językowych występujących u dzieci i dorosłych. Jak wyjaśnia profesor Kathleen Rastle, w ramach studium ochotnikom montowano wykonywane na zamówienie akrylowe nakładki podniebienne z czujnikami, które podczas mówienia 100 razy na sekundę dokonywały oceny wzorca kontaktu języka z podniebieniem. Badani mieli na głos odczytywać wydrukowane parawyrazy (np. koob), a w tym czasie słyszeli bardzo podobne słowa wypowiadane przez kogoś innego. Zastanawialiśmy się przede wszystkim, czy uda się zdobyć dowody, że uczestnicy eksperymentu utworzyli programy ruchów zaangażowanych w mowę, zainspirowane sylabami zaburzającymi. Dywagowaliśmy, że jeśli układy motoryczne są aktywowane podczas słuchania mowy, sposób, w jaki sylaby są artykułowane, zostanie zmieniony przez cechy dystraktorów. Okazało się, że wymowa sylab docelowych rzeczywiście dostosowywała się do wymogów artykulacyjnych sylab zaburzających. Podczas wymawiania głoski "k" w "koob" język był bardziej wysunięty ku przodowi, gdy wolontariusze próbowali zignorować słyszany w tle wyraz "toob". Wg Rastle, wyniki sugerują, że u badanych dochodziło do automatycznego uruchomienia programów artykulacyjnych zaburzaczy, choć skutkiem tego było zniekształcenie mowy. Teraz badacze muszą się skoncentrować na wyjaśnieniu zagadnienia, jak [i po co] układ motoryczny oddziałuje na percepcję mowy. Brytyjczycy uważają, że odkrycia ich zespołu tłumaczą, dlaczego nasz akcent ulega zmianie, kiedy się przeprowadzamy lub wyjeżdżamy za granicę. Wtedy zaczynamy brzmieć jak ludzie z nowego otoczenia, choć świadomie wcale nie staramy się tak postępować. Umiejętność ta ma jednak swoje ograniczenia, ponieważ nie jesteśmy w stanie oddać wszystkich słyszalnych niuansów języka obcego. Naukowcy chcą sprawdzić, czemu się tak dzieje.
  6. Wydając dźwięki, nie tylko słyszymy, ale również czujemy, czy są one poprawne. Dzięki temu mechanizmowi ludzie, którzy stracili słuch jako dorośli, nadal potrafią się skutecznie komunikować za pomocą mowy (Nature Neuroscience). Podczas eksperymentu 5 głuchych osób miało mówić, podczas gdy robot delikatnie trącał ich żuchwę. Ludzie bardzo szybko nauczyli się, jak kompensować tę niedogodność. David Ostry z McGill University w Montrealu współpracował z Sazzadem Nasirem. Do tej pory naukowcy koncentrowali się na tym, jak mózg uczy się poprawnej mowy, wykrywając nieprawidłowe dźwięki za pomocą słuchu. Ostry i Nasir twierdzą, że na tym jednak nie koniec, ponieważ czujemy, czy mówimy dobrze, czy źle. Podobnie działają wytrenowani sportowcy, którzy na podstawie analizy ruchu są w stanie stwierdzić, czy w dany sposób trafią do dołka, kosza albo w boisko przeciwnika. By oddzielić wpływ uczenia za pomocą słuchu, panowie wybrali 5 osób z implantem ślimaka. Na czas eksperymentu można go było wyłączyć. Ochotnicy mieli wypowiadać krótkie słowa, które wyświetlano na ekranie komputera. W tym czasie ramię robota delikatnie uderzało w ich żuchwę, przez co przesuwała się o kilka milimetrów. Urządzenie mierzyło, jak badani korygują zaburzenie ruchu. Szturchnięcia były na tyle delikatne, że często ludzie nie mieli świadomości, że robot cokolwiek robił. Po kilkuset próbach nauczyli się oni przesuwać żuchwę o parę milimetrów, by przeciwstawić się spychaniu przez maszynę. Postępowali tak samo po włączeniu implantu. Eksperyment powtórzono na 6 słyszących osobach. Cztery zaczęły identycznie korygować ruch mięśni ust. Głusi muszą całkowicie polegać na ocenie ruchu, słyszący działają w oparciu o sytuację. W hałaśliwym otoczeniu z konieczności skupiają się na odczuciach płynących z ciała. Ostry sądzi, że opisaną zdolność można by wykorzystać w terapii zaburzeń mowy, np. jąkania.
  7. Które ze zwierząt posiadają najbardziej rozwinięty system komunikacji? Czy chodzi o delfiny? A może o walenie lub małpy? Niekoniecznie. Zdaniem naukowca z Northern Arizona University najdoskonalszy system porozumiewania wykształciły w toku ewolucji... nieświszczuki Gunnisona, jeden z gatunków należących do grupy znanej lepiej jako pieski preriowe. Zamieszkujące na terenie południowych stanów USA nieświszczuki Gunnisona są od ponad 30 lat obiektem zainteresowań prof. Cona Slobodchikoffa. W swoim najnowszym eksperymencie badacz nagrywał dźwięki wydawane przez te gryzonie i poszukiwał w nich powtarzających się schematów, które mogłyby świadczyć o zakodowanych w nich komunikatach. Po stworzeniu ogromnej kolekcji nagrań prof. Slobodchikoff zaobserwował, że "język" stosowany przez pieski preriowe jest znacznie bardziej złożony, niż u jakiegokolwiek innego gatunku (wyłączając człowieka). Okazało się bowiem, że dzięki odpowiednim komunikatom - zrozumiałym tylko dla osobników z danej kolonii, liczącej zwykle kilkaset piesków - pojedyncze zwierzę może np. nie tylko ostrzec swoich towarzyszy o zbliżającym się drapieżniku, ale także o kierunku, z którego należy się spodziewać ataku, a nawet o... kolorze jego ciała. Aby potwierdzić swoje odkrycie, prof. Slobodchikoff odtwarzał nagrane wcześniej sygnały w pobliżu gniazd nieświszczuków. Jak się okazało, zwierzęta błyskawicznie reagowały na nawoływania i zachowywały się w sposób odpowiadający ich treści, np. poprzez stawanie na tylnych łapach w celu obserwacji otoczenia w przypadku ostrzeżenia przed kojotami lub leżenie płasko w celu ukrycia się przed skradającym się w trawie borsukiem. Na podstawie dalszych badań ustalono, że każdy nieświszczuk Gunnisona posiada - podobnie jak każdy człowiek - unikalną barwę głosu, lecz nie utrudnia to w żaden sposób komunikacji wewnątrz stada. Ciekawe jednak, czy osobnik, którego głos odtwarzał prof. Slobodchikoff, nie straci pozycji w stadzie przez niską wiarygodność jego ostrzeżeń...
  8. Nie tylko rozmowa nie sprzyja sprawnej czy bezpiecznej jeździe samochodem, ale i prowadzenie auta zaburza zdolność rozumienia oraz używania języka – twierdzą naukowcy z University of Illinois. Psycholingwista Gary Dell podkreśla, że po raz pierwszy uzyskano tego typu wyniki, ponieważ dwa wcześniejsze badania wskazywały, iż prowadzenie samochodu nie zmniejsza ścisłości i rozumienia mowy. Uprzednie odkrycia nie miały sensu dla nas, ludzi zajmujących się językiem. Można myśleć, że mówienie jest rzeczą łatwą, a rozumienie języka to banalna sprawa, ale to nieprawda. Produkcja mowy i jej rozumienie to czynności wymagające uwagi, dlatego muszą one konkurować z innymi działaniami uwagochłonnymi, takimi jak kierowanie autem. Amerykański eksperyment przeprowadzono w symulatorze jazdy w Beckman Institute for Advanced Science and Technology w Illinois. Dziewięćdziesięciu sześciu ochotników (połowa powyżej 65. r.ż., a reszta w wieku nastoletnim lub tuż po dwudziestce) pracowało w parach. Jedna osoba siadała za kierownicą, a druga – rozmówca – na siedzeniu pasażera albo komunikowała się z prowadzącym za pomocą zestawu głośno mówiącego z jakiegoś oddalonego miejsca. Badani siedzieli w nieruchomym pojeździe bądź nawigowali przez zakorkowane, ruchliwe miasto, słuchając przy tym krótkiej historii. Była dla nich zupełnie nowa, nigdy wcześniej jej nie słyszeli. Ze słuchawkami z mikrofonem na głowie każdy wysłuchiwał 4 takich opowiadań. Po opuszczeniu symulatora należało je wszystkie odtworzyć ze szczegółami. Tak jak oczekiwali psycholodzy, zdolność badanych do zapamiętania i opowiedzenia historii spadała znacznie podczas jazdy. Starsi ochotnicy już na początku wypadali gorzej, a potem ich umiejętność zapamiętania i odtworzenia historii zmniejszała się podobnie jak u młodszych wolontariuszy. W porównaniu do wyników osiąganych podczas spokojnego siedzenia, kierowcy zapamiętywali o 20% mniej treści przekazywanych im w czasie jazdy. Spadek trafności odtwarzania historii był najsilniej zaznaczony, gdy prowadzący symulator przejeżdżali przez skrzyżowania lub napotykali na bardziej wymagające sytuacje drogowe. Studium odzwierciedla "handel", jaki ma miejsce, gdy ludzie próbują się komunikować, wykonując inne zadania. Relatywna równowaga uwagi między czynnościami ulega wtedy zmianie. Być może z tego powodu nie rozumiemy się wzajemnie jak należy. Ze współczesną technologią mówimy coraz więcej i więcej, gdy w tym samym czasie robimy jeszcze coś innego, ale przez to dociera do nas coraz mniej – podsumowuje Dell.
  9. Gdy czujemy na szyi czyjś oddech, łatwiej nam zrozumieć, co mówi. Badacze z Kanady uważają, że odkrycie to pomoże skonstruować lepsze aparaty dla osób niedosłyszących lub pracujących w dużym hałasie (Nature). Wiedząc, że wzrok wpływa na wrażenia słuchowe (jeśli np. słyszymy "ba", ale widzimy osobę mówiącą "ga", zinterpretujemy dźwięk jako "da"), Bryan Gick z Uniwersytetu Kolumbii Brytyjskiej zastanawiał się, czy podobnie będzie w przypadku stymulacji dotykowej. Wcześniejsze studia sugerowały, że tak, ale wyłącznie w pewnych okolicznościach, np. gdy podmiot jest świadomy wykonywanego zadania lub przeszedł trening mapowania "międzyzmysłowego". Doświadczenie Kanadyjczyków wykazało, że dzieje się tak naturalnie, bez przeszkolenia. W odróżnieniu od artykulacji "ba" i "da", wymawianiu sylab "pa" i "ta" towarzyszy lekki podmuch wydobywającego się z ust powietrza. Wiele wskazuje na to, że mózg może się nauczyć wykorzystywać takie dmuchnięcia do modyfikowania percepcji dźwięków. W ramach eksperymentu 66 ochotników słuchało męskiego głosu, który wymawiał 4 sylaby. Szum tła utrudniał ich odróżnienie. Podczas słuchania części z nich na dłoń bądź szyję badanych kierowano leciutki strumień powietrza. Był tak delikatny, że wiele osób nie miało nawet pojęcia o jego istnieniu, ale zwiększała się ich skuteczność w wykrywaniu sylab "pa" i "ta". Jeśli jednak dmuchnięcia towarzyszyły "ba" i "da" częściej mylono je z "pa" oraz "ta".
  10. Naukowcy z australijskiego University of New South Wales zidentyfikowali gen odgrywający kluczową rolę w rozwoju aparatu mowy u ludzi. Wszystko wskazuje na to, że właśnie ta sekwencja DNA umożliwiła naszym przodkom opanowanie zdolności do porozumiewania się za pomocą słów. Do odkrycia doszło podczas badań materiału genetycznego pobranego od przedstawicieli australijskiej rodziny obarczonej dziedzicznym defektem budowy aparatu mowy. Zaburzenie to objawia się m.in. upośledzoną budową fałd głosowych i krtani oraz pojawianiem się połączeń pomiędzy kośćmi, które u zdrowych ludzi pozostają rozdzielone. Dzięki analizie genomu pacjentów udało się zidentyfikować fragment DNA odpowiedzialny za powstawanie choroby. Sekwencja ta, nazwana tospeak, była u członków badanej rodziny rozbita na dwa nieaktywne biologicznie fragmenty, przez co traciła wpływ na organizm. Co ciekawe, niektóre odcinki tospeak nakładają się na fragmenty dwóch innych genów, a on sam nie koduje żadnego białka. Wszystko wskazuje więc na to, że swoją aktywność gen zawdzięcza cząsteczkom RNA powstającym na jego bazie w procesie transkrypcji. To one, zdaniem badaczy, regulują aktywność innych fragmentów DNA odpowiedzialnych za budowę krtani. Dodatkową poszlaką wskazującą na powiązanie tospeak z rozwojem mowy jest fakt, iż gen ten występuje wyłącznie u ssaków naczelnych, zaś ludzie są jedynym gatunkiem, u którego fragment ten jest poprzedzony tzw. promotorem, czyli sekwencją DNA umożliwiającą ekspresję cechy zakodowanej w tym genie. Wiele wskazuje więc na to, że powstanie odkrytego genu mogło być kluczowym wydarzeniem na drodze do powstania naszego gatunku.
  11. Oglądanie telewizji przez dzieci powoduje, że rodzice mniej do nich mówią, przez co dzieci mogą mieć problemy z posługiwaniem się językiem. Badania prowadzone przez Dimitria Christakisa z Centrum Zdrowia, Rozwoju i Zachowania w Instytucie Badawczym Dzieci w Seattle pokazały np., że w ciągu każdej godziny, którą dziecko spędza przed telewizorem, dorośli wypowiadają do niego 770 wyrazów mniej niż zazwyczaj. Podczas badań 329 dzieci w wieku od 2 miesięcy do 4 lat okazało się, że średnio w ciągu godziny rodzice wypowiadają do nich 941 słów, o ile nie oglądają telewizji. "Wiedzieliśmy, że oglądanie telewizji przez najmłodszych powoduje u nich opóźnienia w rozwoju językowym i problemy z koncentracją uwagi, jednak dotychczas nie wiedzieliśmy, dlaczego tak się dzieje" - mówi Christakis. Im więcej dziecko ogląda telewizji, tym mniej słów zna i rozumie. Rodzice często nie zdają sobie z tego sprawy. Wydaje im się, że dbają o rozwój dziecka, gdyż np. siedzą z nim na podłodze i razem się bawią. Jednak jeśli zabawa odbywa się przy włączonym telewizorze, to znacznie mniej ze sobą rozmawiają. Różnice w posługiwaniu się językiem zaczynają się wyrównywać w wieku około 16 miesięcy. Badacze nie sprawdzali czy rodzaj oglądanego programu wywołuje jakieś różnice w rozwoju. Uważają jednak, że o ile nie ma pełnej zgodności co do tego, czy telewizja szkodzi dzieciom, można z pewnością powiedzieć, że im nie pomaga. Z tego też powodu Amerykańska Akademia Pediatrii zaleca, by dzieci przed ukończeniem 2. roku życia w ogóle nie oglądały telewizji.
  12. Gen umożliwiający ludziom mówienie wpływa na wokalizację także u myszy - udowadniają naukowcy z Instytutu Maxa Plancka. Opracowane przez nich zmodyfikowane genetycznie zwierzęta mogą posłużyć jako znakomity model do badań nad ewolucją mowy. Badany gen, zwany FOXP2, stał się obiektem intensywnych badań po tym, jak stwierdzono, iż jego mutacja powoduje upośledzenie mówienia i rozumienia mowy. Dalsze badania wykazały, iż białkowy produkt tego genu należy on do tzw. czynników transkrypcyjnych, czyli białek regulujących aktywność innych genów. Niestety, eksperymenty na ludziach były, oczywiście, niemożliwe ze względów etycznych. Próbą rozwiązania problemu było przeniesienie ludzkiej wersji FOXP2 do organizmu myszy. Było to dość ryzykowne, gdyż gryzonie pozbawione tego genu giną już po kilku tygodniach. Okazało się jednak, że wstawienie w jego miejsce genu ludzkiego jest możliwe, a zmodyfikowane zwierzęta przeżywają i nabierają nowych cech. Najważniejszą z zaobserwowanych zmian było nabycie przez mysie neurony zdolności do szybkiego wyciszania własnej aktywności w reakcji na powtarzające się impulsy elektryczne o odpowiednich parametrach. Liczne badania z ostatnich lat sugerują, że cecha ta jest bardzo istotna dla procesów uczenia. Kolejną zaobserwowaną różnicą była zmiana barwy ultradźwiękowych nawoływań emitowanych przez samce gryzoni. Niestety, dotychczas nie udało się ustalić, jaką rolę mogłaby odgrywać taka zmiana, lecz najprawdopodobniej nie ma ona charakteru ewolucji w kierunku uporządkowanej mowy. Jak uważa szef zespołu badającego to zagadnienie, Wolfgang Enard, wokalizacje [zmodyfikowanych genetycznie myszy] są co najwyżej podobne do płaczu dziecka. Choć do rozwiązania pozostaje jeszcze wiele zagadek, wyhodowanie zwierząt zawierających ludzki gen FOXP2 stanowi istotny krok naprzód. Wykorzystanie tych zwierząt do dalszych badań ułatwi pracę nad poszukiwaniem mechanizmu odpowiedzialnego za ewolucję mowy u ludzi.
  13. Emocje wyrażane przez mowę wywołują w mózgu unikatowe wzorce aktywności. Co więcej, zdania nie muszą mieć sensu, a nawet składać się z istniejących słów. Ważne, że przekazują określone uczucia. Do tej pory wiedziano, że pierwotna kora słuchowa w większym stopniu reaguje na emocjonalne wokalizacje niż na neutralną mowę. Na skanach nie udawało się jednak odróżnić jednego uczucia od innych. Próbując rozwiązać problem, Thomas Ethofer i zespół z Uniwersyteckiego Centrum Medycznego w Genewie zastosowali łącznie dwie metody: funkcjonalny rezonans magnetyczny i analizę wzorców multiwariancji (ang. multivariate pattern analysis, MVPA). W przeszłości naukowcy przyglądali się wzrostowi aktywności w poszczególnych rejonach, Szwajcarzy zwrócili uwagę na ogólne wzorce aktywności, co dało lepszy ogląd całości. W eksperymencie wzięły udział 22 osoby. Słuchały one niby-zdania "ne kalibam sout molem", wypowiadanego przez dziesięciu aktorów na 5 sposobów: ze złością, smutkiem, ulgą, radością i neutralnie. Dzięki MVPA można było nie tylko połączyć wzorce aktywności ze słyszanymi w głosie uczuciami, ale także zidentyfikować, co usłyszał badany, na podstawie oglądu obszarów rozświetlających się w jego mózgu. Wszystko wskazuje na to, że pierwotna kora słuchowa nie tylko wykrywa dźwięk, ale też specjalizuje się w przetwarzaniu emocji. To ważna wskazówka w odniesieniu do diagnozowania i terapii zaburzeń na różne sposoby związanych z uczuciami, np. depresji, schizofrenii czy autyzmu.
  14. Amerykański strażak Brian Wilson miał w 1995 r. wypadek samochodowy. Lekarze twierdzili, że resztę życia spędzi w domu opieki. Zgodnie z ich prognozami, miał być właściwie niemy i przez większość czasu leżeć w łóżku. Okazało się jednak, że mężczyzna nauczył się znowu mówić dzięki... dwóm papugom. Obecnie były strażak dzieli swój dom na przedmieściach Waszyngtonu z ok. 80 egzotycznymi ptakami. Hoduje m.in. kakadu białe, różnobarwne ary oraz żako (papugi popielate). Odniesiony w wypadku uraz głowy był tak poważny, że strażak miał nigdy nie przekroczyć zdolności komunikacyjnych 2-latka. Okazało się jednak, że dwa z jego ptaków nieustannie do niego mówiły. Nagle mężczyzna zaczął stopniowo wypowiadać kolejne słowa. By wyrazić swoją wdzięczność, Wilson urządził w domu coś w rodzaju schroniska dla bezdomnych ptaków. Zbierał je od właścicieli, którzy z różnych powodów nie mogli już dalej mieszkać ze skrzydlatymi podopiecznymi. Wyrehabilitowany przez papugi strażak założył fundację Papugi Wilsona (Wilson Parrot Foundation), która działa dzięki wpłatom odpisywanym od dochodu przed opodatkowaniem. Poza tym cudownie uleczony organizuje przyjęcia urodzinowe i firmowe z udziałem pierzastych przyjaciół. Gdy 14 lat temu uległ wypadkowi, nie zapiął pasów. Teraz jego ptaki demonstrują, jak powinno się bezpiecznie jeździć autem, używać broni palnej oraz posługiwać ogniem. W ten niecodzienny sposób Wilson nadal wypełnia swoją strażacką misję.
  15. Naukowcy z Instytutu Ucha Bionicznego w Melbourne badali aktywność mózgu u głuchych od urodzenia kotów, które już we wczesnym dzieciństwie wyposażono w implanty ślimaka. Niewykluczone, że dzięki ich odkryciom dzieci z podobną niepełnosprawnością będą w przyszłości mówić tak samo dobrze jak maluchy słyszące (The Journal of Comparative Neurology). Zwykle drgania fal dźwiękowych pobudzają w uchu wewnętrznym tzw. komórki rzęsate, zwane też komórkami słuchowymi bądź włoskowatymi. Drgania mechaniczne są zatem przekształcane w impulsy nerwowe. U głuchych zwierząt dość często komórki zmysłowe są nieprawidłowo zbudowane, dlatego implanty muszą stymulować neurony bezpośrednio. Australijczykom zależało na sprawdzeniu, jak mózg reaguje na pobudzanie w ten właśnie sposób. Utrwalali aktywność elektryczną kory siedemnastu 8-miesięcznych kotów. Zwierzęta nie słyszały od urodzenia. Dziesięć otrzymało implant ślimaka stosunkowo niedawno, a 7 wszczepiono go w wieku 8 tygodni. Okazało się, że w pierwszej grupie włączenie urządzenia skutkowało chaotyczną aktywnością kory. Dźwięk nie był postrzegany spójnie, co w przypadku ludzi uniemożliwiałoby opanowanie mowy. W drugiej grupie aktywność kory przypominała zaś wzorce występujące u słyszących zwierząt.
  16. To miał być spokojny dzień, taki sam, jak setki innych upływających powoli w jednym z ogrodów zoologicznych w Waszyngtonie. Tym razem jednak, spokój pracowników zoo zakłóciło... spontaniczne gwizdanie jednej z przetrzymywanych w tym miejscu małp. Jest to pierwszy taki przypadek znany nauce, a szczęśliwi opiekunowie zwierzęcia liczą, że badanie jego zachowań pomoże w zrozumieniu ewolucji ludzkiej mowy oraz procesów uczenia się. Bohaterką niezwykłej historii jest Bonnie, trzydziestoletnia samica orangutana. Słuchając melodii gwizdanej podczas pracy przez jednego z opiekunów, małpa najprawdopodobniej nauczyła się jej, po czym pewnego dnia sama, niezachęcana przez nikogo, postanowiła sprawdzić swój talent muzyczny. Nigdy dotąd nie zaobserwowano podobnego zachowania u jakiegokolwiek gatunku naczelnych poza ludźmi. To podważa obowiązujące od dawna przekonanie, że naczelne inne niż człowiek dysponują ustalonym repertuarem dźwięków, nad którym nie posiadają dobrowolnej kontroli. Możliwość nauczenia się nowych dźwięków i ich używania z własnej woli to dwa istotne aspekty ludzkiej mowy, zaś dokonane odkrycie otwiera nową drogę badania niektórych aspektów ewolucji ludzkiej mowy na przykładzie naszych najbliższych krewniaków - tłumaczy istotę dokonanej obserwacji dr Serge Wich, jeden ze specjalistów zaangażowanych w badania nad zachowaniami Bonnie. Wcześniejsze obserwacje wskazywały, że orangutany są w stanie naśladować ruchy ludzi, lecz odkrycie ich zdolności do spontanicznego wydawania różnorodnych dźwięków była dla badaczy prawdziwym zaskoczeniem. Dotychczas uważali oni, że małpy te potrafią jedynie wydawać ściśle określone dźwięki "przypisane" do określonych wydarzeń, takich jak atak drapieżnika. Co ważne, nic nie wskazuje na to, by Bonnie gwizdała prosząc o nagrodę, lecz wyłącznie dla własnej przyjemności. Kiedy jednak jeden z opiekunów poprosi ją (nie proponując nic w zamian) o wydanie z siebie niezwykłych dźwięków, małpa robi to całkiem chętnie, co może oznaczać próbę nawiązania kontaktu z człowiekiem. Badania prowadzone w naturalnych siedliskach wskazują, że poszczególne stada orangutanów często posługują się charakterystycznymi dla siebie dźwiękami. Analizy molekularne wykluczyły, by przyczyną tej różnorodności były czynniki genetyczne, lecz, z drugiej strony, nic nie wskazywało na to, by dźwięki te były wydawane dla przyjemności. Zamiast tego, dziko żyjące zwierzęta używały tych sygnałów głównie dlatego, że pełniły one ściśle określoną funkcję, tzn. niosły ze sobą pewną informację. Zdaniem dr. Wicha, dalsze analizy zachowań Bonnie mogą pomóc w zrozumieniu zjawisk towarzyszących rozwojowi ludzkiej mowy. Dotychczas nasza wiedza na ten temat była bardzo skromna.
  17. Brak snu powoduje, że mowa zaczyna przypominać kwestie wypowiadane przez kogoś w stanie upojenia alkoholowego – wykazał zespół profesor Suzanne Boyce z University of Cincinnati. Amerykanie podejrzewali, że różnice między sposobem wypowiadania się osoby pozbawionej snu i kogoś, kto świetnie wypoczął, będą przypominać te, które występują między artykulacją podczas zwykłej rozmowy i wyraźnym akcentowaniem sylab, słów czy całych fraz podczas mówienia do obcokrajowców lub ludzi słabo słyszących. Pani profesor podkreśla, że proces jest w dużej mierze nieuświadomiony, ale kiedy ludzie skupiają się na artykulacji, dodają do sygnału głosowego więcej bitów akustycznej informacji. Komputer potrafi je wyłapać i oznaczyć miejsca charakterystyczne, takie jak gwałtowne wypuszczanie powietrza w czasie wypowiadania głosek zwarto-wybuchowych, np. p lub b. Naukowcy wprowadzili do programu różnice pomiędzy mową przesadnie artykułowaną i zwykłą i zastosowali go do analizy mowy osób, które ostatnio spały 10, 34 i 58 godzin temu. Uczestnicy eksperymentu mogli jeść i pić wodę. Nie wolno im było sięgać po kawę i inne napoje kofeinowe, np. colę. Tak jak się domyślali Amerykanie, pozbawieni snu wolontariusze stopniowo tracili zdolność artykulacji. Przejawiało się to mniejszą liczbą miejsc charakterystycznych. Sami badani nie zauważali jednak zmian. Gdy byli zmęczeni, tracili świadomość tego, jak wyraźnie mówią. Dla osoby słuchającej mowy kogoś niewyspanego zmiany w artykulacji były wyraźnie wyczuwalne. Wydaje się, że słuchacze czerpią wskazówki z innych źródeł, takich jak wzdychanie, wydłużony oddech, pauzy w nagraniu czy ziewanie, jeśli jest słyszalne. Gdy nadawca i odbiorca mogą się widzieć, w interpretacji sygnału pomagają bodźce wzrokowe: postawa, napięcie skóry i spojrzenie. Wyniki badań przedstawiono na konferencji Acoustics08, która odbywała się w Paryżu. Przydadzą się one podczas szkolenia pracowników telefonów alarmowych, specjalistów ds. komunikacji czy osób pracujących z ludźmi niedosłyszącymi.
  18. Naukowcy z Uniwersytetu w Cambridge badali działanie mózgu człowieka znieczulonego do operacji. Wyniki ich badań mogą wpłynąć nie tylko na ilość anestetyków podawanych przed zabiegiem, ale także na stosunek do osób znajdujących się w śpiączce. Posługując się funkcjonalnym rezonansem magnetycznym (fMRI), zauważyli zmniejszoną aktywność w obszarach kluczowych dla pamięci i rozumienia mowy. W znieczuleniu mózg przetwarza dźwięki mowy, ale wydaje się, że nie może ich w pełni zrozumieć ani zapamiętać. Zespół doktora Matta Davisa sporządzał mapę aktywności obszarów związanych z mową u wolontariuszy znieczulonych w różnym stopniu. Chciano w ten sposób zobrazować zmiany zachodzące w reakcji mózgu na bodźce językowe w miarę zwiększania stopnia znieczulenia i sprawdzić, czy rozumienie mowy może występować mimo utraty pełnej przytomności i upośledzenia funkcji pamięciowych. David Menon, profesor anestezjologii z Cambridge, podkreśla, że opisane odkrycie pozwala wyjaśnić, dlaczego niektórzy pacjenci pamiętają po zabiegu pewne wydarzenia z sali operacyjnej. Prawdopodobnie zostali nieprawidłowo znieczuleni i wskutek tego częściowo odzyskali przytomność. Niewykluczone, że większa liczba pacjentów osiąga w stanie znieczulenia jakiś poziom świadomości. Ludzie ci nie mogą sobie jednak potem niczego przypomnieć, ponieważ nie dochodzi do utworzenia wspomnień. Chorzy nie mają jak zareagować, ale nie są dostatecznie znieczuleni. Istnieją ważne z klinicznego punktu widzenia przyczyny, dla których należy używać dokładnie wymierzonych ilości anestetyków. Zwiększa to bezpieczeństwo pacjenta". Ilość podawanych leków to jedno, ale trzeba też unikać niepożądanego wybudzania w czasie znieczulenia ogólnego. Badacze z Cambridge pracują nad techniką, która pozwoli ustalić, jak głębokie powinno być znieczulenie, by uniknąć powrotu świadomości. Wyniki Brytyjczyków są ważne z jeszcze innego powodu. Okazuje się bowiem, że pacjenci z poważnie uszkodzonym mózgiem mogą jednak rozumieć, co się do nich mówi, ale nie są w stanie odpowiedzieć.
  19. Granie na instrumentach wspomaga działanie mózgu oraz polepsza słyszenie wszystkich rodzajów dźwięków, w tym mowy. Doświadczenie muzyczne wydaje się pomagać w innych dziedzinach życia, przenosząc się na takie czynności, jak czytanie, wychwytywanie niuansów w tonie głosu czy lepsze słyszenie dźwięków w rozsadzanej hałasem klasie — wyjaśnia Nina Kraus, neurolog z Northwestern University. Według niej, opisane odkrycie uzasadnia zachowanie lekcji muzyki w szkolnym programie nauczania. Kiedy trzeba jakoś sprostać wymogom budżetu, jako pierwsze "obcina się" właśnie lekcje muzyki. A to duży błąd. W eksperymencie wzięło udział 20 dorosłych wolontariuszy. Oglądali wybrany przez siebie film. Największą popularnością cieszyły się ponoć obrazy Faceci w czerni, Iniemamocni oraz Medal dla miss. Połowa badanych przez co najmniej 6 lat uczyła się gry na jakimś instrumencie, a nauka rozpoczęła się, zanim skończyli 12 lat. Edukacja muzyczna pozostałych nie trwała dłużej niż 3 lata. Dla wszystkich językiem ojczystym był angielski, nigdy też nie uczyli się mandaryńskiego. Podczas seansu badani słyszeli w tle słowa pochodzące właśnie z mandaryńskiego. Brzmiały jak "mi" i miały głośność zwykłej rozmowy. Język mandaryński jest językiem tonalnym, można w nim wyróżnić 4 tony: wysoki (yīnpíng), wznoszący (yángpíng), opadająco-wznoszący (shǎngshēng) i opadający (qùshēng). W związku z tym jednakowo zapisywany wyraz może mieć kilka różnych znaczeń, w zależności od zastosowanego tonu. Mi w tonie wysokim oznacza "mrugać", "zezować", w tonie wznoszącym "zbijać z tropu", "dezorientować", a w tonie opadająco-wznoszącym "ryż". Przez cały czas monitorowano aktywność mózgu. Pomimo że uwaga wolontariuszy koncentrowała się na filmie, a dźwięki nie miały dla nich znaczenia językowego ani muzycznego, osoby dłużej grające na instrumencie osiągały lepsze wyniki w odróżnianiu od siebie 3 tonacji mandaryńskiego — opowiada Patrick Wong z Northwestern University. Zjawisko to występuje w mniejszym lub większym stopniu u zwykłych ludzi. Nie trzeba być wybitnym muzykiem, by umieć to robić. Zmiany zachodzące pod wpływem muzyki dokonywały się w pniu mózgu, który zawiaduje m.in. oddychaniem czy biciem serca. Zawsze sądzono, że jest ona domeną kory mózgowej, a pień uznawano za twór niezmienny i niezaangażowany w skomplikowane procesy konieczne do gry na instrumencie (Nature Neuroscience). Sądzimy, że muzyka uruchamia wyższe funkcje zlokalizowane w korze, które z kolei zmieniają pień mózgu. W dalszej kolejności Kraus chce znaleźć odpowiedzi na kolejne pytania: 1) w jakim wieku należy zacząć trening, 2) czy poprzez naukę muzyki można pomóc dzieciom z zaburzeniami czytania oraz pisania i wreszcie 3) ile lat trzeba mieć, by dało się zauważyć efekty.
  20. Japońska firma NTT DoCoMo wprowadza w kwietniu na rynek kolejny telefon komórkowy z serii dla starszych osób. Raku-Raku Phone Basic będzie kosztował ok. 20 tys. jenów (czyli mniej więcej 171 dol.!). Jest wyjątkowy, ponieważ zwalnia mowę, by łatwiej ją było zrozumieć słabiej słyszącemu użytkownikowi. Funkcja Clear Voice pozwala na oszacowanie natężenia hałasu w otoczeniu i dostosowanie głośności dzwonka oraz słuchawki do panujących warunków. Raku-Raku odczyta też treść e-maila, artykuły na aktualnie przeglądanej stronie WWW czy imię/numer dzwoniącej w danym momencie osoby. Aparat wyposażono ponadto w krokomierz, który przyda się staruszkom dbającym o linię. Precyzyjnie wyliczy bowiem liczbę spalonych kalorii. Raku-Raku nie ma aparatu fotograficznego. Waży 103 gramy. Przekątna wyświetlacza to 2,4 cala. Czas oczekiwania wynosi całkiem sporo, bo 560 godzin.
  21. Z badań przeprowadzonych przez naukowców z National Institute on Deafness and Other Communication Disorders (NIDCD – Narodowy Instytut Głuchoty i Innych Schorzeń Komunikacyjnych) oraz National Institute of Mental Health (NIMH – Narodowy Instytut Zdrowia Psychicznego) wynika, iż rezusy, słuchając odgłosów wydawanych przez innych członków tego samego gatunku, uaktywniają rejony mózgu, które odpowiadają regionom ludzkiego mózgu biorącym udział w komunikacji. Potwierdza to hipotezę, że mózg wspólnego przodka człowieka i małp, które nie należą do rodziny człowiekowatych, był wyposażony w ośrodki umożliwiające rozwój mowy. U człowieka za komunikację odpowiedzialne są przede wszystkim pole Broca i pole Wernickego. Okazało się, że gdy rezusy porozumiewają się między sobą, uaktywniają się w ich mózgach struktury, których położenie odpowiada położeniu obu wspomnianych pól u człowieka. Amerykańscy uczeni wykorzystali pozytronową tomografię emisyjną (PET) do zbadania mózgów trzech dorosłych małp. Zwierzęta słuchały trzech rodzajów dźwięków: nawoływań innych rezusów, gry instrumentów muzycznych oraz dźwięków syntetycznie wytworzonych przez komputer. Dźwięki różniły się częstotliwością, skalą i długością trwania. Dla każdego z typów wykonano 16 skanów i porównano uzyskane wyniki. Pomimo tego, że różne rodzaje naturalnych małpich odgłosów bardzo się od siebie różnią, aktywowały one zidentyfikowane przez naukowców obszary w mózgach zwierząt. Ich aktywność była wyraźnie większa, niż przy słuchaniu dźwięków niepochodzących od małp. Działo się tak nawet wówczas, gdy sztucznie wytwarzane dźwięki były bardzo podobne do odgłosów wydawanych przez rezusy. Uczeni doszli więc do wniosku, że w mózgu ostatniego wspólnego przodka człowieka i tych małp już istniały ośrodki, które u człowieka doprowadziły do rozwoju mowy. U makaków prawdopodobnie odgrywa on taką samą, pierwotną rolę, którą odgrywał u wspólnego przodka. Co więcej, wcześniejsze badania tego samego zespołu uczonych wykazały, że odgłosy innych rezusów aktywują regiony mózgu odpowiedzialne za przetwarzanie informacji wizualnych i emocjonalnych. Może to sugerować, że obszary mózgu, wyspecjalizowane jedynie w odbieraniu informacji językowych, wyewoluowały z większych regionów, które reagowały na wszelkie sygnały związane z życiem danej grupy. Ich rozwój, u człowieka i naczelnych nie będących człowiekowatymi, mógł do pewnego momentu przebiegać identycznie.
×
×
  • Create New...