Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'dźwięki' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 22 wyników

  1. Péos, Mininos, Cécil, Teha, i Amtan są delfinami z francuskiego delfinarium Planète Sauvage w Port-Saint-Père. W nocy wydają dziwne dźwięki, które wg naukowców, są powtórzeniami pieśni długopłetwców, włączonej do podkładu muzycznego, do którego występują. Gdyby podejrzenia etologów się potwierdziły, mielibyśmy do czynienia z pierwszym udokumentowanym przypadkiem, kiedy delfiny ćwiczą nowe dźwięki nie bezpośrednio po ich zasłyszeniu, ale po upływie kilku godzin (Frontiers in Comparative Psychology). Do odkrycia doszło przypadkowo. Martine Hausberger z Université de Rennes 1 umieściła w basenie delfinów hydrofony, ponieważ bardzo mało wiadomo o ich nocnych wyczynach akustycznych. Pewnego razu akademicy usłyszeli nieznane i nietypowe, wg nich, dźwięki. Wiedząc, że delfiny lubią naśladować, dokładniej przyjrzeli się ich otoczeniu. Dość szybko wpadli na to, że w nowej ścieżce dźwiękowej towarzyszącej skokom i zabawom z piłką oprócz mew i pogwizdywań samych delfinów pojawiają się również zaśpiewy humbaków. Gdy za pomocą programu komputerowego porównano elementy podkładu i wprawki delfinów, okazało się, że te ostatnie bardzo przypominają komunikaty długopłetwców. W drugiej części studium naukowcy zaprezentowali 20 ochotnikom nagrania dzikich długopłetwców i delfinów. Później odtworzyli im nocne nagrania z akwarium w Port-Saint-Père i zapytali, czy to humbaki, czy delfiny. W 76% przypadków badani twierdzili, że humbaki. Péos, Mininos, Cécil, Teha, i Amtan nigdy nie ćwiczyły dźwięków w czasie pokazu. Zawsze odczekiwały do wieczora/nocy. Hausberger przypuszcza, że występy sprzyjają nauce i stanowią rodzaj primingu zwiększającego dostępność pewnych kategorii poznawczych. To specjalny czas [...], ponieważ za poprawne zachowania delfiny dostają nagrody. Przez resztę dnia park jest otwarty i dużo się dzieje, ale delfiny nie są tym najwyraźniej tak bardzo zainteresowane, bo w nocy ćwiczą tylko popisy humbaków. Na razie nie wiadomo, czy delfiny "humbakują" przez sen. Jeśli tak, oznaczałoby to, że podobnie jak u ludzi, w nocy następuje u nich konsolidacja śladów pamięciowych. By to rozstrzygnąć, Francuzi planują badania z elektroencefalografem.
  2. Zamiast przystępować od razu do walki, tak jak większość zwierząt piranie najpierw ostrzegają. Wydają dźwięki, które mają zastraszyć potencjalnego sparingpartnera. Wygląda więc na to, że ich reputacja jest dużo gorsza, niż na to zasługują. Eric Parmentier z Uniwersytetu w Liège wykorzystał do badania zachowania piranii hydrofon. Naukowcom udało się nagrać 3 rodzaje dźwięków. Belg od lat zajmuje się komunikacją ryb. Wcześniej studiował m.in. amfipriony, znane lepiej jak błazenki czy ryby klowny. Wiele ryb posługuje się dźwiękami podczas godów, by zwabić partnerów. Akustycznie koordynowane są też np. ruchy ławic. W przypadku piranii o wydawaniu dźwięków wiedziano już od jakiegoś czasu, trzeba było jednak jeszcze ustalić, po co to robią. Chcąc się tego dowiedzieć, Parmentier umieszczał w akwarium piranii hydrofon i jednocześnie filmował przebieg kontaktów między rybami. Uchwycono 3 rodzaje dźwięków. Szczekanie pojawiało się, gdy piranie urządzały pokaz swoich możliwości, ale nie walczyły. Drugi z dźwięków przypominał wybijanie rytmu na perkusji i stanowił tło dla pościgu za innym osobnikiem. Najdelikatniejszy, brzmiący jak skrobanie czy jak ktoś woli, kumkanie, towarzyszył, o dziwo, najbrutalniejszemu zachowaniu - gryzieniu. Belgowie zauważyli, że walki rozgrywały się przede wszystkim o jedzenie. Nagranie dźwięków wymagało od biologów ogromnej cierpliwości. Przez większość nic się bowiem nie działo. Piranie pływały po prostu po akwarium. Nie wydawały żadnych dźwięków ani się nie biły. Dr Parmentier wyjaśnia, że jest w tym dużo sensu, ponieważ zwierzęta oszczędzają sporo energii, gdy straszą, nie angażując się w prawdziwe przepychanki. Szczekanie i dźwięki perkusyjne są wydawane za pomocą pęcherza pławnego. Stymulując przyczepione do niego mięśnie, Parmentier, Sandie Millot i Pierre Vandewalle zauważyli, że zamiast rezonować, pęcherz przestaje drgać dokładnie w tym samym momencie, gdy kończy się cykl pracy mięśni, które kurczą się i rozluźniają [nawet] 150 razy na sekundę. Oznacza to, że mięśnie bezpośrednio regulują drgania pęcherza, a zatem wysokość dźwięku zależy od częstotliwości skurczów (a nie od właściwości rezonacyjnych pęcherza). Naukowcy zaobserwowali też, że w wydawaniu dźwięków bierze udział tylko połowa tego błoniastego worka. Ostatni z zarejestrowanych przez zespół rodzajów dźwięków (skrobanie/kumkanie) to efekt kłapania szczęką.
  3. Niektóre nietoperze mają o wiele większą kontrolę nad echolokacją niż wcześniej sądzono. Badania nad rudawką nilową (Rousettus aegyptiacus) wykazały, że ssaki te mogą m.in. manipulować szerokością wiązki dźwięków. Naukowcy porównują to do dostosowywania przez ludzi wielkości okienka uwagi. Rudawki nilowe żyją w złożonych i zróżnicowanych środowiskach: chronią się w jaskiniach, a ponieważ żywią się owocami, muszą się jakoś poruszać wśród gałęzi drzew. W ramach eksperymentu zespół Nachuma Ulanovsky'ego z Instytutu Nauki Weizmanna oraz Cynthii Moss z University of Maryland zauważył, że R. aegyptiacus dostosowują się do otoczenia, stosując dwie taktyki – wspomnianą na początku regulację szerokości wiązki wysokich dźwięków, a także modyfikację ich natężenia. Naukowcy nauczyli 5 rudawek nilowych wykrywania i lądowania na plastikowej sferze wielkości mango. Umieszczano ją w różnych miejscach dużego, ciemnego pomieszczenia, w którym zamontowano 20 mikrofonów. W jednym ze scenariuszy symulowano najeżony przeszkodami las. Dookoła niby-mango między 4 drążkami rozciągnięto dwie sieci. Nietoperze musiały przelecieć korytarzem, którego szerokość i ukształtowanie zmieniały się z próby na próbę. Badacze odkryli, że w obecności wielu przeszkód za pomocą podwójnych sonarowych pulsów ssaki obejmowały 3-krotnie większą powierzchnię niż w przypadku otwartego terenu. Oznacza to, że między pulsami można było wyznaczyć większy kąt. Dodatkowo rosło natężenie dźwięków. Naukowcy tłumaczą, że szersze pole widzenia pozwalało rudawkom śledzić położenie mango i drążków jednocześnie. Niewykluczone, że zjawisko to ogranicza się wyłącznie do R. aegyptiacus, które potrafią bardzo szybko poruszać językiem.
  4. Nawet podczas snu obszary słuchowe mózgu śpiącego niemowlęcia przetwarzają bodźce i odmiennie reagują na dźwięki wydawane przez ludzi oraz inne obiekty, a także na przejawy emocji o różnym znaku. Nasze badania sugerują, że niemowlęca kora skroniowa jest dużo bardziej dojrzała niż wcześniej wspominano. Na tak wczesnym etapie rozwoju rzadko widzi się wyspecjalizowane rejony - podkreśla dr Evelyne Mercure z Królewskiego College'u Londyńskiego. Brytyjczycy cieszą się, że ich najnowsze studium pozwoli lepiej zrozumieć wpływ środowiska społecznego na rozwój niemowląt, ale również odnieść rozwój do późniejszych zaburzeń komunikacji społecznej. Ludzki głos jest ważną wskazówką społeczną, co może wyjaśnić, czemu mózg tak wcześnie zaczyna go przetwarzać. To zjawisko reprezentuje pierwszy etap rozwoju kontaktu społecznego i nauki języka - uważa dr Anna Blasi. Zespół prof. Declana Murphy'ego posłużył się funkcjonalnym rezonansem magnetycznym, by sprawdzić, jak mózg śpiących dzieci reaguje na dźwięki. W eksperymencie wzięło udział 21 niemowląt w wieku od 3 do 7 miesięcy. Na początku naukowcy porównali reakcję mózgów na ludzkie niewerbalne wokalizacje, np. kaszel czy kichnięcia, oraz na inne znane dzieciom dźwięki, np. wydawane przez zabawki lub płynącą wodę. Okazało się, w zależności od typu bodźca (źródło ludzkie lub nieożywione) silniejsza reakcja występowała w innych rejonach mózgu dziecka; z podobnym zjawiskiem mamy do czynienia w przypadku mózgu dorosłego czuwającego człowieka. W kolejnym etapie analizowano odpowiedzi mózgu na przejawy pozytywnych oraz negatywnych uczuć (w tym śmiech i płacz) oraz dźwięki neutralne emocjonalnie. Mózgi dzieci reagowały podobnie na dźwięki neutralne i sugerujące radość (aktywacji ulegały m.in. zakręt skroniowy środkowy czy zakręt czołowy przyśrodkowy), ale w przypadku dźwięków świadczących o smutku (płaczu) dodatkowo występowało nasilone pobudzenie wyspy i zakrętu prostego. Murphy pociesza wszystkich rodziców, którym zdarzyło się np. kłócić przy śpiącym niemowlęciu. Wg naukowca, negatywne emocje nie muszą niekorzystnie wpływać na niemowlę; w takich okolicznościach mózg może przecież ćwiczyć swoje możliwości w zakresie różnicowania emocji. Czemu mózgi śpiących dzieci reagują na dźwięki z otoczenia? Murphy uważa, że regiony konieczne do przeżycia są wyspecjalizowane i aktywne już na bardzo wczesnym etapie rozwoju. W ich przypadku doświadczenie poporodowe nie jest już tak bardzo potrzebne. Studium brytyjskich akademików potwierdziło, że niemowlęta potrafią wyekstrahować z ludzkiej mowy drobne szczególiki. Co ciekawe, właściwie za każdym razem reagują jak dorośli czuwający ludzie. Obecnie zespół z Królewskiego College'u Londyńskiego prowadzi badania dotyczące mózgów dzieci, u których rodzeństwa zdiagnozowano autyzm.
  5. Tenisiści, którzy głośno stękają, odbijając piłkę, mogą w ten sposób skutecznie zmylić zmysły przeciwnika. Drugi gracz ma bowiem problem z oceną, gdzie i jak tak naprawdę leci piłka (PLoS ONE). Nasze odkrycia sugerują, że w takich okolicznościach przeciwnikowi wydaje się, że piłka przemieszczająca się z prędkością 80 km/h znajduje się o nieco ponad 60 cm [24 cale] bliżej niż w rzeczywistości – wyjaśnia Scott Sinnett z Uniwersytetu Hawajskiego. Naukowcy prowadzili badania z udziałem studentów Uniwersytetu Kolumbii Brytyjskiej. Wykorzystano dźwięki, których głośność odpowiadała okrzykom wydawanym na korcie przez Marię Sharapovą i Rafaela Nadala. Trzydziestu trzech ochotników oglądało nagrania przedstawiające tenisistę odbijającego piłkę na drugą stronę kortu. Odbiciu towarzyszył bądź nie krótki dźwięk. Każdorazowo zadanie badanych polegało na jak najszybszym i jak najdokładniejszym określeniu na klawiaturze kierunku uderzenia. Stęknięcie znacznie wydłużało czas reakcji, wiązało się też z większą liczbą błędów. Akademicy uważają, że istnieje kilka wyjaśnień zaobserwowanego zjawiska. Wiadomo np., że niektórzy zawodowi gracze oceniają prędkość i ruch obrotowy piłki na podstawie dźwięku generowanego podczas zetknięcia z rakietą. Głośne stęknięcia skutecznie by to uniemożliwiały. Sinnett i jego współpracownik z Uniwersytetu Kolumbii Brytyjskiej prof. Alan Kingstone uważają, że na nawierzchniach umożliwiających szybszą grę, np. na trawiastych kortach Wimbledonu, opisany efekt będzie silniej zaznaczony. Tenisiści różnie podchodzą do zagadnienia stękania w czasie meczu. Martina Navratilova uznawała je za oszustwo. Obecnie amerykańsko-kanadyjski zespół zamierza ustalić, czy zawodnicy ze szczytów zestawień opracowali własne metody na niwelowanie wpływu postękiwania przeciwników.
  6. Prawdopodobnie nigdy nie doczekamy się, by mieszkańcy akwarium czy stawu przemówili do nas jak bajkowa złota rybka. Wbrew pozorom ryby wcale nie są jednak nieme, a wody wypełniają przedziwne poćwierkiwania, chrząkanie i trzaski. W ten sposób przekazywane są komunikaty o zainteresowaniu płcią przeciwną czy zbliżającym się zagrożeniu. Shahriman Ghazali z Auckland University uważa, że drapieżniki są w stanie namierzyć ofiarę, przechwytując niczym szpieg cudzą rozmowę. Wszystkie ryby mogą słyszeć, ale nie wszystkie potrafią wydawać dźwięki [...], wibrując pęcherzem pławnym. Na 99% jesteśmy pewni, że to rybie dźwięki. W kolejnych eksperymentach Nowozelandczyk zamierza jednak określić kontekst, w jakim pojawiają się różne formy komunikacji. Przede wszystkim wydają się one służyć do wabienia partnerów, odstraszania drapieżników i orientowania się wśród raf. Ostatnia z wymienionych funkcji przypominałaby zatem echolokację nietoperzy. Ghazali łapał ryby i umieszczał je w laboratoryjnych akwariach. Dawał im kilka tygodni na aklimatyzację, a następnie śledził ich poczynania za pomocą hydrofonu i urządzeń wykrywających ruch wody. Dość szybko okazało się, że do najbardziej gadatliwych należą kurki. Wydają one charakterystyczne chrząknięcia i powtarzają swój unikatowy wzorzec "treli" przez cały dzień. Dorsze są z kolei bardzo powściągliwe, wyjątkiem jest okres składania ikry, kiedy to stają się nadzwyczaj wymowne. Naukowcy przypuszczają, że wykorzystują dźwięk jako metodę synchronizacji, by samce i samice jednocześnie uwolniły komórki płciowe, co usprawni zapłodnienie. Latarnikowate (Priacanthidae) specjalizują się w trzaskach, które przypominają nadawanie alfabetem Morse'a. Niestety, złote rybki, czyli fachowo karasie ozdobne (Carassius auratus auratus), nie przemówią nigdy, nawet w Wigilię...
  7. Twórcy filmów wykorzystują chaotyczne, nieprzewidywalne dźwięki, by wywołać w widzach określone emocje, najczęściej strach. De facto napięcie jest budowane dzięki naśladowaniu wokalizacji zdenerwowanych zwierząt. Daniel Blumstein z Uniwersytetu Kalifornijskiego w Los Angeles, który na co dzień zajmuje się okrzykami przedstawicieli rodzaju Marmota, a więc np. suślików, przeanalizował ścieżki dźwiękowe z ponad 100 obrazów, m.in. z Titanica, całej serii Obcych, Zielonej mili, Lśnienia czy Slumdoga. Amerykanin od początku dywagował, że prawdopodobnie u różnych gatunków istnieją uniwersalne zasady rządzące podnieceniem i komunikowaniem strachu. Zgrzytliwych, dysharmonijnych dźwięków, np. płaczu dziecka czy krzyku przerażonego zwierzęcia, nie da się przecież zignorować. Blumstein i zespół analizowali 30-sekundowe urywki z obrazów reprezentujących 4 gatunki: horror, dramat, film przygodowy i wojenny. W horrorach, co zresztą nikogo nie zaskoczyło, pojawiało się wiele ostrych, atonalnych krzyków. W dramatach było ich mniej, kompozytorzy z lubością posługiwali się jednak nagłymi zmianami częstotliwości, która odpowiada wysokości dźwięku. W filmach przygodowych wykorzystywano zaskakująco dużo chrypliwych okrzyków w wykonaniu mężczyzn. Muzykolog James Wierzbicki z Uniwersytetu w Sydney opowiada, że w filmach od dawna wykorzystuje się zniekształcone dźwięki, by zwiększyć dramatyzm. W słynnych Ptakach Hitchcocka okrzyk żywej mewy pojawia się tylko na początku, a potem wszystkie zwierzęce odgłosy są już generowane elektronicznie. Realistyczny krzyk jest trudny do wykonania, dlatego raz utrwalony staje się chodliwym towarem. Z tego powodu jeden mrożący krew w żyłach wrzask – krzyk Wilhelma, nazwany tak od imienia bohatera, który wydał go w westernie z 1953 r. pt. The Charge at Feather River - został wykorzystany w ponad 200 obrazach. Naukowcy ustalili, że w wielu wzbudzających silne emocje scenach filmowych hitów wykorzystuje się naturalną awersję mózgu do nielinearnych dźwięków. Zwierzętom służą one do wyrażania strachu i zdenerwowania. Dźwięki uznaje się za nielinearne, gdy są zbyt głośne w stosunku do normalnego zakresu danego instrumentu bądź ludzkiego/zwierzęcego aparatu głosowego. Nie ma przy tym znaczenia, czy akcentowany moment ma wyrażać smutek, np. gdy główny bohater Forresta Gumpa siedzi na ławce w parku, czy patos rodziny Corleone podczas pogrzebu w Ojcu chrzestnym 2. Prof. Blumstein podkreśla, że poszczególne emocje wiążą się z różnymi rodzajami braku linearności. Wyobraźmy sobie róg. Dmuchamy w niego delikatnie i wydobywa się z niego miły dźwięk. Potem dmuchamy nieco mocniej i wydobywa się głośniejszy, ale nadal przyjemny dźwięk. W pewnym momencie, gdy dmiesz zbyt mocno, dźwięk staje się nieprzewidywalny, zniekształcony i hałaśliwy. To samo dzieje się z ludzkim głosem.
  8. Gdy słuchamy czyichś wypowiedzi, za każdym razem aktywuje się nasz własny układ produkcji mowy. Ma to miejsce bez względu na to, czy staramy się zignorować nadchodzące dźwięki. Psycholodzy z Royal Holloway, University of London uważają, że odkrycie to pomoże usunąć przynajmniej część zaburzeń językowych występujących u dzieci i dorosłych. Jak wyjaśnia profesor Kathleen Rastle, w ramach studium ochotnikom montowano wykonywane na zamówienie akrylowe nakładki podniebienne z czujnikami, które podczas mówienia 100 razy na sekundę dokonywały oceny wzorca kontaktu języka z podniebieniem. Badani mieli na głos odczytywać wydrukowane parawyrazy (np. koob), a w tym czasie słyszeli bardzo podobne słowa wypowiadane przez kogoś innego. Zastanawialiśmy się przede wszystkim, czy uda się zdobyć dowody, że uczestnicy eksperymentu utworzyli programy ruchów zaangażowanych w mowę, zainspirowane sylabami zaburzającymi. Dywagowaliśmy, że jeśli układy motoryczne są aktywowane podczas słuchania mowy, sposób, w jaki sylaby są artykułowane, zostanie zmieniony przez cechy dystraktorów. Okazało się, że wymowa sylab docelowych rzeczywiście dostosowywała się do wymogów artykulacyjnych sylab zaburzających. Podczas wymawiania głoski "k" w "koob" język był bardziej wysunięty ku przodowi, gdy wolontariusze próbowali zignorować słyszany w tle wyraz "toob". Wg Rastle, wyniki sugerują, że u badanych dochodziło do automatycznego uruchomienia programów artykulacyjnych zaburzaczy, choć skutkiem tego było zniekształcenie mowy. Teraz badacze muszą się skoncentrować na wyjaśnieniu zagadnienia, jak [i po co] układ motoryczny oddziałuje na percepcję mowy. Brytyjczycy uważają, że odkrycia ich zespołu tłumaczą, dlaczego nasz akcent ulega zmianie, kiedy się przeprowadzamy lub wyjeżdżamy za granicę. Wtedy zaczynamy brzmieć jak ludzie z nowego otoczenia, choć świadomie wcale nie staramy się tak postępować. Umiejętność ta ma jednak swoje ograniczenia, ponieważ nie jesteśmy w stanie oddać wszystkich słyszalnych niuansów języka obcego. Naukowcy chcą sprawdzić, czemu się tak dzieje.
  9. Z odgłosów wydawanych przez słonie słyszymy tylko niewielką część. Ze względu na ograniczenia naszego aparatu słuchowego nie znamy aż 2/3 gardłowego pomrukiwania. Badacze z zoo w San Diego zajęli się ostatnio funkcją słoniowych infradźwięków. W ramach eksperymentu wyposażyli osiem mieszkających tu samic w specjalne mikrofony i nadajniki GPS. Dzięki temu mogli połączyć dźwięk z tym, co zwierzę w danym momencie robiło. Matt Anderson opowiada, że wszyscy byli bardzo podekscytowani przedsięwzięciem i wierzyli, że w ten sposób uda się zdobyć wiele użytecznych informacji m.in. o wewnętrznej hierarchii stada. Amerykanie stwierdzili już, że po trwającej ponad 20 miesięcy ciąży samice dają reszcie znać, że niedługo urodzą. W ciągu 12 dni przed rozwiązaniem następuje bowiem zmiana w obrębie dźwięków o niskich częstotliwościach. Dr Anderson uważa, że w ten sposób matki proszą też pozostałe osobniki o wypatrywanie drapieżników. Chociaż noworodek jest duży – waży ok. 135 kg – nadal pozostaje bezbronny wobec ataków hien. Ekipa z San Diego dalej analizuje dane. Na kompletne wyniki przyjdzie nam więc jeszcze poczekać.
  10. Dźwięki odtwarzane ludziom pogrążonym w śnie głębokim kierują przebiegiem konsolidacji wspomnień z poprzedniego dnia, ułatwiając przypominanie określonych wiadomości. Dotąd kiedy sprawdzano eksperymentalnie, czy wspomnienia są przetwarzane w czasie snu, koncentrowano się raczej na wypełnionej marzeniami sennymi fazie szybkich ruchów gałek ocznych REM. Naukowcy z Northwestern University wybrali jednak fazę NREM. Zebrali grupę 12 ochotników. Uczyli ich kojarzenia 50 obrazów z wybraną losowo lokalizacją na ekranie komputera. Każdemu obiektowi odpowiadał dźwięk, np. pękający kieliszek sparowano z odgłosem rozbijanego szkła. Próby z przesuwaniem przedmiotu na właściwe miejsce były prowadzone do momentu, aż badani całkiem nieźle radzili sobie z zadaniem. Po ok. 45 min treningu ochotnicy przechodzili do cichego, ciemnego pomieszczenia. Do skóry głowy przyczepiano elektrody. Dzięki nim monitorowano aktywność mózgu, łatwo więc było stwierdzić, czy ktoś śpi. Następnie bez wybudzania wolontariuszy zaczynano odtwarzanie 25 dźwięków. Przeprowadzone po zakończeniu drzemki testy ujawniły, że ludzie pamiętali lepiej od pozostałych lokalizację obiektów od słyszanych w czasie fazy NREM dźwięków. Gdy ich jednak o to pytano, nie wiedzieli, że w czasie odpoczynku cokolwiek się wydarzyło. Śpiąc, ludzie mogą odtwarzać przebieg dnia – co jedli na śniadanie, programy telewizyjne, które zobaczyli itp. Ale to my zdecydowaliśmy, jakie wspomnienia aktywują, nakłaniając ich do powtarzania lokalizacji poznanych godzinę wcześniej – wyjaśnia prof. Ken Paller. Uzyskane przez Amerykanów wyniki rodzą wiele pytań, np. czy aktorzy szybciej opanują rolę, gdy w czasie nocnego wypoczynku będzie im się odtwarzać przez głośniki kwestie? Albo czy niemowlę prędzej nauczy się języka rodziców, jeśli w czasie snu, na który przeznacza dużą część doby, usłyszy opanowywane słówka? Joel L. Voss zastanawia się, czy wspomnienia mogą być równie dobrze zaburzone, jak i wzmocnione. Na razie nie znamy odpowiedzi na żadne z tych pytań.
  11. Zaledwie 5 godzin kontaktu z językiem obcym, a więc innym niż ojczysty język rodziców, pozwala małemu dziecku włączyć charakterystyczne dla niego dźwięki do gaworzenia. Z badań prowadzonych w ciągu ostatniego ćwierćwiecza wynikało, że niemowlęta zaczynają rozumieć mowę rodziców w wieku ok. 6 miesięcy. Do ukończenia 1. roku życia stają się do tego stopnia dostrojone do odbioru niuansów dźwięków określonego rodzaju, że spada ich zdolność odróżniania dźwięków z innych języków. Parę lat temu naukowcy wykazali jednak, że krótkotrwałe wystawienie na oddziaływanie drugiego języka może odwrócić te zmiany. Okazało się bowiem, że po kilkugodzinnym kontakcie z mandaryńskim dzieci z anglojęzycznych domów znów były w stanie odróżnić dźwięki mandaryńskie od angielskich. Lingwistów zastanawiał zupełnie inny problem: czy obsłuchując się z obcym językiem, maluchy zaczną je wykorzystywać we własnych wokalizacjach? Nancy Ward i Megha Sundara z Uniwersytetu Kalifornijskiego w Los Angeles oraz Patricia Kuhl i Barbara Conboy z University of Washington w Seattle wykazały, że jak najbardziej tak. Po 5 godzinach kontaktu z hiszpańskim roczne brzdące włączyły do gaworzenia charakterystyczne dla tego języka dźwięki. W ramach eksperymentu trzynaścioro 1-rocznych dzieci z anglojęzycznych domów bawiło się z hiszpańskojęzycznym pomocnikiem badaczy. W sumie zabawa zajęła 5 godzin, ale czas ten rozdzielono na 30-minutowe sesje, odbywające się na przestrzeni 6 tygodni. Pod koniec nagrano i przeanalizowano kontakty dzieci z rodzicami i eksperymentatorem. Istniały różnice między gaworzeniem – podkreśla Ward. Co ważne, w mowie wszystkich maluchów poza jednym pojawiły się cechy typowe dla hiszpańskiego. Hiszpański zawiera więcej wielosylabowych słów niż angielski. Dzieci starały się to oddać, zmieniając kadencję, czyli intonację opadającą, stanowiącą sygnał zakończenia pewnego odcinka mowy. Różnice w gaworzeniu były bardzo niewielkie. Kiedy nagrania odtworzono osobom anglo- i hiszpańskojęzycznym, nie umiały bez żadnych wątpliwości wskazać, które jest które. Wg Ward, stało się tak, ponieważ ludzie wsłuchiwali się nie w to, co potrzeba. Generalnie mamy tendencję, by rozpoznawać poszczególne języki nie po kadencji, lecz po spółgłoskach i samogłoskach. Tymczasem w wieku 12 miesięcy dźwięki oznaczające samogłoski i spółgłoski są zasadniczo takie same, bez względu na to, jaki jest język ojczysty danego dziecka. Amerykanka wyjawia, że w następnym etapie badań różnice w kadencji zostaną uwydatnione dzięki filtrowi.
  12. O sile oddziaływania oper Ryszarda Wagnera krążyły nie tylko legendy, ale i żarty. Teraz okazuje się, że tekst jest w taki sposób dopasowany do muzyki, by ułatwić zadanie zarówno śpiewakowi, jak i słuchaczom. Nie da się ukryć, że to z pewnością zwiększa siłę przekazu (Journal of the Acoustic Society of America). Naukowcy z Uniwersytetu Nowej Południowej Walii zaznaczają, że w językach europejskich każda samogłoska jest powiązana z określonymi częstotliwościami rezonansowymi aparatu mowy. Zrozumiałość dla odbiorcy i łatwość do wyartykułowania przez śpiewaka mogą wzrosnąć, jeśli wysokość dźwięku dla danej samogłoski będzie korespondować z jej częstotliwością rezonansową – wyjaśnia dr John Smith. Gdyby tak właśnie skonstruowano opery Wagnera, samogłoski otwarte powinny częściej występować przy wysokich dźwiękach z zakresu sopranu – dopowiada profesor Joe Wolfe. Panowie postanowili to sprawdzić, analizując zapis nutowy 9 oper: Kawalera srebrnej róży Richarda Straussa, Pierścienia Nibelunga, Zmierzchu bogów, Zygfryda, Tristana i Izoldy, Walkirii Ryszarda Wagnera, Cyrulika sewilskiego Gioacchino Rossiniego, Così fan tutte i Don Giovaniego Wolfganga Amadeusza Mozarta. Spośród 20 tys. nut wyśpiewywanych przez soprany Australijczycy wybrali te oznaczające samogłoski. W utworach Wagnerowskich samogłoski otwarte były znacznie częściej używane w połączeniu z wysokimi dźwiękami. Tego samego nie można było powiedzieć o operach innych kompozytorów. Wykorzystywanie takiej metody da się wytłumaczyć ideologią stojącą za operami Wagnera. Stanowiły one dramaty muzyczne, w ramach których artyści musieli wypowiadać długie kwestie i komunikować ważne niuanse intrygi tylko za pomocą śpiewanego tekstu. Wcześniej w operach arie i partie chóru przeplatały się z recytacjami oraz odgrywanymi scenami. Śpiew nie musiał być tak bardzo zrozumiały, bo wiele można było wydedukować z innych środków wyrazu. W porównaniu do Mozarta czy Rossiniego, Wagner bardzo rozbudował orkiestrę, skomplikował też partie wokalne. Dopasowanie samogłosek do wysokości dźwięku ułatwiało więc nieco zadanie śpiewaka i pozwalało słuchaczom wyłapać to, co konieczne. Smith zaznacza, że żadne źródło historyczne nie wspomina, by Wagner stosował opisany zabieg. Nie da się jednak ukryć, że im dłużej komponował (rosło więc jego doświadczenie), tym częściej posługiwał się takim dopasowaniem. Australijczycy wskazują na perfekcjonizm Wagnera. Niemiec napisał w ciągu 50 lat tylko 14 oper, podczas gdy jego kolega po fachu Rossini "spłodził" ich w ciągu 7 lat aż 26. Wagner miał też okazję udoskonalić swą metodę łączenia samogłosek i dźwięków, bo do każdej opery osobiście pisał libretto. W języku niemieckim występuje 12 samogłosek. Smith i Wolfe połączyli sposób ich wymawiania z częstotliwością rezonansową; w ten sposób uzyskali następujący podział: samogłoski przymknięte (250-400 Hz), półprzymknięte (400-550 Hz), półotwarte (550-750 Hz) i otwarte (750-1000 Hz).
  13. Osoby szczupłe słyszą inaczej od ludzi muskularnych - wydaje im się, że dźwięk zbliżającego się obiektu jest bliżej niż w rzeczywistości. Wg psychologów, ten błąd percepcyjny daje im pewne korzyści. Owszem, ktoś niewysportowany będzie się stale mylił, ale koszt jest stosunkowo niewielki, a dzięki temu ma się nieoczekiwanie trochę nadmiarowego czasu, by zdecydować, jak postąpić: uciec czy walczyć. Przed przystąpieniem do eksperymentu John Neuhoff, profesor psychologii z The College of Wooster, oraz Katherine Long i Rebecca Worthington z tej samej uczelni ocenili sprawność fizyczną ochotników. Oparli się przy tym na sile uchwytu i tętnie powysiłkowym. Następnie badanym odtwarzano zbliżający się dźwięk. Zadanie polegało na naciśnięciu guzika, gdy przesuwał się on tuż przed nimi. Dziewięćdziesiąt osiem procent wolontariuszy wciskało guzik za wcześnie, ale osoby z silniejszą górną połową ciała i/lub układem sercowo-naczyniowym odczekiwały dłużej, a ludzie chudsi reagowali wcześniej, pozostawiając sobie większy margines bezpieczeństwa. Zarówno to, jak i wcześniejsze studia wykazały, że kobiety wciskają klawisz przed mężczyznami, lecz w przypadku niezagrażających oddalających się dźwięków nie obserwuje się różnic. Neuhoff podkreśla, że poza formą fizyczną, na percepcję dźwięków wpływa co najmniej kilka czynników, np. zdolności w zakresie przestrzennego słyszenia dźwięków, tendencja do podejmowania ryzyka oraz, oczywiście, doświadczenie. Sugeruje też, że tego typu zadania mogą być łatwiejsze dla policjantów z drogówki. Mechanizm leżący u podłoża zaobserwowanego zjawiska nie powinien i prawdopodobnie nie jest ustalony raz na zawsze, co gwarantuje, że po przejściu na inną dietę, wdrożeniu programu ćwiczeń i nabraniu ciała zdolności dotyczące oceny czasu docierania dźwięku się poprawią. W miarę starzenia się guzik jest prawdopodobnie naciskany coraz szybciej, by mieć kiedy zareagować. Neuhoff podejrzewa, że u zwierząt przy ocenie zbliżających się dźwięków bardzo istotne jest, czy dany gatunek to drapieżnik, czy czyjaś ofiara. Dlatego np. wilki będą bardziej akuratne, a króliki zachowają się jak niewysportowani ludzie.
  14. Dzieci z zaburzeniami ze spektrum autyzmu (ASD) inaczej przetwarzają bodźce dźwiękowe i językowe. Badacze ze Szpitala Dziecięcego w Filadelfii wykorzystali metodę zwaną magnetoencefalografią (MEG) i wykryli lekkie opóźnienie fal mózgowych w porównaniu do zdrowych maluchów. MEG to nieinwazyjna technika obrazowania czynności elektrycznej mózgu. Rejestruje pole magnetyczne wytwarzane przez neurony, a konkretnie przez prądy jonowe dendrytów. Maluchy z autyzmem reagują na dźwięk, w tym samogłoski, o ułamek sekundy wolniej niż zdrowe dzieci – podsumowuje dr Timothy Roberts. Jego zespół pracuje nad sygnaturami nerwowymi, które pozwalałyby połączyć mózgowe wzorce aktywności z określonymi zachowaniami. Nasza hipoteza jest taka, że mowa i inne dźwięki pojawiają zbyt szybko dla osób z ASD, a problemy z ich przetworzeniem mogą upośledzać umiejętności społeczno-językowe chorych. Neurolodzy zebrali grupę 64 dzieci w wieku od 6 do 15 lat. U 30 zdiagnozowano kiedyś autyzm, resztę przydzielono do dopasowanej pod względem wieku grupy kontrolnej. Podczas badania ochotnikom prezentowano serię krótkich dźwięków, samogłosek oraz zdań. W porównaniu do zdrowych osób, u maluchów z ASD pojawiły się reakcje opóźnione o 20 milisekund, czyli 1/50 sekundy. Roberts sądzi, że początkowe zaburzenia mogą uruchamiać całą kaskadę opóźnień i w efekcie przeciążenie procesu analizy dźwięku. Gdyby udało się opisać sygnatury neuronalne poszczególnych zaburzeń z kręgu autyzmu, łatwiej byłoby je różnicować na podstawie samego badania magnetoencefalograficznego. Co ważne, diagnozę można by postawić dużo wcześniej niż do tej pory, np. już w niemowlęctwie. W razie wystąpienia w zapisie MEG podobieństw do, dajmy, na to ADHD czy padaczki, specjaliści zyskiwaliby nowe narzędzia do walki z autyzmem – chodzi, oczywiście, o metody stosowane w terapii wymienionych zaburzeń.
  15. Naukowcy z Uniwersytetu Bar-Ilan opracowali nowy sposób oceny zanieczyszczenia wody. Wsłuchują się w odgłosy wydawane przez unoszące się w niej rośliny. Izraelczycy oświetlali promieniem lasera glony, a emitowane przez nie fale dźwiękowe dostarczały informacji na temat stopnia i rodzaju zanieczyszczenia. Glony jako pierwsze wskazują na zmiany zachodzące w jakości wody – przekonuje biolog Zvy Dubinsky. Zasoby wody pitnej na Ziemi powoli się kurczą, dlatego też badanie alg może być tańszą, szybszą i dokładniejszą metodą oceny jej zdatności do spożycia niż te stosowane dotąd. Izraelczyk wyjaśnia, że stworzone przez niego prototypowe urządzenie mierzy nasilenie fotosyntezy. Próbki wody z glonami oświetla się laserem. W ten sposób prowokuje się rośliny do przeprowadzania fotosyntezy. Nie zużywają one jednak całego ciepła, część "mocy" powraca do wody w postaci fal dźwiękowych. Ich parametry zależą od kondycji alg i nasilenia fotosyntezy. Wystarczy więc skorzystać z zanurzonego w wodzie mikrofonu i wszystko staje się jasne... Glony cierpiące z powodu zanieczyszczenia ołowiem, który pochodzi np. ze zużytych baterii czy fabryk farb, emitują odmienne dźwięki niż rośliny narażone na niedobory żelaza czy wystawione na oddziaływanie innych toksyn – wyjaśnia Yulia Pinchasov. Jeśli Izraelczykom uda się zebrać odpowiednie fundusze, gotowe urządzenie trafi do sprzedaży w ciągu 2 lat.
  16. Profesor Robert Dooling z University of Maryland i jego dwuosobowy zespół wydedukowali, co mogły słyszeć dinozaury. Opierając się na wiedzy na temat budowy ptasiego ucha, doszli do wniosku, że wymarłe wiele milionów lat temu gady odbierały dźwięki o niskiej częstotliwości, np. odgłosy kroków innego ciężkiego dinozaura, ale już nie dźwięki o wysokiej częstotliwości. Dinozaury i archozaury (gady naczelne, Archosauria) cechuje podobna budowa ucha. Do archozaurów zaliczamy m.in. ptaki i krokodyle. Porównując strukturę uszu i odnosząc do tego ogólne zasady słyszenia, naukowcy uzyskali zakres dźwięków słyszanych przez zwierzęta sprzed 65 mln lat. Dooling twierdzi, że dinozaury słyszały podobnie jak niektóre współczesne duże ssaki, np. słonie. Ogólna zasada jest taka, że zwierzęta mogą słyszeć dźwięki, które same wydają. Dinozaury prawdopodobnie doskonale odbierały odgłosy kroków innych dinozaurów. Słonie słyszą, nawet z dużych odległości, bardzo niskie infradźwięki, generowane podczas chodzenia przez inne osobniki swojego gatunku. Analizując budowę ucha różnych gromad, naukowcy brali pod uwagę strukturę zwaną błoną podstawną, oddzielającą podstawy komórek nabłonkowych od położonej poniżej tkanki łącznej. U stosunkowo lekkich ptaków jest ona niewielka, a u dinozaurów dużo większa. Mniejsze zwierzęta lepiej słyszą i wydają dźwięki o wyższych częstotliwościach, a olbrzymy dokładnie na odwrót. Niewielkie i lekkie narządy głosowe łatwiej przełączyć na emitowanie dźwięków o wysokiej częstotliwości niż struktury duże i ciężkie. Zużywa się przy tym o wiele mniej energii. Zakres dźwięków słyszanych przez dinozaury kończył się mniej więcej na 3 kHz. Dla porównania, psy i sporo innych ssaków słyszy ultradźwięki o częstotliwości przekraczającej 20 kiloherców. To zakres niedostępny dla archozaurów, ale i dla człowieka. Zakres słyszenia wysokich dźwięków był w przypadku dinozaurów nawet bardziej ograniczony niż charakterystyczny dla nas, ludzi. Dooling stwierdza też, że porównywanie starszych ludzi do dinozaurów przypadkowo jest bardzo prawdziwe. W miarę upływu lat nasze słyszenie zaczyna bowiem coraz bardziej przypominać to charakterystyczne dla pradawnych gadów. "Wypada" cała gama wysokich tonów, pozostają tylko te niższe.
  17. Melody Road to ciekawy japoński pomysł, który może się przysłużyć zarówno bezpieczeństwu na drodze, jak i zapewnić rozrywkę kierowcom. Na pasie jezdni są wyrysowane kolorowe nutki. Podczas przejeżdżania po nich generowany jest dźwięk o różnej wysokości. Uzyskuje się go dzięki przebiegającym w poprzek szosy rowkom. Im gęściej są one rozmieszczone, tym wyższą nutę odtworzy nasz samochód. Aby uzyskać najlepszą jakość dźwięku, należy rozwinąć prędkość ok. 45 km/h. Z jednej strony powściąga to zakusy piratów drogowych, z drugiej – skłania wlokących się niemiłosiernie niedzielnych kierowców do przyspieszenia. Melodyjne Drogi skonstruowano w Kraju Kwitnącej Wiśni w 3 miejscach: na Hokkaido, w Wakayamie oraz Gunmie.
  18. Odtwarzacz MP3 z wbudowanym mikrofonem może pewnego dnia zastąpić stetoskop. Neil Skjodt z Wydziału Medycyny Uniwersytetu w Albercie i audiolog Bill Hodgetts przekonują, że dzięki niemu można lepiej usłyszeć i nagrać dźwięki związane z chorobami układu oddechowego, a odpowiednie pliki przechowywać na komputerze, tworzyć cyfrowe biblioteki oraz w razie potrzeby udostępniać je innym specjalistom. Wystarczy przyłożyć mikrofon bezpośrednio do klatki piersiowej. Jakość i czystość głośnych dźwięków była lepsza od tej, jaką kiedykolwiek uzyskałem dzięki stetoskopowi – powiedział w poniedziałek (17 września) Skjodt na dorocznej konferencji European Respiratory Society's (ERS) w Sztokholmie. Pliki MP3 przegrywa się potem na komputer i przekształca w zapis zakresu częstotliwości. Analiza komputerowa potwierdziła, że w każdym nagraniu występują charakterystyczne (jedyne w swoim rodzaju) cechy. Czasem jednak nawet komputer z trudem radził sobie z przetwarzaniem dźwięku. Działo się tak, gdy odgłosy oddechu były ciche lub wyjątkowo złożone. Zanim wpadli na pomysł eksperymentu, Skjodt i Hodgetts zauważyli, że wielu lekarzy ma problem z wychwyceniem i odpowiednią interpretacją dźwięków. Jedno z badań ujawniło nawet, że studenci medycyny musieli ich wysłuchać do 500 razy, zanim udawało im się stwierdzić, co słyszeli. Stetoskop towarzyszy lekarzom już od 200 lat. Jednak nawet najlepszy współczesny model wypada blado przy odtwarzaczu MP3 – podkreśla Skjodt.
  19. Naukowcy opracowali program, który pozwala na rozpoznawanie gatunku delfina tylko na podstawie wydawanych przez niego dźwięków. W ten sposób będzie można rzetelniej ocenić szkody spowodowane przez rybołówstwo. Julie Oswald z Scripps Institution of Oceanography w San Diego wyjaśnia, że obecnie zwierzęta najczęściej obserwuje się z łodzi, a przecież ssaki morskie spędzają większość czasu poza zasięgiem ludzkiego wzroku pod wodą. Ekipa badaczy może ich więc po prostu nie zauważyć. Poza tym niektóre gatunki są, według niej, "nieśmiałe" i nie zbliżają się do łodzi. Delfiny wydają wiele różnych dźwięków, m.in. mlaśnięcia i pogwizdywania. Większość z nich oscyluje w graniach 2-30 kiloherców, ale każdy gatunek generuje określone kombinacje częstotliwości. Biolodzy opuszczają do wody mikrofon, który przekazuje wyłapane dźwięki do pokładowego komputera. Oprogramowanie porównuje je z dźwiękami z bazy danych. Podczas testów z 80-proc. trafnością udało się zidentyfikować 8 gatunków delfinów (Journal of the Acoustical Society of America).
  20. Naukowcy zaobserwowali, że delfiny mieszkające u wybrzeży Walii posługują się odmiennym dialektem niż ich pobratymcy żyjący w wodach zachodniej Irlandii. "Dialekty" występują także u innych gatunków zwierząt, chociażby u krów. Według Simona Berrowa z Shannon Dolphin and Wildlife Foundation, różne warunki środowiskowe mogą się przyczyniać do powstawania jedynych w swoim rodzaju zestawów wokalizacji. Berrow opiniował pracę Ronana Hickeya, studenta z Uniwersytetu Walijskiego w Bangor, który przeanalizował aż 1882 pogwizdywania zwierząt z ujścia rzeki Shannon oraz delfinów butlonosych zamieszkujących zatokę Cardigan. Wyodrębnił 32 kategorie dźwięków, 8 z nich występowało tylko u ssaków z wód Shannon. W przyszłości być może powstanie słownik języka delfinów.
  21. Granie na instrumentach wspomaga działanie mózgu oraz polepsza słyszenie wszystkich rodzajów dźwięków, w tym mowy. Doświadczenie muzyczne wydaje się pomagać w innych dziedzinach życia, przenosząc się na takie czynności, jak czytanie, wychwytywanie niuansów w tonie głosu czy lepsze słyszenie dźwięków w rozsadzanej hałasem klasie — wyjaśnia Nina Kraus, neurolog z Northwestern University. Według niej, opisane odkrycie uzasadnia zachowanie lekcji muzyki w szkolnym programie nauczania. Kiedy trzeba jakoś sprostać wymogom budżetu, jako pierwsze "obcina się" właśnie lekcje muzyki. A to duży błąd. W eksperymencie wzięło udział 20 dorosłych wolontariuszy. Oglądali wybrany przez siebie film. Największą popularnością cieszyły się ponoć obrazy Faceci w czerni, Iniemamocni oraz Medal dla miss. Połowa badanych przez co najmniej 6 lat uczyła się gry na jakimś instrumencie, a nauka rozpoczęła się, zanim skończyli 12 lat. Edukacja muzyczna pozostałych nie trwała dłużej niż 3 lata. Dla wszystkich językiem ojczystym był angielski, nigdy też nie uczyli się mandaryńskiego. Podczas seansu badani słyszeli w tle słowa pochodzące właśnie z mandaryńskiego. Brzmiały jak "mi" i miały głośność zwykłej rozmowy. Język mandaryński jest językiem tonalnym, można w nim wyróżnić 4 tony: wysoki (yīnpíng), wznoszący (yángpíng), opadająco-wznoszący (shǎngshēng) i opadający (qùshēng). W związku z tym jednakowo zapisywany wyraz może mieć kilka różnych znaczeń, w zależności od zastosowanego tonu. Mi w tonie wysokim oznacza "mrugać", "zezować", w tonie wznoszącym "zbijać z tropu", "dezorientować", a w tonie opadająco-wznoszącym "ryż". Przez cały czas monitorowano aktywność mózgu. Pomimo że uwaga wolontariuszy koncentrowała się na filmie, a dźwięki nie miały dla nich znaczenia językowego ani muzycznego, osoby dłużej grające na instrumencie osiągały lepsze wyniki w odróżnianiu od siebie 3 tonacji mandaryńskiego — opowiada Patrick Wong z Northwestern University. Zjawisko to występuje w mniejszym lub większym stopniu u zwykłych ludzi. Nie trzeba być wybitnym muzykiem, by umieć to robić. Zmiany zachodzące pod wpływem muzyki dokonywały się w pniu mózgu, który zawiaduje m.in. oddychaniem czy biciem serca. Zawsze sądzono, że jest ona domeną kory mózgowej, a pień uznawano za twór niezmienny i niezaangażowany w skomplikowane procesy konieczne do gry na instrumencie (Nature Neuroscience). Sądzimy, że muzyka uruchamia wyższe funkcje zlokalizowane w korze, które z kolei zmieniają pień mózgu. W dalszej kolejności Kraus chce znaleźć odpowiedzi na kolejne pytania: 1) w jakim wieku należy zacząć trening, 2) czy poprzez naukę muzyki można pomóc dzieciom z zaburzeniami czytania oraz pisania i wreszcie 3) ile lat trzeba mieć, by dało się zauważyć efekty.
  22. Już dawno wykazano, że każda z półkul mózgu specjalizuje się w innych funkcjach. Lewa zawiaduje językiem, prawa wiąże się z przetwarzaniem muzyki. Istnieją jednak języki, w których naturę wpisana jest muzyka, składa się bowiem na nie szeroka gama dźwięków. Do takich języków należy na przykład mandaryński. Fan-Gang Zeng z UC Irvine (UCI) oraz grupa chińskich naukowców przestudiowali skany mózgu osób słuchających mandaryńskiego. Odkryli, że prawa półkula analizuję melodię języka, zanim lewa półkula przetworzy znaczenie niesionej przez niego informacji. Wyniki badania unaoczniły, że proces przetwarzania języka jest bardziej złożony niż wcześniej sądzono. Dostarczyły też wskazówek, dlaczego osoby używające aparatów słuchowych mogą mieć trudności ze zrozumieniem dialektu mandaryńskiego. Studium opisano w internetowym wydaniu pisma Proceedings of the National Academy of Sciences. W angielskim zmiany w intonacji odróżniają od siebie zdania w trybie oznajmującym, rozkazującym i pytającym. Pozwalają też oddać nastrój mówiącego. Nie zmieniają natomiast znaczenia wypowiadanych słów. Inaczej jest w mandaryńskim, gdzie zmiana intonacji pociąga za sobą zmianę znaczenia słowa — tłumaczy Zeng, profesor otolaryngologii, inżynierii biomedycznej, anatomii i neurobiologii. Większość implantów ślimakowych nie rejestruje dźwięków z szerokich zakresów, stąd też ich użytkownicy nie mogą się w pełni cieszyć muzyką lub zrozumieć języków tonicznych. W swoim laboratorium słyszenia i mowy na UCI Zeng ulepszył implanty ślimakowe. Odkrył, że dzięki usprawnieniu technologii wykrywania modulacji częstotliwości fal można w znaczny sposób poprawić jakość pracy urządzenia. Osoby niedosłyszące będą mogły czerpać więcej radości ze słuchania muzyki i lepiej rozumieć kogoś mówiącego np. po mandaryńsku lub japońsku.
×
×
  • Dodaj nową pozycję...