Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' mowa'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 6 results

  1. Wiele zwierząt potrafi wychwycić wzorce w ludzkiej mowie. Okazuje się jednak, że szczególnie dobrze radzą sobie z tym psy. Na łamach NeuroImage ukazało się omówienie badań sugerujących, że psy potrafią odróżnić mowę od udających ją dźwięków, ich mózgi przetwarzają to, co mówimy nawet, gdy nie wypowiadamy ich ulubionych słów, potrafią też rozróżniać języki. Cztery lata temu neurolodzy LauraCuaya i Raúl Hernández-Pérez przeprowadzili się z Meksyku do Budapesztu, zabierając ze sobą dwa owczarki border collie oraz kota. Na miejscu zwrócili uwagę na to, w jak odmiennym otoczeniu dźwięków się znaleźli. Język węgierski brzmi przecież zupełnie inaczej niż hiszpański. Uczeni, którzy na Uniwersytecie Loránda Eötvösa w Budpeszcie pracują w grupie zajmującej się ewolucją postrzegania mowy u ssaków, zaczęli zastanawiać się, czy ich psy również widzą różnicę. Już w 2016 roku grupa wykazała, że podczas rozpoznawania znaczenia słów u psów dochodzi do aktywowania innych szlaków neuronowych niż podczas rozpoznawania zmian emocjonalnych w intonacji. Nie wiadomo było jednak, czy psy potrafią odróżnić mowę od niewiele różniących się dźwięków nie tworzących dłuższych ciągów wyrazowych. Nie wiadomo też było, czy zwierzęta są w stanie odróżnić od siebie języki. Na potrzeby badań wykorzystano 18 psów, w tym oba wspomniane wcześniej border collie. Każdy z psów był zaznajomiony z językiem węgierskim lub hiszpańskim, ale nie z oboma. Wszystkie też nauczono nieruchomego leżenia w maszynie do funkcjonalnego rezonansu magnetycznego (fMRI). Psom założono słuchawki tłumiące odgłosy z zewnątrz i puszczano im „Małego księcia” po hiszpańsku lub węgiersku. Okazało się, że pod wpływem mowy aktywowały się te same obszary mózgów zwierząt, ale różne były wzorce aktywacji. Zależały one od tego, czy pies słyszał znany sobie język, czy też język mu obcy. To zaś sugeruje, że psy zauważają i przetwarzają różnice pomiędzy językami. Następnie naukowcy postanowili sprawdzić, czy psy reagują na cechy charakterystyczne obu języków. Innymi słowy, czy wyłapują zmiany w sposobie wypowiedzi – np. w węgierskim akcentowana jest pierwsza sylaba, w hiszpańskim akcentowana jest przedostatnia lub ostatnia sylaba – czy też reagują na podstawowe różnice akustyczne, jak np. zmiany tonu zachodzące przy innym wymawianiu samogłosek. Testy wykonano odtwarzając poprzednie nagrania, które jednak przetworzono tak, by jedynie brzmiały jak węgierski lub hiszpański, a w rzeczywistości był to nic nieznaczący zbiór dźwięków. Obrazowanie fMRI pokazało inne wzorce aktywizacji mózgu gdy psy słyszały prawdziwą mowę, a inne gdy były to dźwięki udające mowę. Naukowcy nie są jednak w tej chwili stwierdzić, czy zwierzęta rzeczywiście odróżniały mowę od nic nieznaczących dźwięków, czy też różnica była spowodowana reakcją na naturalnie brzmiący dźwięk, czyli mowę. Co jednak znaczące, nie zauważono różnicy we wzorcach aktywacji gdy psom puszczano bełkot udający język węgierski i bełkot udający język hiszpański. Wskazuje to, że reakcja mózgów psów nie była wywołana po prostu zmianami tonów czy akcentów. Badania te pokazują, że psy potrafią odróżniać od siebie różne języki oraz odróżniają prawdziwą mowę od dźwięków ją naśladujących. Po raz pierwszy wykazaliśmy, że mózg innego gatunku niż H. sapiens jest w stanie odróżnić od siebie języki, mówi Cuaya. Uczona dodaje, że co prawda wiemy, iż inne zwierzęta można wytrenować tak, by słyszały różnice pomiędzy ludzkimi językami, jednak psy potrafią to bez treningu. To naprawdę bardzo dobre badania nad postrzeganiem mowy przez psy, mówi Root-Gutteridge z University of Lincoln w Wielkiej Brytanii. Niezwykle interesującą rzeczą jest tutaj fakt, że ludzie i psy to dwa bardzo różne gatunki. Ale jest pewien ewolucyjny punkt, który je łączy. Oba gatunki mają do czynienia z bardzo złożonym środowiskiem społecznym, dodaje Hernández-Pérez. I pomimo różnic w budowie mózgu, u obu gatunku wyewoluowały mechanizmy wykrywania zmian w schematach ludzkiej mowy. W przyszłości kolejne badania mogą wykazać, czy taka zdolność do odbierania mowy człowieka wyewoluowała u psów dlatego, że od tysiącleci są z nam związane, czy też jest to bardziej ogólna – i być może powszechna – zdolność. « powrót do artykułu
  2. Pierwsza formalna analiza „gaworzenia” młodych nietoperzy pokazała, że proces ten jest podobny do gaworzenia ludzkich niemowląt. Zdaniem autorów badań, naukowców z Muzeum Historii Naturalnej w Berlinie, badanie tego zjawiska może rzucić interesujące światło na pochodzenie ludzkiego języka. Niemieccy naukowcy prowadzili badania na kieszenniku dwupręgim (Saccopteryx bilineata). W artykule opublikowanym na łamach Science informują, że „gaworzenie” młodych nietoperzy zawiera osiem tych samych cech charakterystycznych, jakie znajdujemy w gaworzeniu niemowląt, w tym imitację najważniejszych sylab i rytmu. Nie można zatem wykluczyć, że jest to cecha, którą dzieli więcej gatunków ssaków. To fascynujące, że możemy obserwować tak daleko idące podobieństwa w uczeniu się wokalizacji u młodych dwóch różnych gatunków saków. Nasze badania poszerzają wiedzę na interdyscyplinarnym polu biolingwistyki, która bada biologiczne podstawy ludzkiej mowy i jej ewolucję. Prace nad nauką wokalizacji u nietoperzy mogą dostarczyć kolejnych informacji, dzięki którym lepiej zrozumiemy początki pojawienia się języka, mówi doktor Mirjam Knörnschild. Gaworzenie pozwala dzieciom, niezależnie od kultury i języka, nauczyć się kontroli aparatu mowy. Możliwość artykułowania w czasie gaworzenia tak istotnych sylab jak „ma” czy „da” jest niezbędne do nauki języka, a odpowiedni dla wieku rodzaj gaworzenia to wskaźnik rozwoju dziecka, zauważają badacze. Badanie tego zjawiska u innych gatunków jest jednak trudne, a gaworzenie opisano dotychczas niemal wyłącznie u ptaków. To jednak znacznie ogranicza możliwość badania gaworzenia, gdyż ludzie i ptaki znacznie różnią się zarówno pod względem anatomii – ludzie posiadają krtań, ptaki zaś krtań dolną – jak i pod względem organizacji mózgu. Na potrzeby najnowszych badań uczeni przyjrzeli się „gaworzeniu” 20 młodych Saccopteryx bilineata w ich naturalnym środowisku w Panamie i Kostaryce.  Zwierzęta zaczęły „gaworzyć” w ciągu pierwszych trzech tygodni po urodzeniu i gaworzyły do czasu osiągnięcia 10. tygodnia życia. Wydawane przez nie dźwięki składały się z protosylab i sylab podobnych do tych, jakimi posługiwały się dorosłe. Nietoperze starały się naśladować dorosłe osobniki. W laboratorium, podczas szczegółowych analiz nagranych dźwięków, naukowcy zauważyli, że „gaworzenie” małych nietoperzy charakteryzuje te same 8 cech, widocznych również u niemowląt. Na przykład jedną z cech charakterystycznych dźwięków wydawanych przez małe nietoperze było wielokrotne powtarzanie tych samych sylab, co jest podobne do niemowlęcego „da, da, da, stwierdzają naukowcy. Ponadto wśród nietoperzy „gaworzą” zarówno samce jak i samice. Tymczasem u ptaków zjawisko to zaobserwowano wyłącznie u samców. U nietoperzy niezróżnicowane protosylaby mogą być odpowiednikiem prekursorów mowy u ludzkich niemowląt, u których słyszymy dźwięki rzadko występujące w mowie, natomiast sylaby, podobne do dźwięków wydawanych przez dorosłe osobniki, mogą odpowiadać ludzkim w pełni rozwiniętym sylabom, które wymawia niemowlę, a których struktura w oczywisty sposób odpowiada strukturze sylab w rozwiniętej mowie, czytamy w opublikowanym artykule. « powrót do artykułu
  3. Neandertalczycy byli zdolni do rozumienia mowy, wynika z badań przeprowadzonych przez multidyscyplinarny zespół naukowy, w skład którego wchodził m.in. profesor antropologii Rolf Quam z Binghamton University. To jedne z najważniejszych badań w moim życiu. Ich wyniki jasno pokazują, że neandertalczycy mieli wszystko, co potrzebne, by rozumieć ludzką mowę. Ewolucja języka i zdolności językowe neandertalczyków wciąż stanowią zagadkę. Od dziesięcioleci jednym z kluczowych zagadnień dotyczących komunikacji jest pytanie o to, czy inne gatunki człowieka, szczególnie neandertalczycy, również posługiwały się językiem mówionym, mówi współautor badań, profesor Juan Luis Arsuaga z Universidad Complutense de Madrid. Naukowcy wykonali obrazowanie tomograficzne, na podstawie którego stworzyli wirtualne trójwymiarowe modele struktur ucha H. sapiens i H. neanderthalensis. Następnie sprawdzali, czy struktura ucha pozwalała odbierać dźwięki do częstotliwości 5 kHz. To zakres obejmujący większość dźwięków wydawanych przez mówiącego człowieka. Wyniki porównano z podobnym badaniem przeprowadzonym na szczątkach ze stanowiska archeologicznego w Atapuerca. Znaleziono tam m.in. niemal kompletną czaszkę H. heidelbergensis. Okazało się, że w zakresie 4-5 kHz neandertalczycy słyszeli nieco lepiej, bardziej przypominając H. sapiens, niż ich przodkowie. Naukowcom udało się też wyliczyć zakres częstotliwości dla największej czułości ucha badanych gatunków człowieka. Im większy jest ten zakres, tym więcej łatwo rozróżnialnych dźwięków można słyszeć, a zatem i używać. Także i pod tym względem neandertalczycy bardziej przypominali człowieka współczesnego niż swoich przodków. To kluczowy element. Możliwość odbierania podobnych bodźców słuchowych, szczególnie zaś podobieństwo zakresu częstotliwości dla największej czułości słuchu, wskazuje, że neandertalczycy posiadali system komunikacyjny, który był równie wydajny i złożony, co system człowieka współczesnego, wyjaśnia profesor Mercedes Conde-Valverde z Universidad de Alcala. Wiemy zatem, że neandertalczycy mieli większe niż ich przodkowie możliwości odbierania dźwięków z zakresu odpowiadającej mowie H. sapiens. Wiemy też, że wykazywali bardziej złożone zachowania społeczne i wytwarzali bardziej zaawansowane narzędzia niż wcześniej istniejące gatunki człowieka. Sądzimy, że – po niemal stu latach badań na tym polu – można obecnie jednoznacznie stwierdzić, że neandertalczycy byli w stanie posługiwać się mową, dodaje Ignacio Martinez z Universidad de Alcala. Ze szczegółami badań można zapoznać się na łamach Nature. « powrót do artykułu
  4. Ludzie nie są jedynymi zwierzętami zdolnymi do identyfikowania złożonych struktur występujących w języku. Potrafią to też inne człowiekowate oraz pozostałe małpy, wynika z badań przeprowadzonych na Uniwersytecie w Zurychu. Uczeni z Wydziału Językoznawstwa Porównawczego posłużyli się serią eksperymentów bazujących na „sztucznej gramatyce”, by stwierdzić, że zdolność do rozumienia struktur gramatycznych pochodzi on naszego wspólnego przodka, który żył przed dziesiątkami milionów lat. Język to jedno z najpotężniejszych narzędzi, jakimi dysponuje ludzkość. To on pozwala nam na dzielenie się informacjami, kulturą, pomysłami czy technologią. Jeśli chcemy zrozumieć, co oznacza być człowiekiem, musimy poznać ewolucję języka, mówi Stuart Watson z Uniwersytetu w Zurychu. Międzynarodowy zespół naukowy pracujący pod kierunkiem profesora Simona Townsenda z Zurychu rzucił właśnie nowe światło na ewolucję języka. Naukowcy badali jeden z najważniejszych elementów poznawczych potrzebnych do rozumienia języka, czyli możliwość zrozumienia związku pomiędzy wyrazami w zdaniu, nawet jeśli nie sąsiadują one ze sobą. Na przykład gdy słyszymy zdanie „pies, który ugryzł kota, uciekł” wiemy, że uciekł pies, a nie kot. I wiemy to, pomimo, że wyrazy „pies” oraz „uciekł” są od siebie oddzielone innymi wyrazami. Teraz porównanie pomiędzy ludźmi, pozostałymi człowiekowatymi oraz pozostałymi małpami wykazało, że zdolność do rozumienia związku pomiędzy oddalonymi od siebie wyrazami pochodzi sprzed 40 milionów lat. Uczeni przeprowadzili swój eksperyment w nowatorski sposób. Opracowali sztuczną gramatykę, w której znaczenia tworzy się łącząc różne dźwięki, a nie słowa. Pozwoliło to na porównanie zdolności trzech różnych gatunków naczelnych do rozumienia zależności, które nie następują po sobie. Na Uniwersytecie w Zurychu badano uistiti białouche, naukowcy z University of Texas badali szympansy, a na Uniwersytecie w Osnabrück prowadzono eksperymenty z udziałem ludzi. Najpierw wszystkie trzy gatunki badanych małp były uczone nowej gramatyki. Uczono je np. że pewne dźwięki zawsze występują po innych. Na przykład po dźwięku „a” zawsze pojawiał się dźwięk „b”, nawet gdy czasem oddzielały je inne dźwięki. To symulowało ludzki język, w którym spodziewamy się, że po rzeczowniku (np. „pies”) nastąpi czasownik (np. „uciekł”), niezależnie od tego, że pomiędzy nimi były inne wyrazy (np. „który ugryzł kota”). Gdy już badani nauczyli się zasad gramatycznych, naukowcy odtwarzali dźwięki, które naruszały wyuczone wcześniej zasady. Okazało się, że w takim przypadku doszło do zmiany zachowania marmozet i szympansów. Patrzyły one na głośnik dwukrotnie dłużej niż wówczas, gdy zasady „dźwiękowej gramatyki” były poprawne. Ludzi wprost pytano, czy odtworzona sekwencja dźwięków była prawidłowa czy też nie. Badanie pokazuje, że wszystkie trzy gatunki są w stanie przetwarzać niesąsiadujące zależności. Prawdopodobnie to zdolność, która jest rozpowszechniona wśród naczelnych. To zaś wskazuje, że ten kluczowy element języka istniał już u ostatniego wspólnego przodka badanych gatunków, mówi profesor Townsend. Ostatni wspólny przodek marmozet i człowieka żył zaś przed około 40 milionami lat. « powrót do artykułu
  5. Włosi to jedni z najszybszych mówców na Ziemi. Wymawiają oni nawet do 9 sylab w ciągu sekundy. Na drugim biegunie znajduje się wielu Niemców, którzy w ciągu sekundy wymawiają 5-6 sylab. Jednak, jak wynika z najnowszych badań, średnio w ciągu minuty i Niemcy i Włosi przekazują tę samą ilość informacji. Okazuje się, że niezależnie od tego, jak szybka jest wymowa danego języka, średnie tempo przekazywania informacji wynosi 39 bitów na sekundę. To około 2-krotnie szybciej niż komunikacja za pomocą alfabetu Morse'a. Językoznawcy od dawna podejrzewali, że te języki, które są bardziej upakowane informacją, które w mniejszych jednostkach przekazują więcej danych na temat czasu czy płci, są wymawiane wolniej, a takie, które przekazują mniej tego typu danych, są wymawiane szybciej. Dotychczas jednak nikomu nie udało się tego zbadać. Badania nad tym zagadnieniem rozpoczęto od analizy tekstów pisanych w 17 językach, w tym w angielskim, włoskim, japońskim i wietnamskim. Uczeni wyliczyli gęstość informacji w każdej sylabie dla danego języka. Okazało się, że na przykład w języku japońskim, w którym występują zaledwie 643 sylaby, gęstość informacji wynosi nieco około 5 bitów na sylabę. W angielskim z jego 6949 sylabami jest to nieco ponad 7 bitów na sylabę. W ramach kolejnego etapu badań naukowcy znaleźli po 10 użytkowników (5 mężczyzn i 5 kobiet) 14 z badanych języków. Każdy z użytkowników na głos czytał 15 identycznych tekstów przetłumaczonych na jego język. Naukowcy mierzyli czas, w jakim tekst zostały odczytane i liczyli tempo przekazywania informacji. Uczeni wiedzieli, że jedne języki są szybciej wymawiane od innych. Gdy jednak przeliczyli ilość przekazywanych informacji w jednostce czasu zaskoczyło ich, że dla każdego języka uzyskali podobny wynik. Niezależnie od tego, czy język był mówiony szybko czy powoli, tempo przekazywania informacji wynosiło około 39,15 bitów na sekundę. Czasem interesujące fakty ukrywają się na widoku, mówi współautor badań, Francois Pellegrino z Uniwersytetu w Lyonie. Lingwistyka od dawna zajmowała się badaniem takich cech języków jak np. złożoność gramatyczna i nie przywiązywano zbytnio wagi do tempa przekazywania informacji. Rodzi się pytanie, dlaczego wszystkie języki przekazują informacje w podobnym tempie. Pellegrino i jego zespół podejrzewają, że odpowiedź tkwi w naszych mózgach i ich zdolności do przetworzenia informacji. Hipoteza taka znajduje swoje oparcie w badaniach sprzed kilku lat, których autorzy stwierdzili, że w amerykańskim angielskim górną granicą przetwarzania informacji dźwiękowych jest 9 sylab na sekundę. Bart de Boer, lingwista ewolucyjny z Brukseli, zgadza się, że ograniczenie tkwi w mózgu, ale nie tempie przetwarzania informacji, ale w tempie, w jakim jesteśmy w stanie zebrać własne myśli. Zauważa on bowiem, że przeciętna osoba może wysłuchiwać mowy odtwarzanej z 20-procentowym przyspieszeniem i nie ma problemu z jej zrozumieniem. Wąskim gardłem jest tutaj złożenie przekazywanych danych w całość, mówi uczony. « powrót do artykułu
  6. W ramach prowadzonego przez Pentagon projektu Non-Lethal Weapons Program powstały... gadające kule plazmy. Naukowcy pracujący przy projekcie Laser Induced Plasma Effect wykorzystują lasery do zadawania bólu bez wywoływania oparzeń, generowania silnych dźwięków i rozbłysków oraz wydawania poleceń głosowych na odległość. Wykorzystywane promienie lasera mogą przejść przez szyby budynku, jednak nie penetrują jeszcze innych ciał stałych. Technologia znajduje się w początkowej fazie rozwoju. W przyszłości ma ona posłużyć ochronie baz wojskowych, różnego typu instalacji czy innych stałych elementów. Nie można jednak wykluczyć, że po opracowaniu odpowiedniego źródła zasilania urządzenia będzie można montować na samochodach i np. wykorzystywać je do kontroli tłumów czy ochrony konwojów. Podczas ostatniej rundy testów specjaliści skupili się na generowaniu ludzkiej mowy za pomocą lasera. Pomysł polega na wytworzeniu plazmy za pomocą jednej wiązki lasera, a następnie na potraktowaniu plazmy kolejnymi wiązkami tak, by wprawić ją w drgania o odpowiedniej częstotliwości i wygenerować ludzką mowę. Właśnie udało się to osiągnąć w warunkach laboratoryjnych. Dave Law, główny naukowiec w Non-Lethal Wapons Directorate mówi, że kolejnym celem jest wygenerowanie gadającej plazmy w laboratorium w odległości 100 metrów od laserów, później naukowcy będą chcieli przeprowadzić podobny eksperyment, ale na odległości liczonej w kilometrach. Law optymistycznie patrzy w przyszłość nowej technologii. Głównym problemem było bowiem opracowanie i dostrojenie algorytmu generującego mowę. Gdy już go rozwiązano, odległość przestaje być przeszkodą. Można to zastosować wszędzie. Odległość nie robi różnicy. Wystarczy wygenerować plazmę w pobliżu celu, modulować ją i wytworzyć mowę, mówi uczony. Jego zdaniem w ciągu 5 lat technologia będzie już na tyle dojrzała, że będzie można wyposażyć w nią oddziały wojskowe. Co więcej, ta sama technologia może zostać użyta jeszcze na dwa inne sposoby. Można za jej pomocą uzyskać efekt granatu hukowego. Pozwala bowiem na niemal nieprzerwane generowanie impulsów dźwiękowych o głośności 155 decybeli w pobliżu wyznaczonego celu. To znaczny postęp w porównaniu z granatem hukowym, który generuje maksymalnie dwa impulsy. Po drugie pozwala ona, za mocą bardzo krótkich impulsów laserowych, wytworzyć niewielką kulkę plazmy i skierować ją, przez ubranie, na skórę człowieka. Plazma wyżłobi w skórze miniaturowy otwór, zbyt mały by mówić o uszkodzeniu skóry, ale wystarczający, by wywołać odczucia bólowe. Można więc w ten sposób powstrzymywać napastnika czy rozpraszać tłum, nie robiąc ludziom krzywdy. Na załączonym poniżej filmie można posłuchać gadającej plazmy.   « powrót do artykułu
×
×
  • Create New...