Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Wszystkie języki przekazują informacje w podobnym tempie

Rekomendowane odpowiedzi

Włosi to jedni z najszybszych mówców na Ziemi. Wymawiają oni nawet do 9 sylab w ciągu sekundy. Na drugim biegunie znajduje się wielu Niemców, którzy w ciągu sekundy wymawiają 5-6 sylab. Jednak, jak wynika z najnowszych badań, średnio w ciągu minuty i Niemcy i Włosi przekazują tę samą ilość informacji. Okazuje się, że niezależnie od tego, jak szybka jest wymowa danego języka, średnie tempo przekazywania informacji wynosi 39 bitów na sekundę. To około 2-krotnie szybciej niż komunikacja za pomocą alfabetu Morse'a.

Językoznawcy od dawna podejrzewali, że te języki, które są bardziej upakowane informacją, które w mniejszych jednostkach przekazują więcej danych na temat czasu czy płci, są wymawiane wolniej, a takie, które przekazują mniej tego typu danych, są wymawiane szybciej. Dotychczas jednak nikomu nie udało się tego zbadać.

Badania nad tym zagadnieniem rozpoczęto od analizy tekstów pisanych w 17 językach, w tym w angielskim, włoskim, japońskim i wietnamskim. Uczeni wyliczyli gęstość informacji w każdej sylabie dla danego języka. Okazało się, że na przykład w języku japońskim, w którym występują zaledwie 643 sylaby, gęstość informacji wynosi nieco około 5 bitów na sylabę. W angielskim z jego 6949 sylabami jest to nieco ponad 7 bitów na sylabę.

W ramach kolejnego etapu badań naukowcy znaleźli po 10 użytkowników (5 mężczyzn i 5 kobiet) 14 z badanych języków. Każdy z użytkowników na głos czytał 15 identycznych tekstów przetłumaczonych na jego język. Naukowcy mierzyli czas, w jakim tekst zostały odczytane i liczyli tempo przekazywania informacji.

Uczeni wiedzieli, że jedne języki są szybciej wymawiane od innych. Gdy jednak przeliczyli ilość przekazywanych informacji w jednostce czasu zaskoczyło ich, że dla każdego języka uzyskali podobny wynik. Niezależnie od tego, czy język był mówiony szybko czy powoli, tempo przekazywania informacji wynosiło około 39,15 bitów na sekundę.

Czasem interesujące fakty ukrywają się na widoku, mówi współautor badań, Francois Pellegrino z Uniwersytetu w Lyonie. Lingwistyka od dawna zajmowała się badaniem takich cech języków jak np. złożoność gramatyczna i nie przywiązywano zbytnio wagi do tempa przekazywania informacji.

Rodzi się pytanie, dlaczego wszystkie języki przekazują informacje w podobnym tempie. Pellegrino i jego zespół podejrzewają, że odpowiedź tkwi w naszych mózgach i ich zdolności do przetworzenia informacji. Hipoteza taka znajduje swoje oparcie w badaniach sprzed kilku lat, których autorzy stwierdzili, że w amerykańskim angielskim górną granicą przetwarzania informacji dźwiękowych jest 9 sylab na sekundę.

Bart de Boer, lingwista ewolucyjny z Brukseli, zgadza się, że ograniczenie tkwi w mózgu, ale nie tempie przetwarzania informacji, ale w tempie, w jakim jesteśmy w stanie zebrać własne myśli. Zauważa on bowiem, że przeciętna osoba może wysłuchiwać mowy odtwarzanej z 20-procentowym przyspieszeniem i nie ma problemu z jej zrozumieniem. Wąskim gardłem jest tutaj złożenie przekazywanych danych w całość, mówi uczony.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Gdy uczymy się czytać, w naszych mózgach tworzą się połączenia pomiędzy korą wzrokową a obszarami odpowiedzialnymi za przetwarzanie języka. Symbole, które widzimy na papierze, zostają powiązane z dźwiękami i znaczeniami. Wydaje się zatem logiczne, że umiejętność czytania i pisania powinna wpływać na naszą zdolność przetwarzania mowy. Kwestię tę postanowili zgłębić naukowcy z Uniwersytetu w Zurichu.
      Wcześniejsze badania wykazały, że w alfabetycznych systemach pisma, gdzie poszczególne znaki oznaczają samogłoski i spółgłoski, rzeczywiście istnienie zależność pomiędzy umiejętnością czytania i pisania a zdolnościami do przetwarzania mowy przez mózg. Jednak na Bliskim Wschodzie, w Afryce Wschodniej oraz Południowej i Wschodniej Azji wiele osób korzysta z systemów pisma, w których znaki oznaczają sylaby lub całe słowa, a nie pojedyncze głoski. Chcieliśmy wiedzieć, czy wykorzystanie pisma niealfabetycznego ma taki sam wpływ na mózg jak pisma alfabetycznego, mówi profesor neurolingwistyki Alexis Hervais-Adelman.
      Naukowcy z Zurichu, we współpracy z uczonymi z Instytutu Psycholingwistyki im. Maxa Plancka w Nijmegen oraz zespołem ze stanu Uttar Pradesh w Indiach, odtwarzali zdania nagrane w hindi dwóm grupom osób: umiejącym czytać i pisać oraz analfabetom. Hindi zapisywany jest pismem sylabicznym, dewanagari. Podczas odtwarzania aktywność mózgu badanych była rejestrowana za pomocą rezonansu magnetycznego. Wśród użytkowników hindi nie zauważono różnicy pomiędzy osobami piśmiennymi a niepiśmiennymi w sposobie przetwarzania mowy przez mózg.
      Wyniki badań są więc inne, niż uzyskane podczas analogicznych eksperymentów na osobach posługujących się pismem alfabetycznym. W ich przypadku umiejętność pisania i czytania wiązała się z większą aktywnością mózgu w obszarach odpowiedzialnych za przetwarzania mowy podczas słuchania słowa mówionego. Nasze odkrycie przeczy wcześniejszym przypuszczeniom na temat wpływu umiejętności czytania i pisania na sposób przetwarzania języka przez mózg. Okazuje się, że to rodzaj pisma, jakim się posługujemy, wpływa na to, jak nasz mózg przetwarza mowę, mówi Hervais-Adelman.
      Pomimo tego, że u badanych użytkowników języka hindi nie było różnic w sposobie przetwarzania mowy, naukowcy zauważyli, że osoby potrafiące czytać i pisać miały lepszą łączność funkcjonalną pomiędzy obszarami mózgu odpowiedzialnymi za grafomotorykę, czyli proces pisania ręcznego, a obszarami mózgu odpowiedzialnymi za przetwarzanie mowy. Połączenia te uaktywniały się, gdy osoby posługujące się pismem słyszały nagrania.
      Zdaniem autorów badań, może to sugerować, że to umiejętność pisania, a nie sama umiejętność czytania, wpływa na przetwarzanie języka przez mózg. Tego typu badania mogą – ukierunkowane na związek pomiędzy umiejętnością pisania a przetwarzaniem mowy – w przyszłości doprowadzić do opracowania metod leczenia dysleksji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy na początku XX wieku naukowcy zaczęli wykorzystywać elektrody do rejestrowania aktywności mózgu, zauważyli sygnały, które nazwali „falami mózgowymi”. Od tamtej pory są one przedmiotem intensywnych badań. Wiemy, że fale są przejawem zsynchronizowanej aktywności neuronów, a zmiany w intensywności fal reprezentują zmniejszającą się i zwiększającą aktywność grup neuronów. Powstaje pytanie, czy i w jaki sposób fale te uczestniczą w przekazywaniu informacji.
      Kwestię tę postanowił rozstrzygnąć doktorant Tal Dalal z Multidyscyplinarnego Centrum Badań nad Mózgiem na Uniwersytecie Bar-Ilan. Z artykułu opublikowanego na łamach Cell Reports [PDF] dowiadujemy się, że badacze zmienili poziom synchronizacji fal mózgowych w obszarze przekazywania informacji. Następnie sprawdzili, jak wpłynęło to na przekazanie informacji i jak została ona zrozumiana przez obszar mózgu, do którego dotarła.
      Badacze skupili się na części mózgu zawiadującej układem węchowym. Charakteryzuje się ona bowiem silną aktywnością fal mózgowych, a za ich synchronizację odpowiada w tym regionie szczególny typ neuronów. Uczeni wykorzystali metody optogenetyczne, pozwalające na włączanie i wyłączanie aktywności neuronów za pomocą impulsów światła. Dzięki temu mogli obserwować, w jaki sposób włączenie i wyłączenie synchronizacji w jednym regionie wpływało na przekazywanie informacji do innego obszaru mózgu.
      Manipulacji dokonywano w miejscu (nazwijmy je regionem początkowym), w którym dochodzi do wstępnego przetwarzania informacji z układu węchowego. Stamtąd informacja, zsynchronizowana lub niezsynchronizowana, trafiała do kolejnego obszaru (region II), gdzie odbywa się jej przetwarzanie na wyższym poziomie.
      Naukowcy odkryli, że zwiększenie synchronizacji neuronów w regionie początkowym prowadziło do znaczącej poprawy tempa transmisji i przetwarzania informacji w regionie II. Gdy zaś poziom synchronizacji zmniejszono, do regionu II trafiała niepełna informacja.
      Naukowcy dokonali też niespodziewanego odkrycia. Ze zdumieniem zauważyliśmy, że aktywowanie neuronów odpowiedzialnych za synchronizację, prowadziło do spadku ogólnej aktywności w regionie początkowym, więc można się było spodziewać, że do regionu II trafi mniej informacji. Jednak fakt, że dane wyjściowe zostały lepiej zsynchronizowane kompensował zmniejszoną aktywność, a nawet zapewniał lepszą transmisję, mówi Dalal.
      Autorzy badań doszli więc do wniosku, że synchronizacja jest niezwykle ważna dla przekazywania i przetwarzania informacji. To zaś może wyjaśniać, dlaczego zmniejszenie poziomu synchronizacji neuronów, co objawia się mniejszą intensywnością fal mózgowych, może prowadzić do deficytów poznawczych widocznych np. w chorobie Alzheimera. Dotychczasowe badania pokazywały, że istnieje korelacja pomiędzy zmniejszonym poziomem synchronizacji, a chorobami neurodegeneracyjnymi, ale nie wiedzieliśmy, dlaczego tak się dzieje. Teraz wykazaliśmy, że synchronizacja bierze udział w przekazywaniu i przetwarzaniu informacji, więc to może być powód obserwowanych deficytów u pacjentów, mówi Dalal.
      Badania prowadzone przez Dalala i profesora Rafiego Haddada mogą doprowadzić do pojawienia się nowych terapii w chorobach neurodegeneracyjnych. Nie można wykluczyć, że w przyszłości uda się przywrócić odpowiednią sychnchronizację fal mózgowych u chorych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wiele zwierząt potrafi wychwycić wzorce w ludzkiej mowie. Okazuje się jednak, że szczególnie dobrze radzą sobie z tym psy. Na łamach NeuroImage ukazało się omówienie badań sugerujących, że psy potrafią odróżnić mowę od udających ją dźwięków, ich mózgi przetwarzają to, co mówimy nawet, gdy nie wypowiadamy ich ulubionych słów, potrafią też rozróżniać języki.
      Cztery lata temu neurolodzy LauraCuaya i Raúl Hernández-Pérez przeprowadzili się z Meksyku do Budapesztu, zabierając ze sobą dwa owczarki border collie oraz kota. Na miejscu zwrócili uwagę na to, w jak odmiennym otoczeniu dźwięków się znaleźli. Język węgierski brzmi przecież zupełnie inaczej niż hiszpański. Uczeni, którzy na Uniwersytecie Loránda Eötvösa w Budpeszcie pracują w grupie zajmującej się ewolucją postrzegania mowy u ssaków, zaczęli zastanawiać się, czy ich psy również widzą różnicę.
      Już w 2016 roku grupa wykazała, że podczas rozpoznawania znaczenia słów u psów dochodzi do aktywowania innych szlaków neuronowych niż podczas rozpoznawania zmian emocjonalnych w intonacji. Nie wiadomo było jednak, czy psy potrafią odróżnić mowę od niewiele różniących się dźwięków nie tworzących dłuższych ciągów wyrazowych. Nie wiadomo też było, czy zwierzęta są w stanie odróżnić od siebie języki.
      Na potrzeby badań wykorzystano 18 psów, w tym oba wspomniane wcześniej border collie. Każdy z psów był zaznajomiony z językiem węgierskim lub hiszpańskim, ale nie z oboma. Wszystkie też nauczono nieruchomego leżenia w maszynie do funkcjonalnego rezonansu magnetycznego (fMRI). Psom założono słuchawki tłumiące odgłosy z zewnątrz i puszczano im „Małego księcia” po hiszpańsku lub węgiersku.
      Okazało się, że pod wpływem mowy aktywowały się te same obszary mózgów zwierząt, ale różne były wzorce aktywacji. Zależały one od tego, czy pies słyszał znany sobie język, czy też język mu obcy. To zaś sugeruje, że psy zauważają i przetwarzają różnice pomiędzy językami.
      Następnie naukowcy postanowili sprawdzić, czy psy reagują na cechy charakterystyczne obu języków. Innymi słowy, czy wyłapują zmiany w sposobie wypowiedzi – np. w węgierskim akcentowana jest pierwsza sylaba, w hiszpańskim akcentowana jest przedostatnia lub ostatnia sylaba – czy też reagują na podstawowe różnice akustyczne, jak np. zmiany tonu zachodzące przy innym wymawianiu samogłosek. Testy wykonano odtwarzając poprzednie nagrania, które jednak przetworzono tak, by jedynie brzmiały jak węgierski lub hiszpański, a w rzeczywistości był to nic nieznaczący zbiór dźwięków.
      Obrazowanie fMRI pokazało inne wzorce aktywizacji mózgu gdy psy słyszały prawdziwą mowę, a inne gdy były to dźwięki udające mowę. Naukowcy nie są jednak w tej chwili stwierdzić, czy zwierzęta rzeczywiście odróżniały mowę od nic nieznaczących dźwięków, czy też różnica była spowodowana reakcją na naturalnie brzmiący dźwięk, czyli mowę. Co jednak znaczące, nie zauważono różnicy we wzorcach aktywacji gdy psom puszczano bełkot udający język węgierski i bełkot udający język hiszpański. Wskazuje to, że reakcja mózgów psów nie była wywołana po prostu zmianami tonów czy akcentów.
      Badania te pokazują, że psy potrafią odróżniać od siebie różne języki oraz odróżniają prawdziwą mowę od dźwięków ją naśladujących. Po raz pierwszy wykazaliśmy, że mózg innego gatunku niż H. sapiens jest w stanie odróżnić od siebie języki, mówi Cuaya. Uczona dodaje, że co prawda wiemy, iż inne zwierzęta można wytrenować tak, by słyszały różnice pomiędzy ludzkimi językami, jednak psy potrafią to bez treningu.
      To naprawdę bardzo dobre badania nad postrzeganiem mowy przez psy, mówi Root-Gutteridge z University of Lincoln w Wielkiej Brytanii. Niezwykle interesującą rzeczą jest tutaj fakt, że ludzie i psy to dwa bardzo różne gatunki. Ale jest pewien ewolucyjny punkt, który je łączy. Oba gatunki mają do czynienia z bardzo złożonym środowiskiem społecznym, dodaje Hernández-Pérez. I pomimo różnic w budowie mózgu, u obu gatunku wyewoluowały mechanizmy wykrywania zmian w schematach ludzkiej mowy.
      W przyszłości kolejne badania mogą wykazać, czy taka zdolność do odbierania mowy człowieka wyewoluowała u psów dlatego, że od tysiącleci są z nam związane, czy też jest to bardziej ogólna – i być może powszechna – zdolność.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jedną z najtrudniejszych umiejętności językowych jest rozumienie składni zdań złożonych. W 2019 roku naukowcy zauważyli, że istnieje korelacja pomiędzy wysokimi umiejętnościami używania narzędzi, a zdolnością do rozumienia złożonej składni. Szwedzko-francuski zespół naukowy informuje, że obie te umiejętności – sprawnego posługiwania się narzędziami oraz złożoną składnią – korzystają z tych samych zasobów neurologicznych w tym samym regionie mózgu. To jednak nie wszystko. Okazało się, że rozwijanie jednej z tych umiejętności wpływa na drugą.
      Uczeni z francuskiego Narodowego Instytutu Zdrowia i Badań Medycznych (Inserm), Narodowego Centrum Badań Naukowych (CNRS), Université Claude Bernard Lyon 1, Université Lumière Lyon 2 i Karolinska Institutet zauważyli, że trening w posługiwaniu się narzędziami poprawia zdolność rozumienia złożonych zdań. I na odwrót. Jeśli ćwiczymy rozumienie złożonych zdań, poprawiają się nasze umiejętności posługiwania się narzędziami. Odkrycie to można będzie wykorzystać podczas rehabilitacji osób, które częściowo utraciły zdolności językowe.
      Przez długi czas uważano, że używanie języka to niezwykle złożona umiejętność, która wymaga wyspecjalizowanych obszarów mózgu. Jednak w ostatnich latach pogląd ten ulega zmianie. Kolejne badania wskazują, że ośrodki kontroli niektórych funkcji językowych, na przykład odpowiadające za rozumienie słów, są też zaangażowane w kontrolowanie funkcji motorycznych. Jednak badania obrazowe nie dostarczały dowodów na istnienie związku pomiędzy używaniem języka i narzędzi. Z drugiej jednak strony badania paloneurobiologiczne wykazały, że obszary mózgu odpowiedzialne za posługiwanie się językiem rozwijały się u naszych przodków w okresach większego rozwoju technologicznego, gdy wśród naszych praszczurów rozpowszechniało się użycie narzędzi.
      Naukowcy, analizujący dostępne dane, zaczęli się zastanawiać czy jest możliwe, by używanie narzędzi, operowanie którymi wymaga wykonywania złożonych ruchów, było kontrolowane przez te same obszary mózgu co używanie funkcji językowych.
      W 2019 roku Claudio Brozzoli z Inserm i Alice C. Roy z CNRS wykazali, że osoby, które szczególnie dobrze posługują się narzędziami, zwykle też lepiej posługują się złożoną składnią zdań w języku szwedzkim. Naukowcy postanowili bliżej przyjrzeć się temu zjawisku i zaplanowali serię eksperymentów, w czasie których wykorzystano m.in. rezonans magnetyczny. Badanych proszono o wykonanie testów związanych z użyciem 30-centymetrowych szczypiec oraz zdań złożonych w języku francuskim. Dzięki temu uczeni zidentyfikowali obszary mózgu odpowiedzialne za wykonywanie każdego z tych zadań oraz wspólnych dla obu zadań.
      Jako pierwsi stwierdzili, że używanie narzędzi i złożonej składni aktywuje ten sam obszar w jądrze podstawnym w mózgu. Wówczas zaczęli zastanawiać się, czy ćwicząc jedną z tych umiejętności, można by wpływać na drugą.
      Uczestników badań poproszono więc o wypełnienie testów rozumienia złożonych zdań. Testy takie wypełniali 30 minut przed i 30 minut po ćwiczeniu ze szczypcami. Ćwiczenie to polegało na użyciu dużych szczypiec do umieszczenia niewielkich kołków w otworach odpowiadających im kształtem, ale o różnej orientacji. Przed i po takim ćwiczeniu porównywano, jak uczestnicy badań radzą sobie z rozumieniem prostszego i bardziej złożonego zdania. Okazało się, że po ćwiczeniu ze szczypcami badani lepiej radzili sobie ze zrozumieniem trudniejszych zdań. Z kolei w grupie kontrolnej, która używała dłoni do wkładania kołków w otworach, nie zauważono tego typu poprawy rozumienia zdań.
      Teraz naukowcy opracowują protokoły rehabilitacji osób, które utraciły część umiejętności językowych, ale zachowały zdolności motoryczne. Jednocześnie zauważają, że ich badania lepiej pomagają nam zrozumieć ewolucję H. sapiens. Gdy nasi przodkowie zaczęli wytwarzać i używać narzędzi, znacznie zmieniło ich to mózg i wpłynęło na zdolności poznawcze, co mogło doprowadzić do pojawienia się innych funkcji, jak zdolności językowe, stwierdzają naukowcy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pierwsza formalna analiza „gaworzenia” młodych nietoperzy pokazała, że proces ten jest podobny do gaworzenia ludzkich niemowląt. Zdaniem autorów badań, naukowców z Muzeum Historii Naturalnej w Berlinie, badanie tego zjawiska może rzucić interesujące światło na pochodzenie ludzkiego języka.
      Niemieccy naukowcy prowadzili badania na kieszenniku dwupręgim (Saccopteryx bilineata). W artykule opublikowanym na łamach Science informują, że „gaworzenie” młodych nietoperzy zawiera osiem tych samych cech charakterystycznych, jakie znajdujemy w gaworzeniu niemowląt, w tym imitację najważniejszych sylab i rytmu. Nie można zatem wykluczyć, że jest to cecha, którą dzieli więcej gatunków ssaków.
      To fascynujące, że możemy obserwować tak daleko idące podobieństwa w uczeniu się wokalizacji u młodych dwóch różnych gatunków saków. Nasze badania poszerzają wiedzę na interdyscyplinarnym polu biolingwistyki, która bada biologiczne podstawy ludzkiej mowy i jej ewolucję. Prace nad nauką wokalizacji u nietoperzy mogą dostarczyć kolejnych informacji, dzięki którym lepiej zrozumiemy początki pojawienia się języka, mówi doktor Mirjam Knörnschild.
      Gaworzenie pozwala dzieciom, niezależnie od kultury i języka, nauczyć się kontroli aparatu mowy. Możliwość artykułowania w czasie gaworzenia tak istotnych sylab jak „ma” czy „da” jest niezbędne do nauki języka, a odpowiedni dla wieku rodzaj gaworzenia to wskaźnik rozwoju dziecka, zauważają badacze.
      Badanie tego zjawiska u innych gatunków jest jednak trudne, a gaworzenie opisano dotychczas niemal wyłącznie u ptaków. To jednak znacznie ogranicza możliwość badania gaworzenia, gdyż ludzie i ptaki znacznie różnią się zarówno pod względem anatomii – ludzie posiadają krtań, ptaki zaś krtań dolną – jak i pod względem organizacji mózgu.
      Na potrzeby najnowszych badań uczeni przyjrzeli się „gaworzeniu” 20 młodych Saccopteryx bilineata w ich naturalnym środowisku w Panamie i Kostaryce.  Zwierzęta zaczęły „gaworzyć” w ciągu pierwszych trzech tygodni po urodzeniu i gaworzyły do czasu osiągnięcia 10. tygodnia życia. Wydawane przez nie dźwięki składały się z protosylab i sylab podobnych do tych, jakimi posługiwały się dorosłe. Nietoperze starały się naśladować dorosłe osobniki.
      W laboratorium, podczas szczegółowych analiz nagranych dźwięków, naukowcy zauważyli, że „gaworzenie” małych nietoperzy charakteryzuje te same 8 cech, widocznych również u niemowląt. Na przykład jedną z cech charakterystycznych dźwięków wydawanych przez małe nietoperze było wielokrotne powtarzanie tych samych sylab, co jest podobne do niemowlęcego „da, da, da, stwierdzają naukowcy. Ponadto wśród nietoperzy „gaworzą” zarówno samce jak i samice. Tymczasem u ptaków zjawisko to zaobserwowano wyłącznie u samców.
      U nietoperzy niezróżnicowane protosylaby mogą być odpowiednikiem prekursorów mowy u ludzkich niemowląt, u których słyszymy dźwięki rzadko występujące w mowie, natomiast sylaby, podobne do dźwięków wydawanych przez dorosłe osobniki, mogą odpowiadać ludzkim w pełni rozwiniętym sylabom, które wymawia niemowlę, a których struktura w oczywisty sposób odpowiada strukturze sylab w rozwiniętej mowie, czytamy w opublikowanym artykule.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...