Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' dźwięk'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 21 results

  1. Koty to jedne z najpopularniejszych zwierząt domowych, towarzyszą ludziom od tysięcy lat, wydawałoby się więc, że powinniśmy wiedzieć o nich wszystko. Jednak dopiero teraz naukowcy dowiedzieli się, jak koty... mruczą. Dotychczas sposób wydawania tego dźwięku stanowił zagadkę, gdyż zwierzęta o krótkich strunach głosowych rzadko wydają niskie dźwięki. Tymczasem u kotów niskie mruczenie (w zakresie 20-30 Hz) jest czymś powszechnym. Okazało się, że posiadają one w krtani inne struktury, umożliwiające mruczenie. Rodzaj dźwięku, do wydawania którego zdolne jest zwierzę, zwykle zależy od rozmiarów strun głosowych. Zwykle im większe zwierzę, tym dłuższe struny głosowe, a co za tym idzie – możliwość wydawania niższych dźwięków. Kot domowy należy do niewielkich zwierząt, ma więc krótkie struny głosowe. Za ich pomocą wydaje wysokie dźwięki, miauczenie czy skrzeczenie. Jednak potrafi też nisko mruczeć. Obowiązująca obecnie hipoteza – zwana hipotezą AMC – mówiła, że zdolność kotów do mruczenia jest całkowicie uzależniona od „aktywnego kurczenia mięśni”. Christian T. Herbst z Uniwersytetu Wiedeńskiego i jego koledzy z Austrii, Szwajcarii i Czech postanowili przetestować tę hipotezę. Przeprowadzili więc sekcję tchawic ośmiu kotów domowych, które zostały uśpione z powodu różnych chorób. Odkryli, że z tchawicy można uzyskać niski dźwięk, gdy przechodzi przez nią powietrze, zatem skurcze mięśni nie są tutaj potrzebne. Naukowcy zauważyli, że powstanie niskich dźwięków (25-30 Hz) jest możliwe dzięki obecności tkanki łącznej w kocich strunach głosowych. Tkanka ta była znana już wcześniej, ale dotychczas nikt nie łączył jej z mruczeniem. Herbst nie wyklucza jednak, że skurcze mięśni są potrzebne do wzmocnienia pomruku. Teraz, skoro już dowiedzieliśmy się, jak koty mruczą, do rozwiązania zostaje zagadka, po co to robią. « powrót do artykułu
  2. Ponad miliard nastolatków i młodych dorosłych jest potencjalnie zagrożonych utratą słuchu, czytamy na łamach British Medical Journal Global Health. Ryzyko związane jest z częstym używaniem przez nich słuchawek i uczestnictwem w koncertach i innych wydarzeniach związanych ze słuchaniem głośnej muzyki. Światowa Organizacja Zdrowia ocenia, że obecnie 430 milionów ludzi na świecie ma uszkodzony słuch. Szczególnie narażeni są użytkownicy osobistych urządzeń nagłaśniających, takich jak słuchawki. Już wcześniej opublikowane badania wykazały, ze użytkownicy takich urządzeń bardzo często ustawiają głośność nawet na 105 decybeli. Do tego należy dodać uczestnictwo w wydarzeniach związanych z puszczaniem głośno muzyki, na których średnia głośność wynosi od 104 do 112 dB. Tymczasem bezpieczny poziom dźwięku wynosi 80 dB dla dorosłych i 75 dB dla dzieci. Autorzy najnowszych badań postanowili sprawdzić, jak bardzo rozpowszechnione wśród młodzieży i młodych dorosłych jest słuchanie nadmiernie głośnych dźwięków. Przejrzeli więc badania opublikowane w językach angielskim, francuskim, hiszpańskim i rosyjskim, które dotyczyły osób w wieku 12–34 lat. Poszukiwano tych badań, w których pod uwagę uwagę wzięto rzeczywistą zmierzoną głośność dźwięków oraz czas narażenia na ich oddziaływanie. Pod uwagę wzięto 33 badania. Część z nich uwzględniała pomiary dotyczące użycia urządzeń osobistych, część uczestnictwa w głośnych imprezach, a część zawierała dane o obu rodzajach narażenia na głośne dźwięki. W sumie badaniami objęto 19 046 uczestników i uwzględniono w nich 17 pomiarów dotyczących używania urządzeń oraz 18 pomiarów odnośnie uczestnictwa w głośnych imprezach. Z badań wynika, że na zbyt głośne szkodliwe dla słuchu dźwięki naraża się 24% młodzieży i 48% młodych dorosłych. To oznacza, że na utratę słuchu narażonych jest od 670 milionów do 1,35 miliarda osób. Oczywiście badania mają swoje ograniczenia. Ich autorzy nie brali pod uwagę np. różnic demograficznych w poszczególnych krajach, czy rozwiązań prawnych wprowadzonych w celu ochrony słuchu. Niemniej jednak pokazują one, jak bardzo poważny jest to problem. Ze szczegółami badań można zapoznać się w artykule Prevalence and global estimates of unsafe listening practices in adolescents and young adults: a systematic review and meta-analysis. « powrót do artykułu
  3. Wiele gatunków zwierząt podszywa się pod inne gatunki, na przykład po to, by odstraszyć potencjalnych drapieżników. Zwykle w ten sposób przekazują sygnały wizualne. Na przykład wąż z gatunku Lampropeltis elapsoides jest – jak wszystkie lancetogłowy – niejadowity. Jednak ubarwieniem i wzorem przypomina jadowitą koralówkę arlekin. Teraz naukowcy odkryli pierwszy przypadek ssaka, który wydaje dźwięki podobne do owadów, by uniknąć ataku ze strony drapieżnika. Gdy myślimy o mimikrze, pierwsze co przychodzi do głowy, jest kolor. Jednak w tym przypadku główną rolę odgrywa dźwięk, mówi Danilo Russo, ekolog z Uniwersytetu Neapolitańskiego im. Fryderyka II. Jest on współautorem badań, w ramach których zauważono, że nocek duży wydaje odgłosy podobne do odgłosów szerszenia, by odstraszyć sowy. Nocki nie tylko używają echolokacji podczas polowań, ale też komunikują się między sobą za pomocą szerokiego wachlarza dźwięków. Russo, który badał je na potrzebny pewnego projektu naukowego, zauważył, że schwytane nietoperze wydają pod wpływem stresu dźwięk podobny do brzęczenia szerszenia. Uczony wraz z kolegami rozpoczął więc nowy projekt badawczy, w ramach którego porównał dźwięki wydawane przez szerszenie z dźwiękami wydawanymi przez zestresowane nocki. Większość częstotliwości nie była do siebie zbyt podobna. Jednak gdy naukowcy porównali tylko te częstotliwości, które słyszą sowy – jedne z głównych wrogów nocków – okazało się, że dźwięki są bardzo do siebie podobne. Chcąc sprawdzić swoje podejrzenia, naukowcy odtwarzali trzymanym w niewoli sowom dźwięki wydawane zazwyczaj przez nietoperze. Ptaki zbliżały się wówczas do głośników. Gdy jednak z głośników dobiegały dźwięki wydawane przez szerszenie, sowy zwykle się odsuwały. wiele sów odsuwało się również wtedy, gdy z głośników płynęły dźwięki zestresowanych nocków. Obserwacja taka potwierdza podejrzenie, że nocki – naśladując szerszenie – próbują odstraszyć sowy. Akustyczne podszywanie się przez nocki pod szerszenie ma sporo sensu. Jako, że latają one w nocy mimikra za pomocą kolorów zapewne by nie zadziałała. Wydawanie odpowiednich dźwięków może zaś uratować nockowi życie, gdyż wiadomo, że sowy starają się unikać szerszeni. « powrót do artykułu
  4. Przemysł samochodowy od dawna próbuje stworzyć indywidualne strefy odsłuchowe dla pasażerów samochodów osobowych. W strefach takich każda osoba mogłaby słuchać ulubionej muzyki nie używając przy tym słuchawek i nie przeszkadzając innym w odbiorze ich muzyki. Naukowcy ze Stellantis i Laboratoire d’Acoustique de l’Universite du Mans informują właśnie na łamach The Journal of the Acoustical Society of America, że stworzyli algorytm, który na bieżąco tworzy takie strefy w kabinie samochodu i dopasowuje je do zmieniających się warunków. Dzięki temu każdy może np. słuchać innej muzyki nie używając słuchawek i nie przeszkadzając współpasażerom. Algorytm koordynuje działanie różnych źródeł dźwięku w samochodzie tak, by powstawały „jasne” strefy odsłuchowe o dobrej jakości dźwięku oraz strefy „ciemne”, gdzie jakość dźwięku jest gorsza. Prywatne strefy odsłuchowe są tworzone za pomocą zestawu głośników i filtrów odpowiednio dostrajających dźwięk i jego rozchodzenie się w kabinie. Zorganizowanie takich predefiniowanych stref w samochodzie możliwe jest już od pewnego czasu, problem jednak w tym, że by się one nie sprawdziły. Wystarczy bowiem zmiana temperatury, zmiana liczby osób w samochodzie czy pozycji siedzeń, by zdefiniowane z góry strefy nie spełniały swojej roli. Specjaliści ze Sellantisa i Universite du Mans poradzili sobie z tym problemem umieszczając w samochodzie mikrofony próbkujące dźwięk w czasie rzeczywistym. Specjalny algorytm analizuje dane z mikrofonów i dostraja pracę filtrów, gdy wykryje zmiany w środowisku akustycznym kabiny. Na przykład wówczas, gdy zmieni się pozycja fotela. Głośniki znajdują się w zagłówkach, a specjalne filtry pracują tak, by w określonej strefie zapewnić dobrą jakość dźwięku, a jednocześnie, by dźwięk ten był jak najsłabszy poza tą strefą, mówi jeden z autorów badań, Lucas Vindrola. System jest w stanie uzyskać różnicę głośności pomiędzy dwoma przednimi fotelami na poziomie 30 decybeli. To taka różnica, jak pomiędzy normalną rozmową a szeptem. Co więcej, potrafi utrzymać tę różnicę nawet jeśli fotele zostaną przesunięte nawet o 12 cm. Trzeba za to zapłacić umieszczeniem mikrofonów w kabinie, by algorytm mógł działać. Wyniki były bardzo obiecujące, nawet gdy ograniczyliśmy liczbę mikrofonów, dodaje Vindrola. Jego zdaniem taki system może znaleźć też zastosowanie w innych miejscach, np. w muzeach. Na razie system ma poważne ograniczenia. Działa w zakresie od 100 do 1000 herców czyli od basów po dźwięk standardowej ludzkiej mowy. W następnym etapie badań naukowcy chcą zwiększyć zakres do 10 000 herców. « powrót do artykułu
  5. Płetwale błękitne to największe zwierzęta na Ziemi, ale jednocześnie jedne z najtrudniejszych do zauważenia. Są też niezwykle rzadkie. Szacuje się, że okres polowań na wieloryby przetrwało mniej niż 0,15% populacji płetwali błękitnych. Tym bardziej cieszy fakt, że prawdopodobnie na Oceanie Indyjskim żyje duża nieznana dotychczas grupa karłowatych płetwali błękitnych. Płetwale błękitne dzielą się na trzy podgatunki. Dwa z nich osiągają długość 28–30 metrów. Natomiast płetwal błękitny karłowaty dorasta do 24 metrów długości. Naukowcy z australijskiego Uniwersytetu Nowej Południowej Walii (UNSW) najprawdopodobniej zidentyfikowali nieznaną dotychczas populację. A dokonali tego dzięki... systemowi do wykrywania prób jądrowych. Organizacja CTBTO (Comprehensive Nuclear-Test-Ban Treaty Organization), która dba o przestrzeganie międzynarodowego zakazu prób z bronią jądrową, używa od 2002 roku sieci zaawandowanych hydrofonów, które mają wykrywać dźwięki potencjalnych prób jądrowych. Nagrania z hydrofonów, które wyłapują wiele innych dźwięków, są dostępne dla naukowców i wykorzystywane w badaniach środowiska morskiego. Naukowcy z UNSW, którzy analizowali takie nagrania, zauważyli silny nietypowy sygnał pochodzący od wieloryba. Gdy bliżej mu się przyjrzeli okazało się, że sygnał ten to odgłos grupy płetwali błękitnych karłowatych, ale nie należy on do żaden z grup, które wcześniej zaobserwowano na tym obszarze. Na samym środku Oceanu Indyjskiego znaleźliśmy nieznaną dotychczas populację płetwali błękitnych karłowatych. Nie wiemy, ile zwierząt jest w tej grupie, ale musi ich być bardzo dużo, biorąc pod uwagę liczbę zarejestrowanych odgłosów, mówi profesor Tracey Rogers. Płetwale błękitne na półkuli południowej jest bardzo trudno badań. Żyją one z daleka od wybrzeży i nie wyskakują na powierzchnię, nie robią takich spektakularnych pokazów jak humbaki. Bez tych nagrań nie mielibyśmy pojęcia o tej populacji, dodaje profesor Rogers. Bioakustyk, doktor Emmanuelle Leroy, która pierwsza zauważyła sygnał od płetwali, mówi, że najpierw spostrzegła horyzontalne linie na spektrogramie. Linie te na konkretnych częstotliwościach pokazują, że mamy do czynienia z silnym sygnałem, dużą emisją energii, stwierdza. Uczona, chcąc sprawdzić, czy to nie jakiś przypadkowy sygnał, przejrzała wraz z zespołem całość danych zebranych przez CTBTO w ciągu 18 lat. Okazało się, że sygnał się powtarza. Każdego roku rejestrowane były tysiące takich sygnałów. Tworzą one główny element krajobrazu dźwiękowego oceanu. Nie mogły pochodzić od pary waleni, musiały pochodzić od całej populacji, cieszy się uczona. Specjaliści oceniają, że odgłosy wydawane przez płetwale błękitne mogą rozchodzić się w wodzie na odległość 200–500 kilometrów. Mają one odmienną strukturę niż śpiew innych waleni. Humbaki są jak wykonawcy jazzu. Cały czas zmieniają swój śpiew. Płetwale błękitne to tradycjonaliści. Wydają proste ustrukturyzowane dźwięki, wyjaśnia profesor Rogers. Jednak mimo tej prostoty, dźwięki różnią się miedzy sobą. Różne populacje płetwali błękitnych karłowatych zamieszkujących Ocean Indyjski wydają różne odgłosy. Wciąż nie wiemy, czy rodzą się z takimi różnicami czy się ich uczą, mówi Rogers. To fascynujące, że na Oceanie Indyjskim mamy populacje, które cały czas wchodzą w kontakt pomiędzy sobą, a wciąż zachowują różnice w wydawanych odgłosach. Ich śpiew jest jak odcisk palca, który pozwala nam śledzić te populacje, gdy przemierzają tysiące kilometrów, dodaje uczona. Nowa populacja zyskała nazwę „Chagos” od archipelagu, w pobliżu którego po raz pierwszy zarejestrowano jej odgłosy. Analiza danych wykazała, że przemieszcza się ona od wybrzeży Sri Lanki po północne wybrzeża Australii Zachodniej. « powrót do artykułu
  6. My odbieramy otoczenie w jednostkach odległości, natomiast nietoperze – w jednostkach czasu. Dla nietoperza owad znajduje się nie w odległości 1,5 metra, ale 9 milisekund. Badania przeprowadzone przez naukowców z Uniwersytetu w Tel Awiwie dowodzą, że nietoperze od urodzenia znają prędkość dźwięku. Żeby to udowodnić naukowcy hodowali dopiero co urodzone nietoperze w środowisku wzbogaconym o hel, w którym prędkość dźwięku jest wyższa od prędkości dźwięku w powietrzu. W ten sposób odkryli, że zwierzęta wyobrażają sobie dystans w jednostkach czasu, nie odległości. W życiu codziennym nietoperze używają sonaru – emitują dźwięki i analizują ich odbicia. Dla nich istotny jest czas, w jaki emitowany dźwięk do nich powraca. To zaś zależy od czynników środowiskowych, jak np. temperatura czy skład powietrza. Na przykład w pełni gorącego lata prędkość dźwięku może być o 10% większa, niż w zimie. Zespół z Izraela, pracujący pod kierunkiem profesora Yossiego Yovela i doktoranta Derna Emichaj wzbogacił powietrze helem, dzięki czemu prędkość dźwięku była wyższa. Okazało się, że ani dorosłe nietoperze, ani młode, które były wychowywane w takiej atmosferze, nie lądowały w miejscu, w którym zamierzały. Zawsze lądowały zbyt blisko. To zaś pokazuje, że uważały, iż ich cel jest bliżej. Innymi słowy, nie dostosowywały swojego zachowania do wyższej prędkości dźwięku. Jako,że dotyczyły to zarówno dorosłych nietoperzy, które wychowywały się w normalnych warunkach atmosferycznych, jak i młodych wychowywanych w atmosferze wzbogaconej helem, naukowcy stwierdzili, że poczucie prędkości dźwięku jest u nietoperzy wrodzone. Dzieje się tak dlatego, że nietoperze muszą nauczyć się latać wkrótce po urodzeniu. Uważamy więc, że w drodze ewolucji pojawiła się u nich wrodzona wiedza o prędkości dźwięku, co pozwala na oszczędzenie czasu na początku rozwoju zwierząt, mówi profesor Yoel. Inne interesujące spostrzeżenie jest takie, że nie potrafią zmienić tego poczucia prędkości dźwięku w zmieniających się warunkach, co wskazuje że przestrzeń odbierają wyłącznie jako funkcję czasu, nie odległości. Udało się nam odpowiedzieć na podstawowe pytanie – odkryliśmy, że nietoperze nie mierzą odległości, a czas. Może się to wydawać jedynie różnicą semantyczną, ale sądzę, że przestrzeń odbierają one w całkowicie inny sposób niż ludzie i inne ssaki. Przynajmniej wtedy, gdy polegają na sonarze, dodaje Yovel. « powrót do artykułu
  7. Tkające sieci pająki posiadają bardzo wyczulone nogi, dzięki którym odbierają drgania sieci, w której szamoce się ofiara. Teraz naukowcy przełożyli te drgania na dźwięki, które możemy usłyszeć i wyobrazić sobie to, co czuje pająk. Pajęcza sieć może być postrzegana jak przedłużenie ciała pająka, który na niej żyje. Jest tez czujnikiem, mówi Markus Buehler z Massachusetts Institute of Technology (MIT), który prezentował swoje badania podczas wirtualnego spotkania Amerykańskiego Towarzystwa Chemicznego. Gdy wykorzystamy rzeczywistość wirtualną i zanurzymy się w pajęczej sieci możemy usłyszeć i zrozumieć to, co dotychczas mogliśmy tylko obserwować. Poszczególne nici w pajęczej sieci mają różną długość i są poddane różnym naprężeniom. Dlatego też emitują różne dźwięki. Zespół Buehlera wykorzystał laser do stworzenia trójwymiarowej mapy ruchu sieci pająka z gatunku Cyrtophora citricola. Zbadali częstotliwość drgań i elastyczność każdej z nici i przypisali im odpowiednie dźwięki w zakresie słyszalnym dla człowieka. Dzięki temu możemy usłyszeć, jak brzmi pajęcza sieć. Oczywiście naukowcy musieli dokonać pewnych założeń. Na przykład dźwięki wydawane są przez syntezator imitujący harfę. Nici położone bliżej słuchacza są głośniejsze, niż to położone dalej. Sami zresztą posłuchajcie.   « powrót do artykułu
  8. Pod wodą nie słychać ludzkiego krzyku. Ale odgłosy wydawane przez foki szare – już owszem. Jakie zjawiska akustyczne decydują o tym, że foki wydobywać mogą dźwięki i na wodzie, i pod jej powierzchnią? Sprawdził to w swoich badaniach dr Łukasz Nowak. Ciało foki działa jak głośnik – streszcza naukowiec. Z fokami szarymi jest trochę jak ze starym małżeństwem. One rozmawiają ze sobą bardzo rzadko. A konkretne – kiedy przychodzi okres godowy. U fok taki okres występuje tylko na początku roku, tuż po tym, kiedy urodzą się młode foki i samice są gotowe, by ponownie zajść w ciążę. Wtedy komunikacja między samcami, samicami i młodymi jest bardzo ożywiona – opowiada dr Nowak. W swoich badaniach naukowiec skupiał się jednak nie na tym, co te odgłosy oznaczają, ale jak one powstają. Wszystkie swoje nagrania udostępnił w otwartych zbiorach danych. A to, jak foki wydają dźwięki jest o tyle ciekawe dla akustyków, że zwierzęta żyją trochę w wodzie, a trochę na lądzie. I w przeciwieństwie do człowieka potrafią nie tylko wydawać odgłosy, które świetnie rozchodzą się w powietrzu, ale i odgłosy, które słychać pod wodą – mimo skrajnie dużych różnic między tymi środowiskami. Kolejną interesującą sprawą jest to, że foki szare rozmiarami są porównywalne z człowiekiem, a częstotliwości wydawanych przez nie odgłosów są dobrze odbierane przez ludzkie ucho. To, jak wydają dźwięki foki, może to stanowić dla nas inspirację, jak budować systemy do podwodnej komunikacji – komentuje akustyk dr Łukasz Nowak z University of Twente (Holandia). Badacz przestudiował odgłosy wydawane przez foki szare w fokarium w stacji morskiej UG na Helu. Wydzielił trzy różniące się akustyką grupy dźwięków i przedstawił hipotezy, jak dźwięki te mogą być generowane. Jego badania ukazały się w czasopiśmie Bioacustics. W bazie udostępnionej przez naukowca można obejrzeć filmiki z nagraniami foczych rozmów, a także posłuchać nagrań audio - zarówno odgłosów podwodnych, jak i wydawanych na powierzchni. Foki musiały się dostosować do komunikacji akustycznej, do porozumiewania się i nad, i pod wodą – zwraca uwagę naukowiec. Tłumaczy, że powietrze i woda stanowią zaś dwa bardzo różne ośrodki pod względem właściwości akustycznych. My, ludzie, zazwyczaj, jeśli chcemy coś powiedzieć, wprawiamy w drgania kolumnę powietrza wydychaną z płuc. Z kolei jamę nosowo-gardłową wykorzystujemy jako filtr, który możemy przestrajać. Nasze układy głosowe stworzone są tak, by emitować dźwięk głównie przez usta - tam skąd uchodzi z nas powietrze. W emisji dźwięku zaś nie mają znaczenia same drgania np. klatki piersiowej – opowiada dr Nowak. W przypadku wody taka metoda tworzenia dźwięków nie będzie efektywna, bo dźwięk z powietrza generalnie do wody nie przechodzi. W wodzie przenoszą się lepiej dźwięki strukturalne - powstające w drgających ciałach stałych (to np. stuknięcie ręką w drzwi) niż aerodynamiczne – te wywołane wibracją powietrza (np. ludzki głos). Dlatego człowiek mówiący pod wodą praktycznie nie będzie w wodzie słyszalny – zwraca uwagę akustyk. Dlatego foki, aby przekazywać sobie sygnały dźwiękowe pod wodą, muszą zmienić drgania powietrza na drgania swojego ciała. Tkanki mają właściwości mechaniczne całkiem podobne do właściwości wody. I z nich całkiem dobrze drgania - a więc i dźwięki - do wody się przenoszą. Ciało foki działa więc jak wielki głośnik podwodny – wyjaśnia rozmówca PAP. Dodaje, że czasem części podwodnych odgłosów fok towarzyszy wydobywanie się bąbelków (a to znaczy, że odgłos powstaje przy wydechu). A części – nie. Naukowiec po strukturze tych ostatnich dźwięków domyśla się, że zwierzęta muszą wtedy przepompowywać powietrze to w jedną, to w drugą stronę. Dźwięk ten jednak wprawia w wibracje ciało foki, a ciało przekazuje te drgania do wody. Inaczej jest jednak, kiedy foka przebywa na powierzchni – wtedy duża część dźwięku wypromieniowana jest przez nozdrza. Foki szare żyją między wodą a lądem. Komunikują się w zakresie częstotliwości akustycznych, które słyszymy gołym uchem. Właściwości ich układów głosowych – w odróżnieniu np. od delfinów, które posługują się ultradźwiękami – są zbliżone do ludzkich. Dlatego foki były dla mnie inspiracją przy opracowywaniu systemów komunikacji głosowej dla nurków – mówi dr Nowak. Jego zespół już kilka lat temu opracował taki system komunikacji podwodnej. Obserwując, jak foki wydają dźwięk pomyślałem o układach technicznych, które tłumaczyłyby drgania powietrza na drgania struktur wokół i potem przenoszą dźwięk do wody. Wraz z zespołem zbudowaliśmy działające prototypy urządzeń do komunikacji między nurkami – wspomina. Nurkowie mówili do opracowanego przez Polaków urządzenia, a dźwięk wydobywający się z tego wynalazku rozchodził się w wodzie. Każdy pod wodą mógł go więc usłyszeć bez użycia żadnego dodatkowego sprzętu. Urządzenie działało, można było dzięki niemu rozmawiać pod wodą. Podjęliśmy się komercjalizacji, ale rozbiliśmy się o etap wdrożeniowy. Projekt umarł – opowiada akustyk. Dodaje, że choć wtedy zgromadził ogromne ilości danych dotyczących odgłosów fok i miał przypuszczenia, jak one ze sobą się komunikują, to dopiero teraz, w czasie pandemii, miał czas, aby opracować dane i przekuć w publikacje naukową. Dopiero teraz jednak prezentujemy uporządkowaną klasyfikację odgłosów fok i przedstawiamy hipotezy dotyczące generacji tych dźwięków – tłumaczy. Dr Nowak opowiada, że do badania odgłosów fok szarych zachęcił go prof. Krzysztof Skóra, który był wtedy szefem Stacji Morskiej UG. Badania przerwała jednak śmierć profesora. Dziś stacja Morska nosi imię tego biologa. « powrót do artykułu
  9. Stetoskop na miarę XXI wieku, który bezprzewodowo prześle dźwięk, dostosuje charakterystykę dźwięku do potrzeb lekarza, usprawni proces diagnostyki nawet w trudnych warunkach pandemii. Taki wynalazek opracowali studenci Politechniki Wrocławskiej i Uniwersytetu Medycznego. Ich projekt otrzymał nagrodę specjalną w konkursie Forum Młodych Mistrzów podczas XXVI Forum Teleinformatyki. Zespół tworzą: Karol Chwastyniak, Wojciech Kania, Wojciech Korczyński z Wydziału Informatyki i Zarządzania oraz Filip Ciąder z Wydziału Mechanicznego, a także studenci Wydziału Lekarskiego Uniwersytetu Medycznego we Wrocławiu: Tomasz Skrzypczak i Jakub Michałowicz. Czuły, dokładny, inteligentny Zespół zaprojektował inteligentny stetoskop, który ma wspomagać lekarza w jego codziennej pracy. Kluczowym atrybutem rozwiązania jest cyfrowe przetwarzanie dźwięku. Dzięki redukcji niechcianego szumu otoczenia osłuchiwanie pacjenta staje się bardziej precyzyjne. Regulacja głośności umożliwia dostosowanie dźwięku do potrzeb lekarza. Zwiększa to komfort badania oraz pozwala na wzmocnienie najbardziej stłumionych szmerów – tłumaczą pomysłodawcy. Dzięki współpracującej ze stetoskopem aplikacji mobilnej można bezprzewodowo przesłać dźwięk wprost do słuchawek użytkownika. To jest szczególnie przydatne w czasie pandemii COVID-19, gdy lekarz musi osłuchać pacjenta w pełnym kombinezonie ochronnym z zachowaniem zasad bezpieczeństwa. Zastosowana przez studentów technologia pozwala na wyposażenie urządzenia w takie funkcje, jak możliwość konsultacji z innymi specjalistami, zapisywanie w pliku, eksportowanie, porównywanie z nagraniami wzorcowymi i przywoływanie nagranych dźwięków z historii pacjenta. Co więcej, zespół rozpoczął także wdrażanie do projektu metod sztucznej inteligencji. Pierwsze próby dały bardzo obiecujące wyniki. Dzięki wykorzystaniu uczenia maszynowego można dostrzec i sklasyfikować subtelne różnice szmerów wad zastawkowych serca – wyjaśniają studenci. Projekt z potencjałem   Od strony merytorycznej wsparcia udzielił studentom m.in. dr inż. Zbigniew Szpunar z Wydziału Informatyki i Zarządzania. To są kreatywni młodzi ludzie, którzy myślą nieszablonowo i bardzo konkretnie. W trudnym czasie izolacji, pracując zdalnie, realizują projekt, który zahacza o zagadnienia z kilku dziedzin: mechatroniki, medycyny i zaawansowanej informatyki. Musieli opanować wiele tematów z zakresu uczenia maszynowego, inżynierii oprogramowania, elektroniki, ale też kardiologii czy telemedycyny – mówi opiekun studentów z PWr. Tak naprawdę to moją istotną rolą jest nie przeszkadzać im w realizacji tego, co sobie zaplanowali – dodaje dr Szpunar. Potencjał studenckiego projektu dostrzegły już dwa wrocławskie szpitale, które wspomagają zespół we wszystkich etapach pracy. W ich działania zaangażowali się: prof. Marta Negrusz-Kawecka, dr n. med. Anna Goździk i dr n. med. Marta Obremska z Centrum Chorób Serca Uniwersyteckiego Szpitala Klinicznego, a także dr hab. Joanna Jaroch, lek. Alicja Sołtowska i lek. Jakub Mercik z Oddziału Kardiologii Szpitala Specjalistycznego im. T. Marciniaka. W projekcie współpracują również studenci Uniwersytetu Medycznego we Wrocławiu: Klaudia Błachnio, Julia Szymonik, Michał Kosior oraz Sebastian Tokarski – student Wydziału Elektroniki Politechniki Wrocławskiej. « powrót do artykułu
  10. Przełom na gruncie inżynierii i fizyki ogłosili naukowcy z CUNY ASRC i Georgia Tech. Jako pierwsi w historii zaprezentowali bowiem porządek topologiczny bazujący na modulacjach czasu. Osiągnięcie to pozwala na propagację fal dźwiękowych wzdłuż granic metamateriałów topologicznych bez ryzyka, że fale wrócą czy też zaczną propagować się poprzecznie z powodu niedoskonałości materiału. Topologia zajmuje się badaniem właściwości, które nie ulegają zmainie nawet po zdeformowaniu obiektów. W izolatorze topologicznym prąd płynie wzdłuż granic obiektu, a na przepływ ten nie mają wpływu niedoskonałości struktury obiektu. W ostatnich latach dzięki postępom na polu metamateriałów udało się w podobny sposób kontrolować rozprzestrzenianie się światła i dźwięku. Andrea Alu z CUNY ASRC i profesor Alexander Khanikaev z City College of New York wykorzystali asymetrie geometryczne do stworzenia porządku topologicznego w metamateriałach akustycznych. Fale dźwiękowe rozprzestrzeniały się wzdłuż ich krawędzi i brzegów. Jednak poważnym problemem był tutaj fakt, że mogły one rozprzestrzeniać się zarówno w przód jak i w tył. To zaś bardzo zaburzało odporność materiału na zakłócenia i ograniczało topologiczny porządek propagacji dźwięku. Zaburzenia w strukturze materiału mogły bowiem prowadzić do odbicia dźwięku. Najnowsze badania pozwoliły na przezwyciężenie tych problemów. Ich autorzy wykazali, że do uzyskania porządku topologicznego można wykorzystać złamanie parzystości operacji odwrócenia czasu (parzystość T), a nie tylko asymetrii geometrycznych. Dzięki takiemu podejściu dźwięk rozprzestrzenia się tylko w jednym kierunku i jest bardzo odporny na wszelkie niedoskonałości materiału. To przełom na polu fizyki topologicznej. Uzyskaliśmy porządek topologiczny dzięki zmianom w czasie, co jest procesem zupełnie innym i dającym więcej korzyści niż cała topologiczna akustyka opierająca sie na asymetriach geometrycznych, mówi Andrea Alu. Dotychczasowe metody wymagały istnienia kanału, który był wykorzystywany do odbijania dźwięku, co znacząco ograniczało ich właściwości topologiczne. Dzięki modulacjom czasowym możemy uniemożliwić powrót dźwięku i uzyskać silną ochronę topologiczną. Przełomy dokonano dzięki stworzeniu urządzenia składającego się z zestawu okrągłych piezoelektrycznych rezonatorów ułożonych w strukturę powtarzających się heksagonów. Całość przypominała plaster miodu. Całość podłączono do zewnętrznego obwodu, który dostarczał sygnał modulujący odpowiedzialny za złamanie parzystości T. Co więcej, całość jest programowalna, co oznacza, że fale można wysłać wieloma różnymi drogami. Jak mówi Alu, wynalazek ten posłuży do udoskonalenia sonarów, układów elektronicznych wykorzystujących dźwięk czy urządzeń do obrazowania za pomocą ultradźwięków. Ze szczegółami badań można zapoznać się na łamach Science Advances. « powrót do artykułu
  11. Doktor inżynier Jacek Wilk-Jakubowski z Politechniki Świętokrzyskiej jest autorem innowacyjnej gaśnicy, która gasi pożar... falami dźwiękowymi. Jego urządzenie nie tylko tłumi ogień, ale ma i tę kolosalną zaletę, że nie niszczy otoczenia w takim stopniu jak gaśnice wodne czy pianowe. Ponadto jest tańsze w eksploatacji. Dźwiękowa gaśnica działa z odległości nienal 2 metrów i może być obsługiwana zdalnie. Człowiek nie musi więc znajdować się blisko ognia. Działanie gaśnicy polega na wykorzystaniu fali akustycznej, które zwiększa ruch powietrza na krawędzi płomieni. Tym samym zmniejsza się obszar, na którym następuje proces spalania, cząsteczki tlenu pod wpływem fali dźwiękowej zagęszczają się i rozrzedzają. W wyniku tego falującego ruchu odchylone płomienie rozrywają się na części i przestają na siebie oddziaływać, gdyż tlenu jest coraz mniej w miejscu, w którym zachodzi proces spalania. W efekcie, po zaledwie kilkunastu sekundach od uruchomienia urządzenia ogień udaje się ugasić, czytamy na stronach Politechniki Świętokrzyskiej. Ponadto w przeciwieństwie do tradycyjnych gaśnic, ta akustyczna może działać przez długi czas, gdyż nie występuje tutaj problem wyczerpania się środka gaśniczego, nie musi być cykliczne sprawdzania pod kątem występowania odpowiedniego ciśnienia. Mankamentem jest zaś konieczność zapewnienia źródła zasilania. Z eksperymentów przeprowadzonych przez doktora Wilka-Jakubowskiego wynika, że do gaszenia ognia najlepiej nadają się niskie dźwięki, znajdujące się na granicy słyszalności ludzkiego ucha. Wynalazca, we współpracy z Pawłem Stawczykiem i naukowcami z Uniwersytetu Technicznego w Bułgarii przeprowadził już pierwsze próby polowe prototypu. Gaśnica skutecznie tłumiła palące się ciecze i gazy. Naukowcy przeprowadzili już wstępne rozmowy z ekspertami ds. pożarnictwa. Wynika z nich, że nowatorska gaśnica najlepiej sprawdziłaby się jako wbudowany element systemu przeciwpożarowego budynku. Mogłaby w tej roli zastąpić tradycyjne spryskiwacze. « powrót do artykułu
  12. Pierwszą w Polsce operację wszczepienia pionierskich, aktywnych implantów wykorzystujących przewodnictwo kostne dźwięku przeprowadzili specjaliści Światowego Centrum Słuchu w Kajetanach. To nowy etap w leczeniu zaburzeń słuchu występujących w obrębie ucha zewnętrznego i środkowego – twierdzi prof. Henryk Skarżyński. W informacji przekazanej PAP główny wykonawca zabiegu, prof. Skarżyński poinformował, że zastosowano urządzenie o nazwie BONEBRIDGE BCI 602 wykorzystujące zjawisko przewodnictwa kostnego. Polega ono na przekazywaniu sygnału dźwiękowego przez kości czaszki bezpośrednio do ucha wewnętrznego. Odbywa się to w ten sposób, że kości czaszki są stymulowane drganiami mechanicznymi. Drgania te kierowane są bezpośrednio do ucha wewnętrznego, gdzie następuje ich przetwarzanie podobnie jak w przypadku normalnie docierających dźwięków (pomijany jest odcinek między uchem zewnętrznym a środkowym). Nowy aparat, który to umożliwia, składa się z dwóch części: zewnętrznej, którą stanowi procesor mowy, oraz wewnętrznej, całkowicie schowanej pod skórą pacjenta. Prof. Skarżyński wyjaśnia, że system ten przeznaczony jest dla osób z trwałym ubytkiem słuchu po różnych operacjach ucha zewnętrznego i środkowego, a także z wadami rozwojowymi ucha zewnętrznego i środkowego oraz z głuchotą jednostronną. Mogą z niego korzystać również pacjenci z wrodzoną mikrocją i atrezją przewodu słuchowego zewnętrznego. Są to wady wrodzone polegające na całkowitym (anocja) lub częściowym (mikrocja) braku małżowin usznych. Nowe implanty mogą poprawić słuch pacjentom po wcześniej przeprowadzonych operacjach uszu, które nie dały oczekiwanego efektu lub nie można było wszczepić im innych urządzeń. Aparat ma niewielkie rozmiary, mogą z niego korzystać pacjenci z wadami anatomicznymi, takimi jak zbyt cienka kość, za mały wyrostek sutkowaty oraz innymi wrodzonymi deformacjami. To kolejny milowy krok w polskiej otochirurgii. Cieszę się, że te przełomowe operacje możemy wykonać w Światowym Centrum Słuchu w Kajetanach. Tworząc Centrum chciałem, aby jego działalność kliniczna nie tylko dawała wymierne korzyści polskim pacjentom, ale także upowszechniała współczesne światowe standardy medyczne – podkreśla prof. Skarżyński. Zabieg wszczepienia implantu – wyjaśnia specjalista - nie wymaga dalszych interwencji chirurgicznych, ponieważ wszystkie części podlegające wymianie znajdują się w zewnętrznym mikroprocesorze dźwięku. W części zewnętrznej znajdują się też zasilanie i elektronika, dzięki czemu możliwa jest ich wymiana po wielu latach użytkowania. System może być wciąż udoskonalany bez konieczności wykonania kolejnej operacji. Parametry pracy urządzenia ustawia się komputerowo w oparciu o wyniki diagnostyki audiologicznej i stosownie do indywidualnych potrzeb użytkownika. Technologia cyfrowa w procesorze pozwala tak go dopasować, by zapewnić użytkownikowi jak najlepsze rozumienie mowy oraz uzyskać możliwie naturalne brzmienie dźwięku w różnych sytuacjach akustycznych. « powrót do artykułu
  13. Dźwięki, przy których się budzimy, mają wpływ na nasze późniejsze funkcjonowanie. Okazuje się, że budziki z melodyjką mogą podwyższać poziom czujności. Budziki z alarmem powiązano zaś z podwyższonym poziomem porannego oszołomienia. Odkrycia opisane na łamach PLoS ONE mają znaczenie dla osób, które muszą być w szczytowej formie niedługo po przebudzeniu, np. dla pracujących w służbach ratowniczych. Stuart McFarlane, doktorant z RMIT, podkreśla, że trudności z wybudzaniem, tzw. inercja senna, stanowią niekiedy istotny problem. Jeśli nie wybudzasz się prawidłowo, twoja wydajność w pracy może być upośledzona do 4 godzin, a w takiej sytuacji nietrudno o poważne wypadki. Można by zakładać, że zaskakujące pikające dźwięki budzika zwiększą czujność, ale nasze dane pokazały, że kluczowe wydają się dźwięki melodyjne. Było to dla nas sporym zaskoczeniem. Australijczycy podkreślają, że potrzebne są dalsze badania, które pokażą, jakie dokładnie połączenie melodii i rytmu sprawdza się najlepiej. Dodają, że większość ludzi wykorzystuje do wybudzania alarmy, a już teraz widać, że wybór dźwięku budzika może nieść za sobą ważne implikacje. Zwłaszcza dla osób, które krótko po przebudzeniu muszą pracować w niebezpiecznych warunkach, a więc np. dla strażaków czy pilotów [...]. W analizie uwzględniono odpowiedzi 50 osób; wypełniały one kwestionariusz online'owy. Każdy z ochotników wprowadzał dane nt. dźwięku wykorzystywanego do budzenia, a następnie oceniał poziom czujności i oszołomienia (wg standaryzowanych kryteriów inercji sennej). To badanie jest naprawdę ważne, gdyż nawet astronauci z Międzynarodowej Stacji Kosmicznej donoszą, że inercja senna ma wpływ na ich osiągi. Sądzimy, że ostre pikanie może zaburzać [...] aktywność naszego mózgu podczas przebudzenia, podczas gdy bardziej melodyjne dźwięki, takie jak Good Vibrations zespołu The Beach Boys czy Close to Me zespołu The Cure, mogą pomagać w przejściu do stanu czuwania w bardziej efektywny sposób - wyjaśnia prof. Adrian Dyer. Naukowcy mają nadzieję, że postępy w takich dziedzinach, jak sztuczna inteligencja i technologia snu pomogą w lepszym zrozumieniu powiązań między dźwiękami i stanem czuwania. « powrót do artykułu
  14. Kraby Ocypode quadrata dysponują ukrytą bronią, za pomocą której mogą straszyć wrogów, gdy podczas walki mają zajęte szczypce. Okazuje się, że umieją wydawać dźwięki, pocierając o siebie ząbkami kutykularnymi żołądka żującego. To świetna rzecz, gdy drapieżnik jest blisko. Kraby mogą wyciągnąć szczypce i nadal wytwarzać [odstraszające] dźwięki [listewka strydulacyjna, którą krab zwykle wykorzystuje do wydawania dźwięków, znajduje się na propodicie większych szczypiec] - wyjaśnia Jennifer Taylor, biolog z Instytutu Oceanografii Scrippsów. Podczas eksperymentów O. quadrata drażniono pałeczkami, plastikową makietą kraba, zdalnie sterowaną zabawką Hexbug (pająkiem), a także żywymi i martwymi krabami. Odnotowywano każdą próbę, podczas której pojawiało się zgrzytanie; naukowcy opisywali również inne zachowania zwierząt. Byłam mocno zaintrygowana wydawanymi przez nie dźwiękami. Obserwowałam je, by sprawdzić, czy poruszają czymś innym niż szczypcami, ale na zewnątrz [ciała] nic się nie działo. Naukowcy postanowili więc zajrzeć do środka. Drobny endoskop nie okazał się dobrym rozwiązaniem, gdyż krab zmiażdżył go po włożeniu do otworu gębowego. Źródło maksymalnych drgań zlokalizowano dopiero za pomocą laserowego wibrometru dopplerowskiego. Okazało się, że jest nim żołądek żujący. Na późniejszym etapie badań wykorzystano fluoroskopię; w tym celu kraby przewieziono do centrum medycznego z odpowiednim wyposażeniem. Naukowcy ustalili, że boczne zęby żołądka żującego są wyposażone w grzebieniowate struktury, które pocierają o zęby środkowe. W ten sposób powstaje strydulacja o dominujących częstotliwościach poniżej 2 kHz. Kraby Ocypode wyewoluowały na szczypcach specjalne struktury do wytwarzania dźwięków, ale jako wsparcie wykształciły sobie jeszcze tę drugą metodę. Gdy ich szczypce są już zajęte, mogą wytwarzać dźwięki od środka [dotyczy to zarówno samców, jak i samic]. Autorzy artykułu z pisma Proceedings of the Royal Society B opowiadają, że O. quadrata to pierwszy skorupiak, o którym wiadomo, że wykorzystuje do komunikacji ząbki kutykularne żołądka żującego. Jedynym innym znanym przypadkiem podobnego zachowania są opisane w 2017 r. na łamach periodyku Fish and Fisheries ryby, które wykorzystują do wydawania dźwięków swoje zęby gardłowe. Naukowcy dodają, że należy pamiętać, iż żołądki żujące występują u licznych skorupiaków i owadów, a różnego rodzaju "maszynerię rozcierającą" opisano także u innych zwierząt, możliwe więc, że analogiczny mechanizm produkcji dźwięku pozostaje nieodkryty również u nich... « powrót do artykułu
  15. W ramach prowadzonego przez Pentagon projektu Non-Lethal Weapons Program powstały... gadające kule plazmy. Naukowcy pracujący przy projekcie Laser Induced Plasma Effect wykorzystują lasery do zadawania bólu bez wywoływania oparzeń, generowania silnych dźwięków i rozbłysków oraz wydawania poleceń głosowych na odległość. Wykorzystywane promienie lasera mogą przejść przez szyby budynku, jednak nie penetrują jeszcze innych ciał stałych. Technologia znajduje się w początkowej fazie rozwoju. W przyszłości ma ona posłużyć ochronie baz wojskowych, różnego typu instalacji czy innych stałych elementów. Nie można jednak wykluczyć, że po opracowaniu odpowiedniego źródła zasilania urządzenia będzie można montować na samochodach i np. wykorzystywać je do kontroli tłumów czy ochrony konwojów. Podczas ostatniej rundy testów specjaliści skupili się na generowaniu ludzkiej mowy za pomocą lasera. Pomysł polega na wytworzeniu plazmy za pomocą jednej wiązki lasera, a następnie na potraktowaniu plazmy kolejnymi wiązkami tak, by wprawić ją w drgania o odpowiedniej częstotliwości i wygenerować ludzką mowę. Właśnie udało się to osiągnąć w warunkach laboratoryjnych. Dave Law, główny naukowiec w Non-Lethal Wapons Directorate mówi, że kolejnym celem jest wygenerowanie gadającej plazmy w laboratorium w odległości 100 metrów od laserów, później naukowcy będą chcieli przeprowadzić podobny eksperyment, ale na odległości liczonej w kilometrach. Law optymistycznie patrzy w przyszłość nowej technologii. Głównym problemem było bowiem opracowanie i dostrojenie algorytmu generującego mowę. Gdy już go rozwiązano, odległość przestaje być przeszkodą. Można to zastosować wszędzie. Odległość nie robi różnicy. Wystarczy wygenerować plazmę w pobliżu celu, modulować ją i wytworzyć mowę, mówi uczony. Jego zdaniem w ciągu 5 lat technologia będzie już na tyle dojrzała, że będzie można wyposażyć w nią oddziały wojskowe. Co więcej, ta sama technologia może zostać użyta jeszcze na dwa inne sposoby. Można za jej pomocą uzyskać efekt granatu hukowego. Pozwala bowiem na niemal nieprzerwane generowanie impulsów dźwiękowych o głośności 155 decybeli w pobliżu wyznaczonego celu. To znaczny postęp w porównaniu z granatem hukowym, który generuje maksymalnie dwa impulsy. Po drugie pozwala ona, za mocą bardzo krótkich impulsów laserowych, wytworzyć niewielką kulkę plazmy i skierować ją, przez ubranie, na skórę człowieka. Plazma wyżłobi w skórze miniaturowy otwór, zbyt mały by mówić o uszkodzeniu skóry, ale wystarczający, by wywołać odczucia bólowe. Można więc w ten sposób powstrzymywać napastnika czy rozpraszać tłum, nie robiąc ludziom krzywdy. Na załączonym poniżej filmie można posłuchać gadającej plazmy.   « powrót do artykułu
  16. Gdy w Grze o Tron słyszymy odgłosy wydawane przez smoki, to słyszymy m.in. odgłosy... seksu żółwi. Paula Fairfield, odpowiedzialna za dźwiękowe efekty specjalne w serialu, przyznaje, że wśród wielu dźwięków, z których stworzyła krzyki czy pomruki Drogona, Rheagala i Viseriona są też nagrania zwierzęcego seksu. Na odgłosy wydawane przez smoki składa się całą gama najróżniejszych dźwięków produkowanych przez zwierzęta, od trzepotania skrzydeł ważek, poprzez drapanie i stukot pazurów ptaków i gadów po oddech psa pani Fairfield. Jeśli zaś wsłuchamy się w pomruk, jaki Drogon wydaje w towarzystwie pozostałych smoków, usłyszymy tam m.in. odgłosy wydawane podczas seksu przez samca jednego z wielkich żółwi z Galapagos. W czasie seksu żółwie potrafią wydawać głośne dźwięki, a szczególnie donośne są odgłosy samców. Ich zew godowy może trwać nawet 20 minut i jest słyszany w promieniu wielu kilometrów, mówi James Gibbs, biolog z Uniwersytetu Stanowego Nowego Jorku. Pani Fairfield mówi, że chcąc nadać smokom cechy indywidualne, tworzyła wydawane przez nie odgłosy z różnych dźwięków. Drogon jest faworytem Daenerys. Jest najbardziej zadziorny ze wszystkich, to na nim Daenerys lubi latać. Zyskał zresztą imię po jej zmarłym mężu, Khalu Drogo. Zdaniem Fairfiled, jest jak jej kochanek. Zatem tworząc dźwięki wydawane przez Drogona zdecydowała się dodać odgłosy miłosne żółwi. Dźwięk godowy żółwia stanowi, po odpowiednich przeróbkach, podstawę pomruku Drogona, przyznaje Fairfield. Dla mnie ten pomruk to esencja seksualności. Dzisiaj ma premierę finałowy sezon Gry o Tron, zatem zainteresowani mogą wsłuchać się, jak mruczy Drogon i przypomnieć sobie, jak ten dźwięk powstał. « powrót do artykułu
  17. Ostatnie badania, których wyniki ukazały się w piśmie Acta Tropica, pokazują, że ugryzieniom komarów można zapobiec, odtwarzając dubstep, a konkretnie utwory Skrilleksa. Dźwięk jest kluczowy dla rozmnażania, przeżycia i utrzymania populacji wielu zwierząt. Mając to na uwadze, naukowcy wystawili dorosłe osobniki Aedes aegypti na oddziaływanie muzyki elektronicznej. W ten sposób oceniano, czy może ona spełniać funkcję repelenta. Ma to spore znaczenie, zważywszy, że A. aegypti przenoszą m.in. wirusy dengi czy zarodźce malarii. Naukowcy wybrali piosenkę Scary Monsters And Nice Sprites, ponieważ stanowi ona mieszaninę bardzo wysokich i bardzo niskich częstotliwości. U owadów wibracje o niskiej częstotliwości ułatwiają interakcje seksualne, zaś hałas zaburza percepcję sygnałów od przedstawicieli tego samego gatunku oraz żywicieli - wyjaśniają naukowcy. Wyniki uzyskane podczas eksperymentów okazały się zachęcające. Samice były "zainteresowane" utworem i atakowały żywicieli później i rzadziej niż komarzyce ze środowiska kontrolnego (bez dźwięków dubstepu). Wg biologów, częstotliwość żerowania na krwi była podczas odtwarzania muzyki niższa. Oprócz tego komary wystawiane na oddziaływanie muzyki Skrilleksa o wiele rzadziej kopulowały. Spostrzeżenie, że taka muzyka może odroczyć atak na żywiciela, ograniczyć żerowanie na krwi i zaburzyć spółkowanie, wskazuje na potencjał osobistej ochrony muzycznej i kontrolowania w ten sposób chorób roznoszonych przez komary Aedes.   « powrót do artykułu
  18. W 1985 roku Charles Hockett wysunął hipotezę, zgodnie z którą używanie zębów i szczęki jako narzędzi w społecznościach łowiecko-zbierackich spowodowało, że ich przedstawiciele nie mogli wymawiać dźwięków, do produkcji których używa się jednocześnie dolnej wargi i górnych zębów (spółgłoski wargowo-zębowe), czyli dźwięków „f” [f] i „w” [v]. Damian Blasi z Instytutu Historii Człowieka im. Maksa Plancka, Steven Moran z Instytutu Lingwistyki w Zurichu oraz ich koledzy z Francji, Holandii i Singapuru połączyli dane paleoantropologiczne, lingwistyki historycznej oraz biologii ewolucyjnej i na tej podstawie dostarczyli dowodów, że w neolicie doszło do ogólnoświatowej zmiany dźwięków w językach. Języki zostały więc ukształtowane poprzez zmiany spowodowane zmianą sposobu gryzienia, na co wpłynęło rolnictwo, zmiany dietetyczne oraz zmiany w zachowaniu. Ludzka mowa jest bardzo zróżnicowana, a wydawane dźwięki rozciągają się od bardzo rozpowszechnionych „m” czy „a”, po unikatowe głoski mlaszczące w niektórych językach afrykańskich. Uważa się, że zdolność do wymawiania ponad 2000 różnych dźwięków pojawiła się wraz z ewolucją i istnieje co najmniej od pojawienia się Homo sapiens. Jednocześnie specjaliści sądzą, że rozpowszechnienie się danego dźwięku w językach świata zależy od tego, na ile łatwo dźwięk ten wymówić, odróżnić od innych i nauczyć się go. Również te umiejętności są na stałe wbudowane w nasz gatunek. Biorąc pod uwagę powyższe uwarunkowania można spodziewać się, że każda zmiana w ludzkim aparacie mowy, słuchu czy w zdolności do uczenia się powinna wpływać na prawdopodobieństwo, a może nawet na zakres, występowania dźwięków w języku. Dowody paleoantropologiczne wskazują, że w neolicie doszło do dużej zmiany w ludzkim aparacie mowy. Prawidłowy jest odpowiedni nagryz pionowy i poziomy, gdy zęby górne i dolne nie nachodzą całkowicie na ciebie. Jednak w paleolicie ludzie używali zębów jako narzędzi, przez co już w wieku nastoletnim wykształcał się u nich zgryz, w którym zęby całkowicie na siebie nachodziły. Przez to dźwięki, wymagające kontaktu dolnej wargi z górnymi zębami były trudne do wymówienia. Odpowiedni nagryz pionowy i poziomy u dorosłych widzimy w danych paleontologicznych pochodzących z czasu, gdy upowszechniło się rolnictwo, a wraz z nim bardziej intensywne przetwarzanie żywności, dzięki czemu ludzie zaczęli jeść bardziej miękkie pożywienie. Wówczas aparat mowy H. sapies ukształtował się tak, że można było z łatwością wymawiać dźwięki „f” [f] i „w” [v]. Hipoteza taka znajduje wsparcie w modelach biomechanicznych. Dzięki nim wiemy, że przy prawidłowym nagryzie wymówienie głosek wargowo-zębowych „f” [f] i „w” [v] wymaga o 30% mniej wysiłku niż wówczas, gdy zęby dokładnie na siebie nachodzą. Problem ten nie występuje w wypadku dźwięków takich jak „m” [m] czy „p” [p], które powstają dzięki zetknięciu obu warg. Te dźwięki ludzie paleolitu mogli bez problemu wymawiać. Modele takie wykazały również, że taki jak obecnie nagryz pionowy i poziomy zmniejsza od 24 do 70 procent odległość pomiędzy zębami a wargą przy artykulacji spółgłosek dwuwargowych („m” [m], „p” [p] i inne), prowadząc w ten sposób do zwiększenia prawdopodobieństwa przypadkowego pojawienia się dźwięków wargowo-zębowych w społecznościach, gdzie prawidłowy nagryz został zachowany w wieku dorosłym. Oszacowania występowania prawidłowego nagryzu w zależności od rozpowszechnienia w danej społeczności żywności pochodzącej z rolnictwa wykazały, że w społecznościach łowiecko-zbierackich głoski zębowo-wargowe występują 4-krotnie rzadziej niż w społecznościach rolniczych. Podobne wyniki dały badania rekonstrukcyjne nad językami indoeuropejskimi. Okazało się, że mediana prawdopodobieństwa występowania dźwięków wargowo-zębowych w protojęzyku (6000 do 8000 lat temu) wynosiła około 3%, podczas gdy w istniejących językach indoeuropejskich wynosi ona 76%. Dźwięki „f” [f] oraz „w” [v] rozpowszechniły się w ludzkich językach stosunkowo niedawno, a było to możliwe dzięki pojawieniu się rolnictwa. « powrót do artykułu
  19. Obecnie choroba Alzheimera jest nieuleczalna. Istnieje nieco leków, które czasowo poprawiają funkcjonowanie chorych, jednak żaden z nich nie powstrzymuje ani znacząco nie spowalnia postępów choroby. Wszystkie dotychczasowe próby farmakologicznego leczenia zawiodły. Tymczasem pojawiła się nadzieja na leczenie bez użycia środków chemicznych. W najnowszym numerze Cell czytamy o eksperymentach, w wyniku których w mózgach myszy z alzheimerem poddanych działaniu światła i dźwięku doszło do zmniejszenia liczby blaszek amyloidowych oraz splątków neurofibrylarnych. To fascynujący artykuł. I bardzo prowokacyjny pomysł. To nieinwazyjny, łatwy do zastosowania i tani sposób. Jeśli przynosiłoby to korzyści ludziom, byłoby cudownie, mówi neurolog Shannon Macauley z Wake Forest School of Medicine, która nie była zaangażowana w opisywane badania. Wszystko zaczęło się w 2015 roku, gdy neurolog Li-Huei Tsai, dyrektor The Picower Institute for Learning and Memory w MIT prowadziła eksperyment, którego celem było manipulowanie aktywnością mózgu myszy za pomocą błysków białego światła. Gdy duże grupy neuronów wspólnie oscylują, dochodzi do powstawania fal mózgowych. Tsai poddawała myszy działaniom światła o częstotliwości 40 Hz, czyli migającego 40 razy na sekundę. W odpowiedzi ich mózgach pojawiły się fale gamma o częstotliwości 40 Hz. Wówczas stało się coś niespodziewanego, o czym uczona przekonała się, gdy poddała mózgi myszy sekcji. Zauważyła wówczas, że zmniejszyła się w nich liczba blaszek amyloidowych i splątków neurofibrylarnych. To było coś niezwykłego. Stymulowanie za pomocą błyskającego światła wywołała silną odpowiedź mikrogleju. To komórki odpornościowe mózgu, które oczyszczają go z resztek i toksyn, w tym z amyloidu. W chorobie Alzheimera ich działanie jest upośledzone, jednak wydaje się, że światło przywraca im ich zdolności, mówi uczona. Proces oczyszczania przebiegł tylko w korze wzrokowej, gdzie mózg przetwarza informacje uzyskiwane ze światła. Uczona postanowiła sprawdzić, czy możliwe jest pobudzenie innych obszarów mózgu i do światła o częstotliwości 40 Hz dodała dźwięk podobny do kliknięć delfina, również o częstotliwości 40 Hz. Badane myszy umieszczono w pomieszczeniu, gdzie przez godzinę dziennie przez tydzień były poddawane działaniu zarówno światła jak i dźwięku. Okazało się, że liczba blaszek amyloidowych i splątków neurofibrynalnych zmniejszyła się nie tylko w korze wzrokowej i słuchowej, ale również w korze przedczołowej i w hipokampie. To jedna z najważniejszych informacji, gdyż są to centra uczenia się i pamięci. A liczba blaszek i splątków zmniejszyła się o 40–50 procent. To imponujące, mówi Macauley. Tsai poddała swoje myszy testom poznawczym. Miały one przyjrzeć się obiektom, które już wcześniej znały oraz takim, które widziały po raz pierwszy. Okazało się, że myszy, które nie było poddawane terapii za pomocą światła i dźwięku traktowały wcześniej widziany obiekt jak zupełnie nowy. To wskazuje na problemy z pamięcią, mówi Tsai. Z kolei myszy poddawane terapii spędziły na badaniu widzianego wcześniej obiektu o 1/3 czasu mniej niż myszy nieleczone. To niewiarygodne. Po raz pierwszy stwierdziliśmy, że nieinwazyjna stymulacja poprawiła funkcje poznawcze. Tego nie zrobił lek, przeciwciało czy cokolwiek innego. Tylko światło i dźwięk, mówi uczona. Naukowcy nie wiedzą, dlaczego uzyskali takie wyniki. Jedna z możliwych hipotez mówi, że w mózgach chorych na alzheimera mamy do czynienia z nieregularną aktywnością neuronów. Stymulacja za pomocą regularnych sygnałów może dostrajać mózg do odpowiedniej pracy. Uczeni nie wiedzą też, czy podobny efekt można będzie zauważyć przy innych częstotliwościach światła i dźwięku. I, co najważniejsze, nie wiedzą też, czy podobne skutki uda się uzyskać u ludzi. Li-Huei Tsai już pracuje nad odpowiedziami na te pytanie. Wraz z kolegą Edem Boydenem założyła firmę Cognito Therapeutics i rozpoczęła testy na ludziach. Na razie zauważono, że stymulacja światłem i dźwiękiem wydaje się zwiększać ilość fal gamma u zdrowych osób i nie występują żadne skutki uboczne. Nikt się nie pochorował, nikt się na nic nie skarżył. Jednak minie dużo czasu zanim będziemy mogli mówić o ewentualnych działaniach terapeutycznych. Jeśli ta metoda działa, to pierwsze potwierdzenie otrzymamy nie wcześniej niż po pięciu latach eksperymentów, zastrzega uczona. « powrót do artykułu
  20. Badania podjęte przez naukowców z Northumbria University wskazują na istnienie nieznanej dotychczas stałej podstawowej Słońca. W artykule, który został opublikowany w Nature Astronomy, czytamy, że fale magnetyczne naszej gwiazdy zachowują się inaczej niż dotychczas sądzono. Po przeanalizowaniu danych z okresu 10 lat naukowcy doszli do wniosku, że fale magnetyczne w koronie Słońca reagują na dźwięk wydobywający się z wnętrza gwiazdy. Fale te, zwane falami Alfvena, odgrywają kluczową rolę w transporcie energii wokół Słońca i w Układzie Słonecznym. Dotychczas sądzono, że ich źródłem jest powierzchnia gwiazdy. Teraz okazuje się, że fale te są wzbudzone w wyższych partiach atmosfery Słońca przez fale dźwiękowe z jego wnętrza. Brytyjscy naukowcy odkryli, że fale dźwiękowe pozostawiają w falach magnetycznych unikatowy ślad. Cała korona słoneczna, reagując na wspomniane fale dźwiękowe, wibruje w określonych częstotliwościach. Nowo odkryte zjawisko występowało stale przez cały badany 10-letni okres, co wskazuje, że mamy do czynienia z fundamentalną stałą Słońca i prawdopodobnie innych gwiazd. Odkrycie to będzie miało olbrzymie znaczenie dla naszego rozumienia transportu energii w atmosferze Słońca. Odkrycie tak specyficznego śladu, który potencjalnie może być nową stałą Słońca, jest niezwykle ekscytujące. Wcześniej sądziliśmy, że fale magnetyczne są wzbudzane przez wodór na powierzchni gwiazdy, a teraz wiemy, że są wzbudzane przez fale dźwiękowe. Być może powstanie nowy sposób na badanie i klasyfikowanie gwiazd pod kątem tej unikatowej sygnatury. Skoro wiemy, że ona istnieje, możemy poszukać jej w innych gwiazdach, mówi główny autor badań, doktor Richard Morton. Korona Słońca jest ponad 100-krotnie cieplejsza niż jego powierzchnia, a odpowiada za to energia z fal Alfvena, która podgrzewa koronę do temperatury około miliona stopni. Fale Alfvena są też odpowiedzialne za podgrzewanie i przyspieszanie wiatru słonecznego. « powrót do artykułu
  21. Izraelscy naukowcy zauważyli, że pewne rośliny z rodziny pierwiosnkowate reagują na... dźwięk pszczół i ciem. W odpowiedzi na dźwięk wydawany przez skrzydła owadów rośliny w ciągu trzech minut uwalniają dodatkowe ilości pyłku i zwiększają koncentrację cukru w nektarze. To kolejne badania pokazujące, w jaki sposób ewoluowały rośliny i owady. Dotychczas naukowcy zajmowali się reakcją roślin na światło, na stymulację mechaniczną oraz chemiczną. Zdolności roślin do wyczuwania takich bodźców odpowiadają zmysłom wzroku, dotyku i węchu. Teraz okazuje się, że rośliny posiadają też odpowiednik zmysłu słuchu. Przeprowadzone przez Izraelczyków badania wykazały, że reakcja roślin zależy od częstotliwości dźwięku. Gdy zostają one wystawione na działanie dźwięku o częstotliwości wyższej niż ten wydawany przez zapylaczy, nie reagują. Jako, że produkcja nektaru wymaga sporych nakładów energetycznych, rośliny – wykrywając owady – mogą precyzyjnie dobierać czas, w którym wkładają większy wysiłek w zachęcenie zapylacza do zainteresowania się nimi. Owad otrzymuje zaś dodatkową nagrodę w postaci bardziej wartościowego pożywienia. Badacze nie wykluczają, że zdolność do odbierania dźwięków przez rośliny mogła wpłynąć też na ich kształt. Ponadto sugerują, że na rośliny mogą wpływać inne dźwięki, na przykład te generowane przez człowieka, zakłócając ich komunikację z zapylaczami. Okazało się bowiem, że wiele sztucznych dźwięków ma bardzo podobną częstotliwość do dźwięków wydawanych przez skrzydła zapylaczy, co prowokuje rośliny do reakcji. Izraelczycy uważają, że kolejne badania ujawnią, czy rośliny słyszą i reagują na roślinożerców, inne zwierzęta, czynniki naturalne, a być może również słyszą się nawzajem. « powrót do artykułu
×
×
  • Create New...