
Po raz pierwszy w historii pacjent z zespołem zamknięcia komunikował się pełnymi zdaniami
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Naukowcy z SETI Institute oraz Uniwersytetu Kalifornijskiego w Davis są pierwszymi, którzy zarejestrowali wielkie pierścienie powietrza wypuszczane przez humbaki. Zwierzęta tworzyły je podczas przyjaznej interakcji z ludźmi. Trudno oprzeć się wrażeniu, że pierścienie te przypominają kółka wypuszczane przez palaczy papierosów. Naukowcy przypuszczają, że pierścienie to albo próba zabawy, albo komunikacji z ludźmi.
Nie od dzisiaj wiemy, że humbaki wykorzystują bańki powietrza do otaczania ławic ryb, na które polują. Ponadto samce głośno wypuszczają powietrze, tworząc widoczne ślady na wodzie, gdy konkurują o samice. Tym razem mamy do czynienia z nieznanym wcześniej zjawiskiem - tworzeniem specyficznych baniek podczas przyjaznej interakcji z ludźmi.
Humbaki żyją w złożonych społecznościach, wydają różne dźwięki, posługują się bąblami powietrza jak narzędziami, pomagają innym gatunkom atakowanym przez drapieżniki. Teraz widzimy, że wydmuchują w kierunku ludzi pierścienie z powietrza. To może być sposób na interakcję, obserwowanie naszej reakcji i zaangażowanie nas w zabawę lub komunikację, mówi doktor Fred Sharpe.
Humbaki w przyjazny sposób interesują się łodziami i pływającymi ludźmi. Większość spośród obserwowanych przez nas na całym świecie dziesiątek populacji waleni, podpływała do łodzi i ludzi, wypuszczając bąble, dodaje Jodi Frediani.
Źródło: Humpback Whales Blow Poloidal Vortex Bubble Rings, https://onlinelibrary.wiley.com/doi/10.1111/mms.70026
« powrót do artykułu -
przez KopalniaWiedzy.pl
Ośrodek Broki to obszar ludzkiego mózgu odpowiedzialny za generowanie mowy, ośrodek Wernickego jest obszarem, dzięki którym rozpoznajemy głoski, wyrazy i zdania. W mózgach szympansów istnieją homologiczne struktury, odziedziczone po wspólnym przodku. Teraz odkryto w nich istnienie pęczka łukowatego, wiązki włókien, łączących u ludzi ośrodki Broki i Wernickego. Nasze odkrycie pokazuje, że architektura mózgu niezbędna do pojawienia się mowy, nie powstała u ludzi. Prawdopodobnie wyewoluowała ona z wcześniej istniejącej struktury. Pęczek łukowaty u szympansów jest zdecydowanie mniej rozbudowany niż u ludzi i być może nie umożliwia generowanie złożonego ludzkiego języka, mówi główny autor badań Yannick Becker z Instytutu im. Maxa Plancka.
Odkrycie u szympansów struktury homologicznej do pęczka łukowatego rzuca wyzwanie obecnemu rozumieniu ewolucji języka i pokazuje, że struktury potrzebne do jego wytwarzania nie pojawiły się dopiero u rodzaju Homo.
Autorzy badań, naukowcy z Instytutu im. Maxa Plancka, francuskiego Narodowego Centrum Badań Naukowych, Taï Chimpanzee Project na Wybrzeżu Kości Słoniowej oraz Ozouga Chimpanzee Project z Gabonu, użyli rezonansu magnetycznego z wykorzystaniem dyfuzji (dMRI) do obrazowania mózgów szympansów, które z przyczyn naturalnych zmarły w niewoli i na wolności.
We wszystkich 20 przebadanych mózgach wyraźnie było widać pęczek łukowaty. To zaś wskazuje, że struktura ta istniała przed około 7 milionami lat u wspólnego przodka człowieka i szympansa. Uzyskane wyniki zmieniają nasze rozumienie ewolucji języka i zdolności poznawczych, mówi Angela D. Friderici, dyrektor Wydziału Neuropsychologii w Instytucie Ludzkich Nauk Poznawczych i Nauk o Mózgu im. Maxa Plancka.
Teraz, dzięki naszemu międzynarodowemu konsorcjum badawczemu, które łączy afrykańskie rezerwaty, azyle dla zwierząt i europejskie ogrody zoologiczne możemy połączyć dane dotyczące zachowania wielkich małp w czasie ich całego życia ze strukturami w mózgu. To pozwoli nam jeszcze lepiej poznać neuronalne podstawy zdolności poznawczych człowiekowatych, dodaje Becker.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wszczepiony do mózgu interfejs mózg-komputer umożliwiły osobie z paraliżem czterokończynowym (tetraplegią) precyzyjne sterowanie wirtualnym dronem. Wystarczyło, że sparaliżowany myślał o poruszaniu palcami dłoni.
Technologia opracowana na University of Michigan dzieli dłoń na trzy części: kciuk oraz dwie pary pozostałych palców, z których jedną parę stanowią wskazujący i środkowy, a drugą serdeczny i mały. Każda z części może poruszać się w pionie i poziomie. Gdy osoba sparaliżowana myśli o poruszaniu tych trzech części – czasami równocześnie – może sterować wirtualnym dronem, omijając przeszkody na trasie. Taka technologia może być niezwykle pomocna osobom, które doświadczyły porażenia kończyn. Z jednej strony pozwoli im na wchodzenie w interakcje społeczne, na przykład granie ze znajomymi, z drugiej zaś, może umożliwić też znalezienie zdalnej pracy.
To większy zakres funkcji, niż wszystko co dotychczas opracowano na podstawie ruchów palców, mówi profesor neurochirurgii i inżynierii biomedycznej, Matthew Willsey, główny autor artykułu, w którym na łamach Nature opisano to osiągnięcie.
Istnieją obecnie nieinwazyjne metody pozwalające na sterowanie wirtualnymi obiektami za pomocą fal mózgowych odczytywanych przez EEG. Jednak elektroencefalografia zbiera sygnały z dużych obszarów mózgu, a autorzy obecnych badań uważają, że do precyzyjnego wykorzystania funkcji motorycznych mózgu konieczne jest umieszczenie elektrod jak najbliżej odpowiednich neuronów. Udowodnili to zresztą podczas swoich eksperymentów, w czasie których osoby badane sprawowali sześciokrotnie bardziej precyzyjną kontrolę nad dronem niż podczas używania EEG.
Najpierw jednak pacjenci muszą poddać się zabiegowi chirurgicznemu, w trakcie którego elektrody są wszczepiane do kory ruchowej, łączone są kablami ze specjalną podstawką umocowaną do czaszki, z którą można połączyć następnie komputer. Elektrody odbierają sygnały z kory ruchowej, które pojawiają się tylko wówczas, gdy człowiek próbuje poruszyć palcami. Sztuczne sieci neuronowe interpretują te sygnały i wysyłają polecenia do wirtualnego drona, wyjaśnia Willsey.
Uczestnik badań rozpoczął współpracę z naukowcami w 2016 roku, wiele lat po tym, jak z powodu uszkodzenia rdzenia kręgowego nie mógł poruszać żadną z kończyn. Chciał wziąć udział w badaniach, a szczególnie zainteresowany był lataniem.
Dron nie był przypadkowym wyborem. Nasz pacjent to pasjonat lotnictwa. Spełniając jego marzenie o lataniu mogliśmy jednocześnie pracować nad platformą do kontroli wielu paców, wyjaśnia współautor badań, Donald Avansino. Kontrolowanie palców to bardzo ważny krok naprzód. Jednak ostatecznym celem jest kontrola ruchów całego ciała, dodaje Nishal Shah.
Bardzo ważnym aspektem badań jest wyjście poza bardzo podstawowe funkcje, jak jedzenie. Jeśli możemy za pomocą myśli kontrolować wiele wirtualnych palców, to nie tylko możemy wchodzić w interakcje społeczne grając, ale wykonywać wiele innych czynności, od używania edytorów tekstów, oprogramowania CAD po komponowanie muzyki.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Anna Tomańska, studentka Wydziału Medycyny Weterynaryjnej Uniwersytetu Przyrodniczego we Wrocławiu (UPWr), bada komunikację pszczół. Chce sprawdzić, jakie dźwięki wydają, gdy są zadowolone, zaniepokojone czy chore. Interesuje się też wykorzystaniem nowoczesnych urządzeń w hodowli tych owadów. Jej wnioski mogą być bardzo przydatne dla pszczelarzy.
Tomańska interesuje się pszczelarstwem od 2 lat. Sporo zawdzięcza w tym zakresie opiekunowi projektu, prof. UPWr, dr. hab. Pawłowi Chorbińskiemu. Pan profesor to autorytet w dziedzinie pszczelarstwa i potrafi skutecznie zarażać swoją pasją – podkreśla studentka.
Już wcześniej interesowałam się bioakustyką. Wspólnie z inżynierem dźwięku i producentem radiowym z Wielkiej Brytanii Philipem Millem napisaliśmy artykuł o nagrywaniu dźwięków przyrody i technologiach. To wtedy, w naszych rozmowach, po raz pierwszy pojawił się temat pszczół. Pomyślałam, że dźwięki z wnętrza ula mogą być nie tylko fascynujące, ale niezwykle ciekawe pod kątem testowania nowoczesnych urządzeń w hodowli tych owadów.
Gdy o pomyśle dowiedział się prof. Chorbiński, namówił Tomańską, by zgłosiła się do programu stypendialnego "Magistrant wdrożeniowy na UPWr".
Studentka wykorzystała drewniane ule wielkopolskie. Wygłuszyła je za pomocą pianki akustycznej, a następnie zainstalowała elektronikę (czujniki ciepła i wilgotności). Ule znajdują się w powstającej właśnie nowoczesnej pasiece w Górach Sowich.
Tomańska przez kilka miesięcy nagrywała dźwięki z ula, a także rejestrowała zmiany temperatury i wilgotności.
Pszczoły nie tylko bzyczą, w ulu słychać też np. ich tupanie oraz komunikację. Ta ostatnia jest fascynująca, dlatego chcemy sprawdzić, czym będzie różnić się, kiedy np. w ulu będzie matka z mniejszą/większą liczbą robotnic, sama matka albo dwie matki. Chcemy wyselekcjonować dźwięki, jakie wydają spokojne pszczoły, od tych, które słychać, gdy są zaniepokojone - tłumaczy studentka. Podobnie z temperaturą: w jakich sytuacjach spada, a kiedy rośnie. Analiza i wnioski z tych badań z pewnością pomogą pszczelarzom. Będą mogli na odległość, za pomocą elektroniki, zapobiegać niebezpiecznym sytuacjom w pasiece - dodaje.
Kilkunastominutowego audioeseju o pszczołach miodnych, który powstał w ramach projektu "Magistrant wdrożeniowy", można wysłuchać dzięki Radiu Warroza.
Owocem współpracy Tomańskiej i Milla jest ebook "Bioakustyka". Jak podkreślono w opisie książki, jest to krótki przewodnik, który pomoże Ci postawić pierwsze kroki w nagrywaniu przyrody. W listopadzie zeszłego roku w paśmie gościnnym Radia Kapitał zadebiutowała też ich audycja o Borach Tucholskich.
« powrót do artykułu -
przez KopalniaWiedzy.pl
O ile nam wiadomo, jest to pierwsza udana demonstracja bezpośredniego dekodowania z mózgu pełnych wyrazów u osoby, która jest sparaliżowana i nie może mówić, stwierdza neurochirurg profesor Edward Chang. Uczony wraz z kolegami opracował „neuroprotezę mowy”, urządzenie, które u ciężko sparaliżowanego pacjenta rejestruje sygnały w mózgu i przekłada je na mowę.
Każdego roku z powodu różnych chorób, udarów czy wypadków tysiące osób tracą możliwość mówienia. Nowy system daje nadzieję, że będą mogły łatwo komunikować się z otoczeniem.
Dotychczasowe badania na tym polu ograniczały się do literowania. Neuroprotezy do komunikacji wyłapywały z mózgu sygnały, za pomocą których chory sterował kursorem i na wirtualnej klawiaturze, litera po literze, pisał to, co chce powiedzieć. Cheng i jego zespół poszli w zupełnie innym kierunku. Skupili się na sygnałach kontrolujących mięśnie aparatu mowy. Zdaniem Amerykanów, jest to bardziej naturalny i płynny sposób, dzięki któremu komunikacja z niemówiącym pacjentem może być znacznie szybsza i bardziej płynna.
Zwykle mówimy z prędkością 150–200 wyrazów na minutę, zauważa Cheng. Wszelkie metody pisania czy kontrolowania kursora są wolniejsze i bardziej pracochłonne. Jeśli przejdziemy bezpośrednio do słów, tak jak robimy to tutaj, wiele zyskamy, gdyż jest to bardziej podobne do naturalnego sposobu mówienia.
W ciągu ostatniej dekady Chengowi bardzo pomogli pacjenci z University of California San Francisco (UCSF) Epilepsy Center. Były to osoby, które operowano w celu znalezienia źródła epilepsji i na powierzchni ich mózgów umieszczano elektrody.
Wszystkie to osoby mówiły i zgodziły się na dokonanie badań, podczas których analizowano aktywność ich mózgów w czasie mówienia. W ten sposób udało się stworzyć mechanizm przekładający sygnały z mózgu służące do sterowania aparatem mowy, na słowa. Jednak sam ten fakt nie gwarantował, że to samo będzie skuteczne u osób, których aparat mowy został sparaliżowany. Tym bardziej, że nie było wiadomo, czy u osób, których aparat mowy sparaliżowany jest od lat, sygnały go kontrolujące nie uległy jakimś zmianom lub uszkodzeniom.
Rozpoczęto więc program badawczy BRAVO (Brain-Computer Interface Restoration Arm and Voice). Jego pierwszym pacjentem (BRAVO1), był mężczyzna w wieku nieco poniżej 40 lat, który ponad 15 lat wcześniej doznał poważnego udaru, który uszkodził połączenia pomiędzy jego mózgiem, kończynami i aparatem mowy. Od tamtej pory mężczyzna komunikował się ze światem za pomocą bardzo ograniczonych ruchów głowy i wskaźnika przyczepionego do czapki baseballowej, którym pokazywał litery na ekranie.
Pacjent, wraz z zespołem Cheunga stworzyli najpierw słownik składający się z 50 wyrazów, jakie można było rozróżniać na podstawie aktywności mózgu. Wyrazy te, jak „rodzina”, „woda” czy ”dobrze” – pozwalały na stworzenie setek zdań. Naukowcy umieścili na mózgu pacjenta gęstą sieć elektrod, która badała aktywność w korze ruchowej i ośrodkach mowy. W czasie 48 sesji nagrali 22 godziny aktywności neuronów. W czasie nagrywania pacjent starał się wielokrotnie wypowiadać każde z 50 słów ze słownika, a elektrody rejestrowały aktywność jego mózgu.
Podczas testów, zadaniem BRAVO1 była próba wypowiedzenia prezentowanych przez naukowców zdań utworzonych za pomocą 50-wyrazowego słownika. Później zaś pacjentowi zadawano pytania, a ten miał na nie odpowiadał.
Testy wykazały, że system na podstawie aktywności mózgu jest w stanie pracować ze średnią prędkością do 15 wyrazów na minutę, a mediana bezbłędnego generowania wypowiedzi wynosi 75%. Najlepszy osiągnięty wynik to 18 wyrazów na minutę i dokładność 93%.
Autorzy badań mówią, że były to testy mając sprawdzić czy ich koncepcja w ogóle m sens. Jesteśmy zachwyceni, że udało się w ten sposób dekodować wiele zdań o różnym znaczeniu. Wykazaliśmy, że w ten sposób można ułatwić pacjentom komunikację, stwierdza doktor David Moses, inżynier z laboratorium Changa i jeden z głównych autorów badań.
Naukowcy już przygotowują się do poszerzenia swoich eksperymentów o kolejne osoby z poważnym paraliżem i deficytami komunikacyjnymi. Pracują jednocześnie nad powiększeniem słownika i przyspieszeniem tempa komunikacji.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.