
Po raz pierwszy w historii pacjent z zespołem zamknięcia komunikował się pełnymi zdaniami
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Ośrodek Broki to obszar ludzkiego mózgu odpowiedzialny za generowanie mowy, ośrodek Wernickego jest obszarem, dzięki którym rozpoznajemy głoski, wyrazy i zdania. W mózgach szympansów istnieją homologiczne struktury, odziedziczone po wspólnym przodku. Teraz odkryto w nich istnienie pęczka łukowatego, wiązki włókien, łączących u ludzi ośrodki Broki i Wernickego. Nasze odkrycie pokazuje, że architektura mózgu niezbędna do pojawienia się mowy, nie powstała u ludzi. Prawdopodobnie wyewoluowała ona z wcześniej istniejącej struktury. Pęczek łukowaty u szympansów jest zdecydowanie mniej rozbudowany niż u ludzi i być może nie umożliwia generowanie złożonego ludzkiego języka, mówi główny autor badań Yannick Becker z Instytutu im. Maxa Plancka.
Odkrycie u szympansów struktury homologicznej do pęczka łukowatego rzuca wyzwanie obecnemu rozumieniu ewolucji języka i pokazuje, że struktury potrzebne do jego wytwarzania nie pojawiły się dopiero u rodzaju Homo.
Autorzy badań, naukowcy z Instytutu im. Maxa Plancka, francuskiego Narodowego Centrum Badań Naukowych, Taï Chimpanzee Project na Wybrzeżu Kości Słoniowej oraz Ozouga Chimpanzee Project z Gabonu, użyli rezonansu magnetycznego z wykorzystaniem dyfuzji (dMRI) do obrazowania mózgów szympansów, które z przyczyn naturalnych zmarły w niewoli i na wolności.
We wszystkich 20 przebadanych mózgach wyraźnie było widać pęczek łukowaty. To zaś wskazuje, że struktura ta istniała przed około 7 milionami lat u wspólnego przodka człowieka i szympansa. Uzyskane wyniki zmieniają nasze rozumienie ewolucji języka i zdolności poznawczych, mówi Angela D. Friderici, dyrektor Wydziału Neuropsychologii w Instytucie Ludzkich Nauk Poznawczych i Nauk o Mózgu im. Maxa Plancka.
Teraz, dzięki naszemu międzynarodowemu konsorcjum badawczemu, które łączy afrykańskie rezerwaty, azyle dla zwierząt i europejskie ogrody zoologiczne możemy połączyć dane dotyczące zachowania wielkich małp w czasie ich całego życia ze strukturami w mózgu. To pozwoli nam jeszcze lepiej poznać neuronalne podstawy zdolności poznawczych człowiekowatych, dodaje Becker.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wszczepiony do mózgu interfejs mózg-komputer umożliwiły osobie z paraliżem czterokończynowym (tetraplegią) precyzyjne sterowanie wirtualnym dronem. Wystarczyło, że sparaliżowany myślał o poruszaniu palcami dłoni.
Technologia opracowana na University of Michigan dzieli dłoń na trzy części: kciuk oraz dwie pary pozostałych palców, z których jedną parę stanowią wskazujący i środkowy, a drugą serdeczny i mały. Każda z części może poruszać się w pionie i poziomie. Gdy osoba sparaliżowana myśli o poruszaniu tych trzech części – czasami równocześnie – może sterować wirtualnym dronem, omijając przeszkody na trasie. Taka technologia może być niezwykle pomocna osobom, które doświadczyły porażenia kończyn. Z jednej strony pozwoli im na wchodzenie w interakcje społeczne, na przykład granie ze znajomymi, z drugiej zaś, może umożliwić też znalezienie zdalnej pracy.
To większy zakres funkcji, niż wszystko co dotychczas opracowano na podstawie ruchów palców, mówi profesor neurochirurgii i inżynierii biomedycznej, Matthew Willsey, główny autor artykułu, w którym na łamach Nature opisano to osiągnięcie.
Istnieją obecnie nieinwazyjne metody pozwalające na sterowanie wirtualnymi obiektami za pomocą fal mózgowych odczytywanych przez EEG. Jednak elektroencefalografia zbiera sygnały z dużych obszarów mózgu, a autorzy obecnych badań uważają, że do precyzyjnego wykorzystania funkcji motorycznych mózgu konieczne jest umieszczenie elektrod jak najbliżej odpowiednich neuronów. Udowodnili to zresztą podczas swoich eksperymentów, w czasie których osoby badane sprawowali sześciokrotnie bardziej precyzyjną kontrolę nad dronem niż podczas używania EEG.
Najpierw jednak pacjenci muszą poddać się zabiegowi chirurgicznemu, w trakcie którego elektrody są wszczepiane do kory ruchowej, łączone są kablami ze specjalną podstawką umocowaną do czaszki, z którą można połączyć następnie komputer. Elektrody odbierają sygnały z kory ruchowej, które pojawiają się tylko wówczas, gdy człowiek próbuje poruszyć palcami. Sztuczne sieci neuronowe interpretują te sygnały i wysyłają polecenia do wirtualnego drona, wyjaśnia Willsey.
Uczestnik badań rozpoczął współpracę z naukowcami w 2016 roku, wiele lat po tym, jak z powodu uszkodzenia rdzenia kręgowego nie mógł poruszać żadną z kończyn. Chciał wziąć udział w badaniach, a szczególnie zainteresowany był lataniem.
Dron nie był przypadkowym wyborem. Nasz pacjent to pasjonat lotnictwa. Spełniając jego marzenie o lataniu mogliśmy jednocześnie pracować nad platformą do kontroli wielu paców, wyjaśnia współautor badań, Donald Avansino. Kontrolowanie palców to bardzo ważny krok naprzód. Jednak ostatecznym celem jest kontrola ruchów całego ciała, dodaje Nishal Shah.
Bardzo ważnym aspektem badań jest wyjście poza bardzo podstawowe funkcje, jak jedzenie. Jeśli możemy za pomocą myśli kontrolować wiele wirtualnych palców, to nie tylko możemy wchodzić w interakcje społeczne grając, ale wykonywać wiele innych czynności, od używania edytorów tekstów, oprogramowania CAD po komponowanie muzyki.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Anna Tomańska, studentka Wydziału Medycyny Weterynaryjnej Uniwersytetu Przyrodniczego we Wrocławiu (UPWr), bada komunikację pszczół. Chce sprawdzić, jakie dźwięki wydają, gdy są zadowolone, zaniepokojone czy chore. Interesuje się też wykorzystaniem nowoczesnych urządzeń w hodowli tych owadów. Jej wnioski mogą być bardzo przydatne dla pszczelarzy.
Tomańska interesuje się pszczelarstwem od 2 lat. Sporo zawdzięcza w tym zakresie opiekunowi projektu, prof. UPWr, dr. hab. Pawłowi Chorbińskiemu. Pan profesor to autorytet w dziedzinie pszczelarstwa i potrafi skutecznie zarażać swoją pasją – podkreśla studentka.
Już wcześniej interesowałam się bioakustyką. Wspólnie z inżynierem dźwięku i producentem radiowym z Wielkiej Brytanii Philipem Millem napisaliśmy artykuł o nagrywaniu dźwięków przyrody i technologiach. To wtedy, w naszych rozmowach, po raz pierwszy pojawił się temat pszczół. Pomyślałam, że dźwięki z wnętrza ula mogą być nie tylko fascynujące, ale niezwykle ciekawe pod kątem testowania nowoczesnych urządzeń w hodowli tych owadów.
Gdy o pomyśle dowiedział się prof. Chorbiński, namówił Tomańską, by zgłosiła się do programu stypendialnego "Magistrant wdrożeniowy na UPWr".
Studentka wykorzystała drewniane ule wielkopolskie. Wygłuszyła je za pomocą pianki akustycznej, a następnie zainstalowała elektronikę (czujniki ciepła i wilgotności). Ule znajdują się w powstającej właśnie nowoczesnej pasiece w Górach Sowich.
Tomańska przez kilka miesięcy nagrywała dźwięki z ula, a także rejestrowała zmiany temperatury i wilgotności.
Pszczoły nie tylko bzyczą, w ulu słychać też np. ich tupanie oraz komunikację. Ta ostatnia jest fascynująca, dlatego chcemy sprawdzić, czym będzie różnić się, kiedy np. w ulu będzie matka z mniejszą/większą liczbą robotnic, sama matka albo dwie matki. Chcemy wyselekcjonować dźwięki, jakie wydają spokojne pszczoły, od tych, które słychać, gdy są zaniepokojone - tłumaczy studentka. Podobnie z temperaturą: w jakich sytuacjach spada, a kiedy rośnie. Analiza i wnioski z tych badań z pewnością pomogą pszczelarzom. Będą mogli na odległość, za pomocą elektroniki, zapobiegać niebezpiecznym sytuacjom w pasiece - dodaje.
Kilkunastominutowego audioeseju o pszczołach miodnych, który powstał w ramach projektu "Magistrant wdrożeniowy", można wysłuchać dzięki Radiu Warroza.
Owocem współpracy Tomańskiej i Milla jest ebook "Bioakustyka". Jak podkreślono w opisie książki, jest to krótki przewodnik, który pomoże Ci postawić pierwsze kroki w nagrywaniu przyrody. W listopadzie zeszłego roku w paśmie gościnnym Radia Kapitał zadebiutowała też ich audycja o Borach Tucholskich.
« powrót do artykułu -
przez KopalniaWiedzy.pl
O ile nam wiadomo, jest to pierwsza udana demonstracja bezpośredniego dekodowania z mózgu pełnych wyrazów u osoby, która jest sparaliżowana i nie może mówić, stwierdza neurochirurg profesor Edward Chang. Uczony wraz z kolegami opracował „neuroprotezę mowy”, urządzenie, które u ciężko sparaliżowanego pacjenta rejestruje sygnały w mózgu i przekłada je na mowę.
Każdego roku z powodu różnych chorób, udarów czy wypadków tysiące osób tracą możliwość mówienia. Nowy system daje nadzieję, że będą mogły łatwo komunikować się z otoczeniem.
Dotychczasowe badania na tym polu ograniczały się do literowania. Neuroprotezy do komunikacji wyłapywały z mózgu sygnały, za pomocą których chory sterował kursorem i na wirtualnej klawiaturze, litera po literze, pisał to, co chce powiedzieć. Cheng i jego zespół poszli w zupełnie innym kierunku. Skupili się na sygnałach kontrolujących mięśnie aparatu mowy. Zdaniem Amerykanów, jest to bardziej naturalny i płynny sposób, dzięki któremu komunikacja z niemówiącym pacjentem może być znacznie szybsza i bardziej płynna.
Zwykle mówimy z prędkością 150–200 wyrazów na minutę, zauważa Cheng. Wszelkie metody pisania czy kontrolowania kursora są wolniejsze i bardziej pracochłonne. Jeśli przejdziemy bezpośrednio do słów, tak jak robimy to tutaj, wiele zyskamy, gdyż jest to bardziej podobne do naturalnego sposobu mówienia.
W ciągu ostatniej dekady Chengowi bardzo pomogli pacjenci z University of California San Francisco (UCSF) Epilepsy Center. Były to osoby, które operowano w celu znalezienia źródła epilepsji i na powierzchni ich mózgów umieszczano elektrody.
Wszystkie to osoby mówiły i zgodziły się na dokonanie badań, podczas których analizowano aktywność ich mózgów w czasie mówienia. W ten sposób udało się stworzyć mechanizm przekładający sygnały z mózgu służące do sterowania aparatem mowy, na słowa. Jednak sam ten fakt nie gwarantował, że to samo będzie skuteczne u osób, których aparat mowy został sparaliżowany. Tym bardziej, że nie było wiadomo, czy u osób, których aparat mowy sparaliżowany jest od lat, sygnały go kontrolujące nie uległy jakimś zmianom lub uszkodzeniom.
Rozpoczęto więc program badawczy BRAVO (Brain-Computer Interface Restoration Arm and Voice). Jego pierwszym pacjentem (BRAVO1), był mężczyzna w wieku nieco poniżej 40 lat, który ponad 15 lat wcześniej doznał poważnego udaru, który uszkodził połączenia pomiędzy jego mózgiem, kończynami i aparatem mowy. Od tamtej pory mężczyzna komunikował się ze światem za pomocą bardzo ograniczonych ruchów głowy i wskaźnika przyczepionego do czapki baseballowej, którym pokazywał litery na ekranie.
Pacjent, wraz z zespołem Cheunga stworzyli najpierw słownik składający się z 50 wyrazów, jakie można było rozróżniać na podstawie aktywności mózgu. Wyrazy te, jak „rodzina”, „woda” czy ”dobrze” – pozwalały na stworzenie setek zdań. Naukowcy umieścili na mózgu pacjenta gęstą sieć elektrod, która badała aktywność w korze ruchowej i ośrodkach mowy. W czasie 48 sesji nagrali 22 godziny aktywności neuronów. W czasie nagrywania pacjent starał się wielokrotnie wypowiadać każde z 50 słów ze słownika, a elektrody rejestrowały aktywność jego mózgu.
Podczas testów, zadaniem BRAVO1 była próba wypowiedzenia prezentowanych przez naukowców zdań utworzonych za pomocą 50-wyrazowego słownika. Później zaś pacjentowi zadawano pytania, a ten miał na nie odpowiadał.
Testy wykazały, że system na podstawie aktywności mózgu jest w stanie pracować ze średnią prędkością do 15 wyrazów na minutę, a mediana bezbłędnego generowania wypowiedzi wynosi 75%. Najlepszy osiągnięty wynik to 18 wyrazów na minutę i dokładność 93%.
Autorzy badań mówią, że były to testy mając sprawdzić czy ich koncepcja w ogóle m sens. Jesteśmy zachwyceni, że udało się w ten sposób dekodować wiele zdań o różnym znaczeniu. Wykazaliśmy, że w ten sposób można ułatwić pacjentom komunikację, stwierdza doktor David Moses, inżynier z laboratorium Changa i jeden z głównych autorów badań.
Naukowcy już przygotowują się do poszerzenia swoich eksperymentów o kolejne osoby z poważnym paraliżem i deficytami komunikacyjnymi. Pracują jednocześnie nad powiększeniem słownika i przyspieszeniem tempa komunikacji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Pojazdy kosmiczne i urządzenia znajdujące się poza Księżycem są uzależnione od komunikacji z Ziemią, dzięki której znają swoją pozycję. Przed 2 laty NASA wysłała w przestrzeń kosmiczną Deep Space Atomic Clock, dzięki któremu oddalone od Ziemi pojazdy i urządzenia mają zyskać więcej autonomii. Agencja poinformowała właśnie o ustanowieniu nowego rekordu długotrwałej stabilności zegara atomowego.
W celu wyliczenia trajektorii oddalonych od Ziemi pojazdów wykorzystuje się sygnały, wysyłane z Ziemi do pojazdu i odbierane ponownie na Ziemi. Używane są przy tym duże, wielkości lodówki, zegary atomowe na Ziemi, precyzyjnie rejestrujące czasy przybycia sygnałów. Jest to niezbędne do precyzyjnego określenia położenia pojazdu. Jednak dla robota pracującego np. a Marsie czy pojazdu podróżującego w znacznej odległości od Ziemi, konieczność oczekiwania na nadejście sygnału powoduje kumulujące się opóźnienia w pracy, które mogą łącznie trwać nawet wiele godzin.
Jeśli takie pojazdy czy urządzenia posiadałyby własne zegary atomowe, mogłyby samodzielnie obliczać swoją pozycję i trajektorię. Jednak zegary takie musiałyby być bardzo stabilne. Przykładem niech będą satelity GPS. Każdy z nich jest wyposażony w zegar atomowy, jednak zegary te muszą być wielokrotnie w ciągu dnia korygowane, by zachowały odpowiednią stabilność.
Wszystkie zegary atomowe mają pewien stopień niestabilności, co prowadzi do odchylenia wskazań od rzeczywistego upływu czasu. Jeśli odchylenia te nie będą korygowane, zaczną się nawarstwiać, co może mieć opłakane skutki dla urządzenia nawigującego w przestrzeni kosmicznej czy pracującego na odległej planecie.
Jednym z celów misji Deep Space Atomic Clock jest badanie stabilności zegara atomowego w coraz dłuższych odcinkach czasu. NASA poinformowała właśnie, że udało się jej osiągnąć stabilność rzędu poniżej 4 nanosekund na ponad 20 dni. To oznacza, że w tym czasie odchylenie wskazań pokładowego zegara atomowego od czasu rzeczywistego było nie większe niż wspomniane 4 nanosekundy.
Pozornie te 4 nanosekundy to niewiele, jednak, jak mówi Eric Burt, pracujący przy misji Deep Space Atomic Clock, fizyk specjalizujący się w zegarach atomowych, przyjmuje się, że niepewność rzędu 1 nanosekundy równa się niepewności rzędu 1 stopy, czyli ok. 30 centymetrów. Niektóre zegary systemu GPS muszą być aktualizowane kilkanaście razy na dobę, by zachować odpowiedni poziom stabilności. To oznacza, że GPS jest wysoce zależny od komunikacji z Ziemią. Deep Space Atomic Clock może być aktualizowany raz na tydzień lub rzadziej, co dawałoby takim urządzeniom jak GPS więcej autonomii, dodaje Burt.
Amerykanie robią więc szybkie postępy. Jeszcze jesienią 2020 roku stabilność ich eksperymentalnego zegara była 5-krotnie mniejsza niż obecnie. Ta różnica wynika nie tylko z udoskonalenia samego zegara, ale również z udoskonalenia metod pomiarów jego stabilności, co było możliwe dzięki zebraniu przez ostatnie miesiące dodatkowych danych.
Misja Deep Space Atomic Clock ma zakończyć się w sierpniu. NASA już jednak pracuje nad udoskonalonym Deep Space Atomic Clock-2, który zostanie dołączony do misji VERITAS (Venus Emissivity, Radio Science, InSAR, Topography, and Spectroscopy). Podobnie jak jego poprzednik, będzie to misja demonstracyjna, której celem będzie zwiększenie możliwości urządzenia i opracowanie nieistniejących obecnie rozwiązań sprzętowych i programowych. W czasie misji VERITAS zegar będzie mógł pokazać, na co go stać i sprawdzimy jego potencjalną przydatność podczas przyszłych misji kosmicznych, zarówno w czasie badań naukowych jak i nawigacji, stwierdził Todd Ely, główny naukowiec Deep Space Atomic Clock.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.