Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Po raz pierwszy w historii pacjent z zespołem zamknięcia komunikował się pełnymi zdaniami

Recommended Posts

Po raz pierwszy w historii całkowicie sparaliżowany człowiek, cierpiący na zespół zamknięcia, mógł komunikować się całymi zdaniami, używając w tym celu urządzenia rejestrującego aktywność mózgu. Dotychczas interfejsy mózg-komputer pozwalały częściowo sparaliżowanym osobom na kontrolowanie protez lub wybieranie prostych odpowiedzi „tak” lub „nie”. Tym razem mamy do czynienia z zupełnie nowym poziomem możliwości komunikacyjnych.

W sierpniu 2015 roku u mieszkającego w Niemczech 30-latka zdiagnozowano stwardnienie zanikowe boczne (ALS). Przed końcem roku nie mógł już chodzić i mówić, a od lipca 2016 roku maszyna pomaga mu oddychać. W sierpniu 2016 roku zaczął używać do komunikacji urządzenia śledzącego ruchy gałek ocznych, dzięki czemu mógł wybierać litery na ekranie. Jednak w ciągu roku jego stan pogorszył się do tego stopnia, że nie był w stanie skupić wzroku. Stopniowo zaczął też tracić w ogóle zdolność do poruszania oczami. Gdy jeszcze ją posiadał, wyraził zgodę na zaimplementowanie w mózgu dwóch niewielkich matryc elektrod, z których każda ma 1,5 milimetra długości. Elektrody wszczepiono w marcu 2019 roku w korze mózgowej. Było to możliwe dzięki współpracy z Nielsem Birbaumerem z Uniwersytetu w Tybindze i Ujwalem Chaudharym z ALS Voice gGmbH, niedochodowej organizacji, która pomaga osobom nie będącym w stanie się komunikować.

Po wszczepieniu elektrod mężczyznę proszono, by wyobrażał sobie wykonywanie fizycznych ruchów. Taka metoda działa w wielu przypadkach kontrolowania protez i egzoszkieletów za pomocą myśli. Jednak prowadzone przez 12 tygodni próby spaliły na panewce. Specjaliści postanowili więc spróbować techniki neurotreningu.

Neurotrening polega na prezentowaniu pacjentowi jego własnej aktywności mózgu w czasie rzeczywistym. W tym przypadku, gdy elektrody rejestrowały zwiększoną aktywność, komputer odgrywał dźwięk o rosnącej wysokości. Gdy aktywność spadała, zmniejszała się też częstotliwość dźwięku. W ciągu dwóch dni nauczył się samodzielnie zwiększać i zmniejszać częstotliwość odtwarzanego dźwięku. To było niesamowite, mówi Chaudhary. W końcu mężczyzna nauczył się kontrolować aktywność mózgu tak, że za pomocą rosnącego dźwięku komunikował wyraz „tak”, a za pomocą zmniejszającej się częstotliwości – „nie”.

Po tym sukcesie specjaliści poszli o krok dalej. Wykorzystali pomysł, na który wpadła rodzina pacjenta po tym, gdy nie mógł skupić wzroku. Pokazywali mu wówczas na kartkach różnego koloru grupy liter, z których należało wybierać poszczególne litery, a z nich składano zdanie. Zastosowana obecnie metoda polegała na tym, że mężczyzna słyszał nazwę koloru, wiedział jakie litery są spisane na tle o takim kolorze i albo potwierdzał, albo zaprzeczał, że chce skorzystać z tego właśnie zestawu. W ten sposób zaczął komunikować się pełnymi zdaniami, a jedno z pierwszych zdań, jakie ułożył brzmiało: Chłopaki, to jest bardzo proste.

Komunikacja jest powolna. Wybranie jednej litery trwa około minutę. Jednak jakość życia mężczyzny uległa dzięki temu znaczącej poprawie. Jest w stanie poprosić o konkretne posiłki, pomasowanie stóp, chciał obejrzeć film z synem. Chaudhary, który regularnie odwiedza mężczyznę, mówi, że często ostatnią rzeczą, o którą prosi chory, jest piwo.

Naukowiec mówi, że przydatne byłoby stworzenie listy najczęściej używanych słów, by komputer mógł uzupełniać zdania. Istnieje wiele sposobów, by przyspieszyć komunikację, stwierdza.

Obecnie nie wiadomo, jak długo elektrody mogą pozostawać w mózgu mężczyzny. Znamy jednak przypadki osób, u których działają one już przez 5 lat. specjaliści zauważają, że dla pacjenta z syndromem zamknięcia każdy dzień, w którym może się komunikować z otoczeniem, jest niezwykle ważny. Sądzą też, że tego typu technologie mogą być standardowo stosowane w ciągu najbliższych 10–15 lat. Dla kogoś, kto absolutnie nie ma możliwości komunikacji z otoczeniem, możliwość nawet prostego stwierdzenia „tak” lub „nie” może zmienić życie, mówi Kianoush Nazaropur z Uniwersytetu w Edynburgu.

Otwartym pozostaje jednak pytanie, jak wiele osób z ALS będzie mogło skorzystać z takich technologii. W około 95% przypadków tej choroby dochodzi też do degeneracji kory ruchowej. U niemieckiego pacjenta czasem pojawiają się problemy komunikacyjne. Bywają nawet miesięczne okresy, że komunikuje się wyłącznie za pomocą „tak” lub „nie". Nie wiadomo, dlaczego tak się dzieje. Przyczyn może być wiele. Być może organizm rozpoznał w elektrodach ciało obce i próbuje je zwalczać zakłócając komunikację. To mogą być powody psychologiczne, technologiczne, problemy z elektrodami, mówi Birbaumer.

Wyniki eksperymentu opisano na łamach Nature Communications.


« powrót do artykułu

Share this post


Link to post
Share on other sites
20 godzin temu, KopalniaWiedzy.pl napisał:

W ten sposób zaczął komunikować się pełnymi zdaniami, a jedno z pierwszych zdań, jakie ułożył brzmiało:

"I would like to listen to the album by Tool loud"

;-)

  • Like (+1) 1

Share this post


Link to post
Share on other sites
W dniu 25.03.2022 o 11:07, wilk napisał:

"I would like to listen to the album by Tool loud"

 

No i namówił. Niezłą reklamę chłopak zrobił. Zacząłem od Fear inoculum i będę się cofał, pardon my french, do tyłu.

Share this post


Link to post
Share on other sites
Posted (edited)
W dniu 24.03.2022 o 14:25, KopalniaWiedzy.pl napisał:

Pokazywali mu wówczas na kartkach różnego koloru grupy liter, z których należało wybierać poszczególne litery, a z nich składano zdanie. Zastosowana obecnie metoda polegała na tym, że mężczyzna słyszał nazwę koloru, wiedział jakie litery są spisane na tle o takim kolorze i albo potwierdzał, albo zaprzeczał, że chce skorzystać z tego właśnie zestawu.

Wiem, że fiksacja uniemożliwia sprawne i długotrwałe sterowanie wzrokiem tak jak myszką, ale czy nie można powiększyć pola pracy? Czy ten/taki człowiek potrafi panować na powiekami? Kiedyś rozumiem, że były ekrany CRT o przekątnej 15 cali, ale teraz, gdy płaski lekki ekran może mieć i 50+ cali i wisieć sobie nad łóżkiem to zastanawia mnie dlaczego ludzie skupiają się na metodach "analogowych"? Karteczki, kolory. Przecież to wyklucza jedną z najwydajniejszych form wpisywania tekstu, czyli słownik (kiedyś T9). Ciekawe ile czasu "dyktował" do zdanie?

EDIT: Moja uwaga nie dotyczy przypadku kiedy pacjent nie ma faktycznie kontroli nad oczami albo ma ją słabo skoordynowaną. Szkoda tylko, że nie dali pełnych list z tymi literami, na obrazku widać tylko 3 grupy, a 4 (i pozostałe?) są niewidoczne. Dobór tych liter też pewnie by miał wpływ na szybkośc komunikacji.

Cytat
He spelled only under 100 characters on some days, while on other days, he produced more than 400 characters. Despite the huge variation in the number of characters spelled, the number of characters spelled per minute was mostly around 1 character per minute, and ITR averaged 5 bits/minute.

/EDIT

Edited by radar

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Anna Tomańska, studentka Wydziału Medycyny Weterynaryjnej Uniwersytetu Przyrodniczego we Wrocławiu (UPWr), bada komunikację pszczół. Chce sprawdzić, jakie dźwięki wydają, gdy są zadowolone, zaniepokojone czy chore. Interesuje się też wykorzystaniem nowoczesnych urządzeń w hodowli tych owadów. Jej wnioski mogą być bardzo przydatne dla pszczelarzy.
      Tomańska interesuje się pszczelarstwem od 2 lat. Sporo zawdzięcza w tym zakresie opiekunowi projektu, prof. UPWr, dr. hab. Pawłowi Chorbińskiemu. Pan profesor to autorytet w dziedzinie pszczelarstwa i potrafi skutecznie zarażać swoją pasją – podkreśla studentka.
      Już wcześniej interesowałam się bioakustyką. Wspólnie z inżynierem dźwięku i producentem radiowym z Wielkiej Brytanii Philipem Millem napisaliśmy artykuł o nagrywaniu dźwięków przyrody i technologiach. To wtedy, w naszych rozmowach, po raz pierwszy pojawił się temat pszczół. Pomyślałam, że dźwięki z wnętrza ula mogą być nie tylko fascynujące, ale niezwykle ciekawe pod kątem testowania nowoczesnych urządzeń w hodowli tych owadów.
      Gdy o pomyśle dowiedział się prof. Chorbiński, namówił Tomańską, by zgłosiła się do programu stypendialnego "Magistrant wdrożeniowy na UPWr".
      Studentka wykorzystała drewniane ule wielkopolskie. Wygłuszyła je za pomocą pianki akustycznej, a następnie zainstalowała elektronikę (czujniki ciepła i wilgotności). Ule znajdują się w powstającej właśnie nowoczesnej pasiece w Górach Sowich.
      Tomańska przez kilka miesięcy nagrywała dźwięki z ula, a także rejestrowała zmiany temperatury i wilgotności.
      Pszczoły nie tylko bzyczą, w ulu słychać też np. ich tupanie oraz komunikację. Ta ostatnia jest fascynująca, dlatego chcemy sprawdzić, czym będzie różnić się, kiedy np. w ulu będzie matka z mniejszą/większą liczbą robotnic, sama matka albo dwie matki. Chcemy wyselekcjonować dźwięki, jakie wydają spokojne pszczoły, od tych, które słychać, gdy są zaniepokojone - tłumaczy studentka. Podobnie z temperaturą: w jakich sytuacjach spada, a kiedy rośnie. Analiza i wnioski z tych badań z pewnością pomogą pszczelarzom. Będą mogli na odległość, za pomocą elektroniki, zapobiegać niebezpiecznym sytuacjom w pasiece - dodaje.
      Kilkunastominutowego audioeseju o pszczołach miodnych, który powstał w ramach projektu "Magistrant wdrożeniowy", można wysłuchać dzięki Radiu Warroza.
       

      Owocem współpracy Tomańskiej i Milla jest ebook "Bioakustyka". Jak podkreślono w opisie książki, jest to krótki przewodnik, który pomoże Ci postawić pierwsze kroki w nagrywaniu przyrody. W listopadzie zeszłego roku w paśmie gościnnym Radia Kapitał zadebiutowała też ich audycja o Borach Tucholskich.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      O ile nam wiadomo, jest to pierwsza udana demonstracja bezpośredniego dekodowania z mózgu pełnych wyrazów u osoby, która jest sparaliżowana i nie może mówić, stwierdza neurochirurg profesor Edward Chang. Uczony wraz z kolegami opracował „neuroprotezę mowy”, urządzenie, które u ciężko sparaliżowanego pacjenta rejestruje sygnały w mózgu i przekłada je na mowę.
      Każdego roku z powodu różnych chorób, udarów czy wypadków tysiące osób tracą możliwość mówienia. Nowy system daje nadzieję, że będą mogły łatwo komunikować się z otoczeniem.
      Dotychczasowe badania na tym polu ograniczały się do literowania. Neuroprotezy do komunikacji wyłapywały z mózgu sygnały, za pomocą których chory sterował kursorem i na wirtualnej klawiaturze, litera po literze, pisał to, co chce powiedzieć. Cheng i jego zespół poszli w zupełnie innym kierunku. Skupili się na sygnałach kontrolujących mięśnie aparatu mowy. Zdaniem Amerykanów, jest to bardziej naturalny i płynny sposób, dzięki któremu komunikacja z niemówiącym pacjentem może być znacznie szybsza i bardziej płynna.
      Zwykle mówimy z prędkością 150–200 wyrazów na minutę, zauważa Cheng. Wszelkie metody pisania czy kontrolowania kursora są wolniejsze i bardziej pracochłonne. Jeśli przejdziemy bezpośrednio do słów, tak jak robimy to tutaj, wiele zyskamy, gdyż jest to bardziej podobne do naturalnego sposobu mówienia.
      W ciągu ostatniej dekady Chengowi bardzo pomogli pacjenci z University of California San Francisco (UCSF) Epilepsy Center. Były to osoby, które operowano w celu znalezienia źródła epilepsji i na powierzchni ich mózgów umieszczano elektrody.
      Wszystkie to osoby mówiły i zgodziły się na dokonanie badań, podczas których analizowano aktywność ich mózgów w czasie mówienia. W ten sposób udało się stworzyć mechanizm przekładający sygnały z mózgu służące do sterowania aparatem mowy, na słowa. Jednak sam ten fakt nie gwarantował, że to samo będzie skuteczne u osób, których aparat mowy został sparaliżowany. Tym bardziej, że nie było wiadomo, czy u osób, których aparat mowy sparaliżowany jest od lat, sygnały go kontrolujące nie uległy jakimś zmianom lub uszkodzeniom.
      Rozpoczęto więc program badawczy BRAVO (Brain-Computer Interface Restoration Arm and Voice). Jego pierwszym pacjentem (BRAVO1), był mężczyzna w wieku nieco poniżej 40 lat, który ponad 15 lat wcześniej doznał poważnego udaru, który uszkodził połączenia pomiędzy jego mózgiem, kończynami i aparatem mowy. Od tamtej pory mężczyzna komunikował się ze światem za pomocą bardzo ograniczonych ruchów głowy i wskaźnika przyczepionego do czapki baseballowej, którym pokazywał litery na ekranie.
      Pacjent, wraz z zespołem Cheunga stworzyli najpierw słownik składający się z 50 wyrazów, jakie można było rozróżniać na podstawie aktywności mózgu. Wyrazy te, jak „rodzina”, „woda” czy ”dobrze” – pozwalały na stworzenie setek zdań. Naukowcy umieścili na mózgu pacjenta gęstą sieć elektrod, która badała aktywność w korze ruchowej i ośrodkach mowy. W czasie 48 sesji nagrali 22 godziny aktywności neuronów. W czasie nagrywania pacjent starał się wielokrotnie wypowiadać każde z 50 słów ze słownika, a elektrody rejestrowały aktywność jego mózgu.
      Podczas testów, zadaniem BRAVO1 była próba wypowiedzenia prezentowanych przez naukowców zdań utworzonych za pomocą 50-wyrazowego słownika. Później zaś pacjentowi zadawano pytania, a ten miał na nie odpowiadał.
      Testy wykazały, że system na podstawie aktywności mózgu jest w stanie pracować ze średnią prędkością do 15 wyrazów na minutę, a mediana bezbłędnego generowania wypowiedzi wynosi 75%. Najlepszy osiągnięty wynik to 18 wyrazów na minutę i dokładność 93%.
      Autorzy badań mówią, że były to testy mając sprawdzić czy ich koncepcja w ogóle m sens. Jesteśmy zachwyceni, że udało się w ten sposób dekodować wiele zdań o różnym znaczeniu. Wykazaliśmy, że w ten sposób można ułatwić pacjentom komunikację, stwierdza doktor David Moses, inżynier z laboratorium Changa i jeden z głównych autorów badań.
      Naukowcy już przygotowują się do poszerzenia swoich eksperymentów o kolejne osoby z poważnym paraliżem i deficytami komunikacyjnymi. Pracują jednocześnie nad powiększeniem słownika i przyspieszeniem tempa komunikacji.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pojazdy kosmiczne i urządzenia znajdujące się poza Księżycem są uzależnione od komunikacji z Ziemią, dzięki której znają swoją pozycję. Przed 2 laty NASA wysłała w przestrzeń kosmiczną Deep Space Atomic Clock, dzięki któremu oddalone od Ziemi pojazdy i urządzenia mają zyskać więcej autonomii. Agencja poinformowała właśnie o ustanowieniu nowego rekordu długotrwałej stabilności zegara atomowego.
      W celu wyliczenia trajektorii oddalonych od Ziemi pojazdów wykorzystuje się sygnały, wysyłane z Ziemi do pojazdu i odbierane ponownie na Ziemi. Używane są przy tym duże, wielkości lodówki, zegary atomowe na Ziemi, precyzyjnie rejestrujące czasy przybycia sygnałów. Jest to niezbędne do precyzyjnego określenia położenia pojazdu. Jednak dla robota pracującego np. a Marsie czy pojazdu podróżującego w znacznej odległości od Ziemi, konieczność oczekiwania na nadejście sygnału powoduje kumulujące się opóźnienia w pracy, które mogą łącznie trwać nawet wiele godzin.
      Jeśli takie pojazdy czy urządzenia posiadałyby własne zegary atomowe, mogłyby samodzielnie obliczać swoją pozycję i trajektorię. Jednak zegary takie musiałyby być bardzo stabilne. Przykładem niech będą satelity GPS. Każdy z nich jest wyposażony w zegar atomowy, jednak zegary te muszą być wielokrotnie w ciągu dnia korygowane, by zachowały odpowiednią stabilność.
      Wszystkie zegary atomowe mają pewien stopień niestabilności, co prowadzi do odchylenia wskazań od rzeczywistego upływu czasu. Jeśli odchylenia te nie będą korygowane, zaczną się nawarstwiać, co może mieć opłakane skutki dla urządzenia nawigującego w przestrzeni kosmicznej czy pracującego na odległej planecie.
      Jednym z celów misji Deep Space Atomic Clock jest badanie stabilności zegara atomowego w coraz dłuższych odcinkach czasu. NASA poinformowała właśnie, że udało się jej osiągnąć stabilność rzędu poniżej 4 nanosekund na ponad 20 dni. To oznacza, że w tym czasie odchylenie wskazań pokładowego zegara atomowego od czasu rzeczywistego było nie większe niż wspomniane 4 nanosekundy.
      Pozornie te 4 nanosekundy to niewiele, jednak, jak mówi Eric Burt, pracujący przy misji Deep Space Atomic Clock, fizyk specjalizujący się w zegarach atomowych, przyjmuje się, że niepewność rzędu 1 nanosekundy równa się niepewności rzędu 1 stopy, czyli ok. 30 centymetrów. Niektóre zegary systemu GPS muszą być aktualizowane kilkanaście razy na dobę, by zachować odpowiedni poziom stabilności. To oznacza, że GPS jest wysoce zależny od komunikacji z Ziemią. Deep Space Atomic Clock może być aktualizowany raz na tydzień lub rzadziej, co dawałoby takim urządzeniom jak GPS więcej autonomii, dodaje Burt.
      Amerykanie robią więc szybkie postępy. Jeszcze jesienią 2020 roku stabilność ich eksperymentalnego zegara była 5-krotnie mniejsza niż obecnie. Ta różnica wynika nie tylko z udoskonalenia samego zegara, ale również z udoskonalenia metod pomiarów jego stabilności, co było możliwe dzięki zebraniu przez ostatnie miesiące dodatkowych danych.
      Misja Deep Space Atomic Clock ma zakończyć się w sierpniu. NASA już jednak pracuje nad udoskonalonym Deep Space Atomic Clock-2, który zostanie dołączony do misji VERITAS (Venus Emissivity, Radio Science, InSAR, Topography, and Spectroscopy). Podobnie jak jego poprzednik, będzie to misja demonstracyjna, której celem będzie zwiększenie możliwości urządzenia i opracowanie nieistniejących obecnie rozwiązań sprzętowych i programowych. W czasie misji VERITAS zegar będzie mógł pokazać, na co go stać i sprawdzimy jego potencjalną przydatność podczas przyszłych misji kosmicznych, zarówno w czasie badań naukowych jak i nawigacji, stwierdził Todd Ely, główny naukowiec Deep Space Atomic Clock.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zwierzęta, które nigdy nie były udomowione, celowo komunikują się z ludźmi. Dotychczas uważano, że tylko zwierzęta udomowione potrafią celowo przekazywać nam informację. Badania przeprowadzone na kangurach, gatunku, który nigdy nie został udomowiony, pokazują, że również całkowicie dzikie gatunki są zdolne do komunikacji z człowiekiem.
      Naukowcy z University of Roehampton i University of Sydneyy prowadzili badania na 11 kangurach w trzech lokalizacjach: Australian Reptile Park, Wildlife Sydney Zoo oraz Kangaroo Protection Co-Operative.
      Okazało się, że kangury wpatrują się w człowieka, gdy nie mogą dostać się do żywności zamkniętej w pudełku. Zamiast próbować otworzyć pudełko usiłują nakłonić ludzi, by za nie to zrobili.
      Dziesięć z 11 badanych kangurów wpatrywało się w osobę, która włożyła żywność do pudełka, a 9 z nich wykazywało jeszcze większe zdolności komunikacji, patrząc raz na człowieka, a raz na pudełko.
      Najnowsze badania to część większego projektu, którego celem było sprawdzenie, czy intencjonalna komunikacja zwierząt z ludźmi ogranicza się tylko do gatunków udomowionych. Wcześniejsze eksperymenty dowiodły, że np. kozy rozumieją wskazówki dawane przez człowieka, w tym pokazywanie ręką, co pozwala im zebrać informacje na temat otoczenia. Kangury, podobnie jak psy czy kozy, są zwierzętami społecznymi, mogą być więc zdolne do zmiany swojego zachowania, by móc komunikować się z ludźmi.
      Nasze badania wykazały, że zwierzęta mogą się nauczyć komunikacji z innym gatunkiem i że zachowanie polegające na wpatrywaniu się w człowieka, by dostać pożywienie, nie jest ograniczone do gatunków udomowionych. Kangury wykazują bardzo podobne wzorce zachowań do psów, koni czy kóz, mówi główny autor badań, doktor Alan McElligott. Widzimy, że potencjał intencjonalnej komunikacji zwierząt z człowiekiem był dotychczas niedoceniany. Możemy na tym polu dokonać znaczącego postępu. Kangury są pierwszymi torbaczami, które w ten sposób zostały zbadane, a uzyskane przez nas wyniki powinni zachęcić innych do wyjścia z tego typu badaniami poza udomowione gatunki, dodaje.
      Szczegóły badań zostały opublikowane na łamach Biology Letters.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Adam Gorlitsky, sparaliżowany od pasa w dół mieszkaniec Południowej Karoliny, pobił rekord świata w biegu maratońskim w egzoszkielecie. Gorlitsky wziął udział w Charleston Marathon. Przebycie całego dystansu zajęło mu 33 godziny, 50 minut i 23 sekundy. Tym samym pobił rekord z 2018 roku kiedy to Simon Kindleysides przebiegł Maraton Londyński w ciągu 36 godzin 46 minut.
      Gorlitsky wystartował w czwartek wieczorem, a na mecie stawił się w sobotę rano. W tym czasie nie spał. Było to jego drugie podejście do maratonu. W ubiegłym roku wystartował w Los Angeles, ale zrezygnował na 28. kilometrze.
      Zawodnik przyznał, że od roku myślał o pobiciu rekordu świata. W końcu mu się udało. Przyznał, że jest pełen podziwu dla Simona Kindleysidesa. Przekonał się bowiem, jak wielkim wyzwaniem jest przebycie ponad 40 kilometrów w egzoszkielecie.
      Rekordzista powiedział, że wytrwał tylko dzięki olbrzymiemu wsparciu. Maraton odbywał się w moim rodzinnym mieście, więc wielu ludzi przyszło, by przejść z nami kawałek. To wyzwala taką adrenalinę, że nawet gdy byłem zmęczony energia innych pozwalała mi iść, mówi Gorlitsky.
      Mężczyzna został sparaliżowany w wyniku wypadku samochodowemu, jakiemu uległ w 2005 roku. Po 10 latach od wypadku dzięki egzoszkieletowi stanął na nogi. W 2016 roku został pierwszym sparaliżowanym człowiekiem, który wziął udział w Cooper River Bridge Run. Przebycie 10-kilometrowej trasy zajęło mu niemal 7 godzin. Po tym wydarzeniu założył niedochodową organizację I GOT LEGS, której celem jest poprawa jakości życia osób niepełnosprawnych.
      Obecnie Gorlitsky bierze udział w przedsięwzięciu o nazwie „One Million Steps Tour”. To wyzwanie, którego uczestnicy przechodzą robią 10 000 kroków dziennie przez 100 kolejnych dni.
      Dotychczas Gorlitsky wziął udział w niemal 50 biegach na terenie całych Stanów Zjednoczonych. Teraz jego celem jest stanięcie twarzą w twarz z człowiekiem, któremu odebrał tytuł najszybszego maratończyka w egzoszkielecie. Chciałbym zmierzyć się z Simonem w wyścigu. Byłoby wspaniale rywalizować z nim podczas Maratonu Londyńskiego, mówi Gorlitsky.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...