Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Elon Musk chce łączyć człowieka z komputerem. Neuralink prezentuje implant mózgowy

Recommended Posts

Elon Musk ogłosił przełom w dziedzinie synchronizacji ludzkiego mózgu ze sztuczną inteligencją. Podczas pokazu na żywo Musk zaprezentował układ scalony zbudowany przez jego firmę Neuralink. To w pełni samodzielny implant mózgowy, który bezprzewodowo przesyła informacje o aktywności mózgu, nie wymagając przy tym żadnego zewnętrznego sprzętu. Działanie chipa zaprezentowano na przykładzie żywej świni.

Uczestnicy pokazu mogli zobaczyć grupę świń, z których jedna miała wszczepiony implant. Ekran nad nią na bieżąco pokazywał i rejestrował aktywność jej mózgu. Dotychczas by zarejestrować działanie mózgu konieczne było podłączenie badanej osoby lub zwierzęcia do zewnętrznego urządzenia, np. elektroencefalografu (EEG).

Celem Muska jest stworzenie implantu mózgowego, który bezprzewodowo połączy ludzki mózg ze sztuczną inteligencją i pozwoli na kontrolowanie komputerów, protez i innych maszyn jedynie za pomocą myśli. Implant może służyć też rozrywce. Za jego pomocą będzie bowiem można kontrolować gry.

Musk chce stworzyć implant, który będzie rejestrował i zapisywał aktywność milionów neuronów, przekładając ludzkie myśli na polecenia dla komputera i odwrotnie. Wszystko to miało by się odbywać za pomocą niewielkiego wszczepialnego implantu.
Prace nad implantem pozwalającym na stworzenie interfejsu mózg-komputer trwają od ponad 15 lat. Ich celem jest umożliwienie normalnego funkcjonowania ludziom z chorobami neurologicznymi czy paraliżem. Badania bardzo powoli posuwają się naprzód. Od 2003 w USA implanty mózgowe wszczepiono mniej niż 20 osobom. Wszystkie dla celów badawczych. Większość z takich systemów posiada jednak części, które wystają poza organizm, umożliwiając w ten sposób zasilanie i transmisję danych. Takie zewnętrzne części to ryzyko infekcji. Są ponadto niepraktyczne.

Neuralink twierdzi, że jej układ jest najbardziej zaawansowany z dotychczasowych. Zawiera procesor, nadajnik bluetooth, akumulator oraz tysiące elektrod. Każda z tych elektrod rejestruje aktywność do 4 neuronów.

Bolu Ajiboye, profesor inżynierii biomedycznej z Case Western Reserve Univeristy, który jest głównym naukowcem konsorcjum BrainGate pracującym nad implantami dla pacjentów neurologicznych, mówi, że jeśli chip Muska będzie przez dłuższy czas umożliwiał bezprzewodową transmisję danych, to mamy do czynienia dużym postępem na tym polu. W Neuralinku pracują mądrzy ludzie prezentujący innowacyjne podejście. Wiem, co oni tam robią i z niecierpliwością czekam na wyniki, stwierdza uczony.

Na razie jednak osiągnięcia Neuralink znamy z prezentacji, a nie z recenzowanych artykułów. Nie wiemy na przykład, a jaki sposób urządzenie transmituje tak dużą ilość danych bez generowania uszkadzającego mózg ciepła. Ponadto, jak zauważa Ajiboye, urządzenie jest dość duże jak na implant mózgowy. Jest to bowiem cylinder o średnicy 23 i długości 8 mm. Tymczasem urządzenie, które obecnie testuje BrainGate ma wymiary 4x4 mm. Zawiera też element wystający przez czaszkę oraz 100 elektrod. Tymczasem urządzenie Neuralinka korzysta z 1000 elektrod.

Podczas pokazu z udziałem Muska wykorzystano trzy świnie, z których jedna – imieniem Gertruda – miała wszczepiony implant. Widać było, że za każdym razem gdy Gertruda węszy, zwiększała się aktywność elektryczna jej mózgu.
Jednak rejestracja danych to nie wszystko. Najważniejsze jest ich dekodowanie. Wiele laboratoriów na całym świecie poświęciło wiele czasu na opracowywanie algorytmów mających na celu interpretację sygnałów z mózgu. Neuralink nam tego nie zaprezentował, mówi Ajiboye.

Pierwsze implanty Neuralinka mają mieć zastosowanie medyczne. Mogą np. trafić do ludzi z uszkodzonym rdzeniem kręgowym. Jednak Elon Musk stwierdził, że w przyszłości chce wyjść poza zastosowania medyczne. Słowa te wywołały duże poruszenie w mediach. Jako naukowcy specjalizujący się w dość szczególnej dziedzinie musimy być odpowiedzialni za słowa, ważyć obietnice jakie składamy i uważać na to, co opowiadamy o naszej technologii. Gdy pojawił się Elon Musk nasze prace przyciągnęły uwagę mediów. To dobrze, jednak rodzi to też wyzwania. A jednym z takich wyzwań jest odróżnienie propagandy od rzeczywistości.

 


« powrót do artykułu

Share this post


Link to post
Share on other sites

Przecież z tego co pamiętam na początku była mowa o takich cudach jak przeglądanie internetu bezpośrednio w umyśle... Czyli uploud danych do mózgu, czegoś takiego na razie jeszcze długo nie będzie a przynajmniej nie z takimi małymi interfejsami korowymi obejmującymi tylko wycinek kory i z tego co wiem, ten nie ma możliwości stymulacji, a więc jest to jednokierunkowy korowy BCI. Ale pomijając marketing - interfejs fajny :)

Share this post


Link to post
Share on other sites
1 godzinę temu, Warai Otoko napisał:

Czyli uploud danych do mózgu, czegoś takiego na razie jeszcze długo nie będzie a przynajmniej nie z takimi małymi interfejsami korowymi obejmującymi tylko wycinek kory i z tego co wiem, ten nie ma możliwości stymulacji, a więc jest to jednokierunkowy korowy BCI.

To chyba nie jest największy problem. Dorosły mózg chyba nie jest aż tak plastyczny, żeby się zorientował i zbudował rozpoznawanie sygnału z nowego narządu. Gdyby wszczepiać takie implanty niemowlakom, może wtedy mózg zdołałby to wykorzystać. Pewnie opanujemy mózg na tyle,ze będzie możliwe wytwarzanie dowolnych wrażeń, myśli, informacji za pomocą stymulacji przezczaszkowej, ale  wtedy to zakładam czapeczkę aluminiową :D Choć pewnie do tego czasu to i białe karły zdążą wyparować.

Share this post


Link to post
Share on other sites
25 minut temu, Jajcenty napisał:

To chyba nie jest największy problem. Dorosły mózg chyba nie jest aż tak plastyczny, żeby się zorientował i zbudował rozpoznawanie sygnału z nowego narządu. Gdyby wszczepiać takie implanty niemowlakom, może wtedy mózg zdołałby to wykorzystać.

Nie za bardzo rozumiem :P Co nie jest problemem, ten "uploud" ? Dorosły mózg jest plastyczny całe życie, inaczej nie mógłbyś się uczyć, oczywiście sa limity. Mózg dziecka uczy się zupełnie inaczej, ale nie wiem jak to powiązać z tym co napisałeś :P

Share this post


Link to post
Share on other sites
Godzinę temu, Warai Otoko napisał:

Mózg dziecka uczy się zupełnie inaczej, ale nie wiem jak to powiązać z tym co napisałeś

Eksperyment: wszczepiam kamerę termowizyjną niemowlakowi i dorosłemu, gdzieś w okolice nerwu wzrokowego. Kamera zamienia obraz na impulsy niskonapięciowe, które dostarczam drutem do wnętrza czaszki. Mój postulat:

u dziecka wykształcą się struktury w mózgu pozwalające skorzystać z nowego zmysłu np. łapanie piłki w ciemności,

u dorosłego nic się nie wykształci - będzie mu tylko niewygodnie.

Dlatego sądzę że implanty, albo muszą doskonale naśladować sygnały z urządzeń wejścia (oko, ucho, etc.), albo muszą być implantowane jak najwcześniej.

Ale to calkowite Sci-Fi, bo ja się na tym całkowicie nie znam.

 

Share this post


Link to post
Share on other sites
16 minut temu, Jajcenty napisał:

Dlatego sądzę że implanty, albo muszą doskonale naśladować sygnały z urządzeń wejścia (oko, ucho, etc.), albo muszą być implantowane jak najwcześniej.

aa rozumiem teraz, czyli, że interfejs stymulujący, taki, żeby "odbierać internet mózgiem" msuiałby być wszczepiony niemowlakowi. Ma to sens, u dorosłych musiałby ten interfejs być "rozległy" i "dokładny" + bez treningu by się nie obyło. Mi chodzi o to, że takie interfejsy musiałby stymulować np. całą korę a i to by mogło nie wystarczyć, a nie tylko fragment jak w Neuralink. 

Share this post


Link to post
Share on other sites
2 godziny temu, Jajcenty napisał:

Eksperyment: wszczepiam kamerę termowizyjną niemowlakowi i dorosłemu, gdzieś w okolice nerwu wzrokowego. Kamera zamienia obraz na impulsy niskonapięciowe, które dostarczam drutem do wnętrza czaszki. Mój postulat:

u dziecka wykształcą się struktury w mózgu pozwalające skorzystać z nowego zmysłu np. łapanie piłki w ciemności,

u dorosłego nic się nie wykształci - będzie mu tylko niewygodnie.

Dlatego sądzę że implanty, albo muszą doskonale naśladować sygnały z urządzeń wejścia (oko, ucho, etc.), albo muszą być implantowane jak najwcześniej.

Ale to calkowite Sci-Fi, bo ja się na tym całkowicie nie znam.

 

@Jajcenty @Warai Otoko hm... a co kamerkami dla niewidomych gdzie impuls do mózgu szedł przez język, kiedyś oglądałem jakiś program o tym i dziennikarz był w stanie to podczepić i "widzieć" (całość miało bardzo małą rozdzielczość) nie wiem tylko czy musiał ćwiczyć czy to było jakoś podpięte "w okoliach nerwów oczu" chociaż z tego co pamiętam było to podpięte pod język.

Share this post


Link to post
Share on other sites

Musk jest świetnym marketingowcem. Wizjonerem jakby dużo mniejszym.
Na razie mamy świnię z bluetooth.
To co Musk robi to sprzedaje wizję przyszłości. Do której jest mu bardzo daleko.
Dobrze kojarzę że co noc trzeba to ustrojstwo ładować przypinając sobie do głowy kabelek magnetycznie lub podobnie?
Gdzie w sumie mamy już technologię pozwalającą ładować mikroukładziki bezpośrednio z ciała ludzkiego.
Owszem połączenie człowieka z siecią jest przyszłością. Ale Musk sprzedaje póki co film s-f na ten temat.
Film który był już w latach 90-tych:
https://efc.fandom.com/wiki/Cyber-Viral_Implant

Edited by thikim

Share this post


Link to post
Share on other sites
Godzinę temu, Afordancja napisał:

m... a co kamerkami dla niewidomych gdzie impuls do mózgu szedł przez język, kiedyś oglądałem jakiś program o tym i dziennikarz był w stanie to podczepić i "widzieć" (całość miało bardzo małą rozdzielczość) nie wiem tylko czy musiał ćwiczyć czy to było jakoś podpięte "w okoliach nerwów oczu" chociaż z tego co pamiętam było to podpięte pod język.

Na mnie robi to wrażenie bardziej zaawansowanej białej laski czy wyświetlacza Braille'a. A tu chodzi bardziej o zmysł. Informację do której jest nieświadomy dostęp, dzięki czemu można uruchomić odruchy typu unik czy wzdrygnięcie. W moim eksperymencie, na pytanie gdzie jesteś, dziecko odpowiada : 54.068824, 23.087012 :D

 

Share this post


Link to post
Share on other sites
14 godzin temu, Jajcenty napisał:

Na mnie robi to wrażenie bardziej zaawansowanej białej laski czy wyświetlacza Braille'a. A tu chodzi bardziej o zmysł.

A czym jest zmysł? Zmysł to jest receptor + odpowiedni program (siec neuronowa/moduły) w mózgu. To o czym tutaj rozmawiamy to są interfejsy nerwowe, ten z językiem to też jest interfejs nerwowy. Każdy rejestrujący interfejs nerwowy można w pewnym sensie nazwać dodatkowym zmysłem ponieważ, będzie on wprowadzał zamiany plastyczne w mózgu. Kwestia konwencji terminologicznej. Oczywiście interfejsy mogą być różnych typów ale to już inny temat. 

Share this post


Link to post
Share on other sites
Godzinę temu, Warai Otoko napisał:

Kwestia konwencji terminologicznej. Oczywiście interfejsy mogą być różnych typów ale to już inny temat. 

Oczywiście. Jednak intuicyjnie wyczuwam znaczną różnicę między wędzidłem, a telepatią ;)

 

Share this post


Link to post
Share on other sites
4 minuty temu, Jajcenty napisał:

Oczywiście. Jednak intuicyjnie wyczuwam znaczną różnicę między wędzidłem, a telepatią ;)

Jasne :P dlatego mówię - są różne typy interfejsów, różnią się jakościowo i ilościowo, zresztą szeroki temat :P Ten z tym językiem to byłby stymulujący interfejs nerwowy, albo neuroproteza czuciowa, której funkcją byłoby własnie zastąpienie zmysłu wzroku. Natomiast interfejs Neuralink to jest rejestrujący interfejs korowy - może mieć różne funkcje, ale akurat własnie na pewno nie zastąpienie zmysłów (przynajmniej o ile nie ma możłiwości stymulacji). O telepatii też nie ma mowy bez tej stymulacji. A przynajmniej nie telepatii mózg-mózg, tylko jak już mózg-komputer-mózg. 

Share this post


Link to post
Share on other sites
2 godziny temu, ex nihilo napisał:

Może już czas zacząć się przyzwyczajać:

Ciekawa sprawa, w pewnym momencie widać, że człowiek ogląda twarz kobiety, a sieć neuronowa odtwarza ją jako twarz mężczyzny. Czyli sieć dopasowuje do tego, czego się wcześniej "naumiała". Przychodzi mi do głowy mnóstwo "fajnych" skojarzeń w kontekście niedawno przypomnianego w innym wątku pana Orwella, ech ;(

Share this post


Link to post
Share on other sites
4 godziny temu, ex nihilo napisał:

Super pomysł i duża nadzieja na poprawę jakości życia dla np sparaliżowanych

Ciekawe, byłem pewien, że to indywidualnie uczone modele, jeden człowiek - jeden zestaw liczb i w tym nie widziałbym nic sensacyjnego. Jednak, model wspólny dla kilku osób jest zaskakujący bo to by oznaczało mniej więcej tak samo przetwarzamy obraz. Mam kilka wątpliwości :) Model może być w miarę dobry dla osób biorących udział w eksperymencie, a już niekoniecznie dobry dla osób z którymi NN nie miała kontaktu. Np. eskimos widzący wielbłąda na pustyni może być trudny :D

Teraz pozostaje tylko czytać EEG zdalnie np. z satelitów i pozamiatane.

2 godziny temu, darekp napisał:

Przychodzi mi do głowy mnóstwo "fajnych" skojarzeń w kontekście niedawno przypomnianego w innym wątku pana Orwella, ech ;(

Na pewno mamy problem etyczny, ale 100% wariograf znacznie usprawnił wymiar sprawiedliwości. Jeszcze tylko implementacja wspomnień i mamy cały komplet. Mordujemy nielubianego sąsiada, wspomnienia z wydarzenia implementujemy drugiemu nielubianemu sąsiadowi, jeszcze tylko 'życzliwy donosi' i już. Możemy czekać aż znowu nam ze dwie osoby podpadną ;)

Edited by Jajcenty

Share this post


Link to post
Share on other sites
5 godzin temu, ex nihilo napisał:

Może już czas zacząć się przyzwyczajać:

Też o tym słyszałem już jakiś czas temu, ciekawe na ile uda im się poprawić dokładność. Jedno mnie zastanowiło, tam jest napisane: 

"generowania przypadkowych obrazów z danych kategorii na podstawie szumów i drugą do generowania podobnego szumu na podstawie EEG. Następnie wyćwiczyli obie sieci do interpretowania fal mózgowych i przekładania ich na realne obrazy, które będą jak najbardziej odzwierciedlały wszystko to, co widzi aktualnie osoba poddana testom."

Zastanawia mnie to "generowania przypadkowych obrazów z danych kategorii " - czy to oznacza, że obrazy tak na prawdę nie są przypadkowe tylko są jakby "losowane"(generowane, ale na podstawie przykładowych obrazów? a jeśli nie to jak zdefiniowali kategorie?) z danego zbioru? Inaczej sobie tego nie wyobraża za bardzo... Przynajmniej nie przy dzisiejszej technologii, a to by oznaczało, że modele mają wiedze a priori co do obrazów, więc od tego do "zczytywania" nieznanczyh wcześniej obrazów z mózgu jeszcze jednak daleka droga... 

43 minuty temu, Jajcenty napisał:

eskimos widzący wielbłąda na pustyni może być trudny

No i żeby odczytać czy eskimos patrzy na wielbłąda siec musiałaby wcześniej sama "patrzec na tego wielbłąda" :P  

 

44 minuty temu, Jajcenty napisał:

Teraz pozostaje tylko czytać EEG zdalnie np. z satelitów i pozamiatane.

To nam raczej nie grozi bo dysypacja energii pola elektromagnetycznego powoduje, że w odległości chyba 5 mm od skóry czaski jest już zupełnie nie wykrywalna, a przynajmniej nie w takiej postaci, że da się cokolwiek z tego odczytać o pracy mózgu. 

47 minut temu, Jajcenty napisał:

Jeszcze tylko implementacja wspomnień i mamy cały komplet.

No własnie ta implementacja - tego jeszcze w ogóle nie ma za bardzo, jest coś tam z tDCS i TMS ale słabo w porównaniu do interfejsów rejestrujących. Możesz w ściśle kontorlowanych warunkach, tymczasowo implementowac jakieś wrażenia (np. poczucie że ktoś jest w pomieszczeniu)  i ew. zakłucać zmysły. 

Share this post


Link to post
Share on other sites
2 minuty temu, Warai Otoko napisał:

To nam raczej nie grozi bo dysypacja energii pola elektromagnetycznego powoduje, że w odległości chyba 5 mm od skóry czaski jest już zupełnie nie wykrywalna, a przynajmniej nie w takiej postaci, że da się cokolwiek z tego odczytać o pracy mózgu. 

Dzisiaj tak jest. jutro się może się okazać, że EEG subtelnie interferuje z GSM i wystarczy zhakowany telefon że 'kraść' eeg osób w pomieszczeniu z telefonem :P No i Panowie Fizycy upierają się, że informacja nie ginie, w tym sensie nie dbają o Twoje obawy o S/N.

Share this post


Link to post
Share on other sites
44 minuty temu, Jajcenty napisał:

Dzisiaj tak jest. jutro się może się okazać, że EEG subtelnie interferuje z GSM i wystarczy zhakowany telefon że 'kraść' eeg osób w pomieszczeniu z telefonem :P No i Panowie Fizycy upierają się, że informacja nie ginie, w tym sensie nie dbają o Twoje obawy o S/N.

Nie wiem czy dobrze rozszyfrowuje Twoje "S/N", ale Panowie fizycy raczej nie sa najlepsi jeśli chodzi o informację (tylko energię i materię), tutaj raczej cybernetyka i teoria informacji  ma więcej do powiedzienia, przynajmniej jeśli mówa o elementach jakościowych. Krótko mówiąc - własnie tym się informacja charakteryzuje i tym różni od enrergi, że własnie ginie :P 

Wiem, że zaraz się ktoś przyczepi że w mechanice kwantowej informacje gra role etc. I faktycznie może i tak - nie wiem o tym za dużo, ale jeśli mówią oni że "kwantowa informacja" nie ginie, to pewnie problem polega jak zwykle na definicjach i używają oni po prostu słowa informacja niepoprawnie/inaczej, lub jak to często bywa z MK - dotyczy to tylko świata kwantowego ;P

A co do interferencji z GSM - no jasne, może i tak się okaże, ale dysypacja znów załatwia temat bo inaczej teledfon musiałbyś mieć cały czas przy skórze głowy. A nawet jeśli hakowałbyś tylko w momentach kiedy rozmawiasz to mógłbyś odczytać jedynie informację z fragmentu mózgu i to tylko z procesów odbywających się własnie w tym czasie! 

Share this post


Link to post
Share on other sites
11 minut temu, Warai Otoko napisał:

ale Panowie fizycy raczej nie sa najlepsi jeśli chodzi o informację (tylko energię i materię),

Nie znam szczegółów, ale gdzieś czytałem (jakaś bardzo popularnonaukowa książka z fizyki, nie pamiętam jaka), że np. to, że czarna dziura niszczy informację, przeszkadza teoretykom w jakichś rozważaniach teoretycznych i oni w to w jakiś sposób "nie wierzą", tzn. spodziewają się, że po odpowiednim poprawieniu teorii okaże się, że z czarnej dziury można odzyskać informację, która do niej wpadła. Może nawet tego nie zrozumiałem, może chodziło o coś innego, ale tak przy okazji mi się przypomniało.

P.S. Możliwe, że chodziło o jakieś trajektorie w przestrzeni fazowej, że coś się skleja, a nie powinno, czy jakoś tak(???)

Edited by darekp

Share this post


Link to post
Share on other sites
17 minut temu, darekp napisał:

Nie znam szczegółów, ale gdzieś czytałem (jakaś bardzo popularnonaukowa książka z fizyki, nie pamiętam jaka), że np. to, że czarna dziura niszczy informację, przeszkadza teoretykom w jakichś rozważaniach teoretycznych i oni w to w jakiś sposób "nie wierzą",

No ja tez nie wiem dokładnie w czym rzecz, ale tak jak pisałem wczesniej - myślę, że chodzi o kwestie definicji informacji. Czarna dziura niszczy informacje, ale jak zdefiniowaną? Jako co? W tym pewnie tkwi problem. 

Share this post


Link to post
Share on other sites
12 minut temu, darekp napisał:

W tym artykule informacja jest utożsamiana z entropią (czy też jej odwrotnością), co ma sens w sensie ilościowym - jak ma to miejsce w ilościowej/komunikacyjnej/klasycznej teorii informacji. Z tym, że w niej jest jedynie mowa własnie o ilości informacji i tyle. Jest tam też mowa o "przedmiotach które zawierają informację", w czym jest zawarta ta inafomacja? Jak? Chodzi po rpostu o entropię, a nie o informację w takim sensie jak rozumie ją współczensa filozofia informacji i cybernetyka i nie w takim sensie jak my ja potocznie rozumiemy. 

Share this post


Link to post
Share on other sites
4 minuty temu, Warai Otoko napisał:

Chodzi po rpostu o entropię, a nie o informację

Hm, napisano też:

Cytat

Jednak mimo to, nie istnieje fizyczny powód, dla którego nie dałoby się zrekonstruować rozbitego wazonu czy rozerwanej gwiazdy. Posiadając ultranowoczesny komputer analizujący stan każdej pojedynczej cząstki, hipotetycznie moglibyśmy odtworzyć dzieje dowolnego obiektu. To podstawa arcyważnej zasady zachowania informacji.

Ja to interpretuję tak, że widocznie, przynajmniej w niektórych modelach teoretycznych, mając dokładne informacje o układzie fizycznym w danym momencie, można prześledzić jego historię historię wstecz i w przyszłość w czasie (mając szczątki rozbitego wazonu, znając ich prędkości itp. można odtworzyć jego wygląd przed rozbiciem). To wygląda jak pełna informacja raczej (w intuicyjnym sensie).

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Glejak wielopostaciowy to jeden z najczęściej spotykanych i najbardziej agresywnych pierwotnych nowotworów mózgu. Występuje on u od 0,6 do 5 osób na 100 000, a liczba jego przypadków rośnie na całym świecie. Średni spodziewany czas życia od postawienia diagnozy wynosi zaledwie 15 miesięcy. Na University of Toronto postała właśnie nowa technika mikrochirurgiczna, która może pomóc w leczeniu tej choroby. Związane z nią nadzieje są tym większe, że może być wykorzystana do leczenie guzów opornych na inne terapie i umiejscowionych w tych obszarach mózgu, w których interwencja chirurgiczna jest wykluczona.
      Obecnie standardowe leczenie glejaka polega na usunięciu guza i zastosowaniu radio- oraz chemioterapii. Niestety, komórki glejaka bardzo szybko się namnażają i naciekają na sąsiadującą tkankę, przez co ich chirurgiczne usunięcie jest bardzo trudne. Tym bardziej, że mamy do czynienia z mózgiem, w którym nie możemy wycinać guza z dużym marginesem. Jakby tego było mało, glejak szybko nabiera oporności na chemioterapię. Bardzo często więc u pacjentów dochodzi do wznowy nowotworu, który wkrótce przestaje reagować na dostępne metody leczenia.
      Yu Sun, profesor na Wydziale Nauk Stosowanych i Inżynierii oraz Xi Huang z Wydziału Medycyny University of Toronto mają nadzieję na zmianę stanu rzeczy za pomocą robotycznych nano-skalpeli, które mogą precyzyjnie zabijać komórki nowotworu.
      Naukowcy stworzyli węglowe nanorurki, które wypełnili cząstkami tlenku żelaza. Tak uzyskane magnetyczne nanorurki (mCNT) są pokryte przeciwciałami, które rozpoznają specyficzną dla komórek glejaka proteinę CD44. Nanorurki są następnie wstrzykiwane w miejsce występowania guza i samodzielnie poszukują proteiny CD44. Gdy ją znajdą, przyczepiają się do komórki i do niej wnikają. A kiedy są już na miejscu, wystarczy włączyć zewnętrzne pole magnetyczne, pod wpływem którego mCNT zaczynają wirować, uszkadzając od wewnątrz komórki glejaka i prowadzą do ich śmierci.
       

       
      Jako że nanorurki niszczą komórki za pomocą oddziaływania mechanicznego, nie ma ryzyka, że komórki zyskają oporność na ten sposób oddziaływania. Nowa metoda może zatem być odpowiedzią zarówno na problem uodparniania się guza na chemioterapię, jak i na niemożność tradycyjnego usunięcia guza metodami chirurgicznym. Podczas przeprowadzonych już badań na myszach naukowcy wykazali, że ich metoda zmniejszyła rozmiary guza i wydłużyła życie myszy z oporną na chemioterapię formą glejaka wielopostaciowego.
      Inną korzyścią z zastosowania mechanicznego oddziaływania mCNT jest fakt, że obok fizycznego niszczenia struktury komórek, nanorurki mogą modulować specyficzne biochemiczne szlaki sygnałowe, co będziemy starali się wykorzystać do opracowania łączonej terapii biorącej na cel nieuleczalne guzy mózgu, mówi Wang.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...