Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Algorytmy sztucznej inteligencji pomogą lekarzom, ale ich nie zastąpią

Rekomendowane odpowiedzi

Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl.

Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności?

W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia.

Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich.

Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych.

Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm?

Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy.

Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin.

Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła.
Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature.

Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych.

Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji?

Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 godzin temu, KopalniaWiedzy.pl napisał:

Skąd się bierze ta przewaga sztucznej inteligencji?

Z inteligencji.

21 godzin temu, KopalniaWiedzy.pl napisał:

Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy.

Po co ich zawczasu stresować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Cytat

Czy, Pana zdaniem, istnieją szanse, że jeszcze za naszego życia SI przewyższy lekarzy w każdej dziedzinie związanej z medycyną?

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy. Nawet w radiologii, praca specjalisty jest dużo bardziej złożone niż tylko interpretacja obrazu. Np. radiologowie korelują zmienne kliniczne z obrazami, kontaktując się nieraz z lekarzem prowadzącym celem zrozumienia kontekstu pacjenta, uczestniczą w tzw. przedoperacyjnych konferencjach multidyscyplinarnych, przeprowadzają interwencje sterowane radiologicznie itd.

A moim zdaniem zdecydowanie nie wiadomo. Może się równie dobrze okazać że nastąpi to za 30 lat. 

"Korelowanie zmiennych klinicznych z obrazami" to jest dość ogólne stwierdzenie i na dodatek algorytmy robią to lepiej niż ludzie, kwestia tylko odpowiedniej dostępności do danych. 

Zrozumienie kontekstu pacjenta i te konferencje to faktycznie może być trudne do zastąpienia ale takie sytuacje są rzadkie - lekarz określa jednostke chorobową na podstawie kryteriów diagnostycznych a ten proces można spokojnie zautomatyzować. poza tym co oni robią na tych konferencjach przedoperacyjnych? Dyskutują nad taktyką , a nie nad tym jaka jest diagoza czy wynik obrazowania, także szkolenie radiologia tylko po to aby się wypowiedział na temat taktyki prowadzenia operacji jest chyba troszkę nad wyrost. Co do interwencji operacyjnych pod kontrolą radiologiczną - to też nie widzę problemy aby inne SI się tym zajmowało - kwestia odpowiedniej mocy obliczeniowej do analizy obrazu na bieżąco etc. więc człowiek może być przez długi czas tańszy. Natomiast jeśli chodzi o samą diagnostykę - czyli główne zajęcie radiologa, to będzie to jedna z pierwszych specjalizacji które staną się zbędne. Chirurg wytrzyma najdłużej bo będzie tańszy niż robot + SI. Wydaje mi się że specjalizacje lekarskie się połączą i będą lekarze nadzorujący pewne procesy etc. ale poszczególne specjalne zadania jak opis wyników radiologii, EKG, diagnozowanie chorób i dopasowywanie leków etc. będą robić SI i to już niedługo (10 lat temu w ogóle temat SI nie istniał w mainstremie). Lekarze przyszłości wejdą bardziej na metapoziom w stosunku do tego co jest teraz (czyli przestaną być radiologami, kardiologiami etc.). Obecnie ten metapoziom jest nie obsadzony dlatego nie ma żadnej nawigacji medycznej etc. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może algorytmy nie zastąpią wysokiej klasy specjalistów ale 90% lekarzy których spotkałem można spokojnie zastąpić algorytmem napisanym w Microsoft Basicu na commodore c64.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Lekarze przyszłości wejdą bardziej na metapoziom w stosunku do tego co jest teraz

To jest coś coś z czym SI poradzi sobie wielokrotnie lepiej i taniej, lekarze niedomagają najbardziej właśnie na takim metapoziomie.

W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy.

To brzmi jak żart. Zakładając że to cytat z tego wywiadu, to jest to żart podwójny.

W dniu 20.02.2020 o 17:02, Astro napisał:

Wzór do naśladowania to nie jest. Następna taka bohaterka zerwie kulkę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.02.2020 o 09:48, peceed napisał:

To jest coś coś z czym SI poradzi sobie wielokrotnie lepiej i taniej, lekarze niedomagają najbardziej właśnie na takim metapoziomie.

Owszem, ale właśnie nie od razu poradzi sobie taniej i lepiej. Najpierw powstaną i powstają już SI specjalizowane, dopiero później powstaną meta-SI potrafiące żonglować tymi "wąskimi". Dlatego lekarze zostaną "zepchnięci" na ten metapoziom, bo nie będzie jeszcze SI które lepiej i taniej to zrobią (podejrzewam, ze głównym problemem będzie agregacja danych). Co nie znaczy że w dalszej przyszłości SI nie zastąpi lekarzy (i nie tylko) całkowicie. Opisuje pewne etapy procesu zmian. 

 

W dniu 22.02.2020 o 09:48, peceed napisał:
W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy.

To brzmi jak żart. Zakładając że to cytat z tego wywiadu, to jest to żart podwójny.

Informacja dla innych użytkowników - ja tego nie napisałem, jest to cytat z cytatu :P

Edytowane przez Warai Otoko

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Warai Otoko napisał:

Owszem, ale właśnie nie od razu poradzi sobie taniej i lepiej. Najpierw powstaną i powstają już SI specjalizowane, dopiero później powstaną meta-SI potrafiące żonglować tymi "wąskimi"

Tutaj widzę echa jakiegoś przekonania, że obcowanie z wiedzą medyczną wymaga specjalnego namaszczenia. Tymczasem to wiedza jak każda inna.
AI mogące działać na poziomie meta już są. Wystarczy zobaczyć co się dzieje z branżą call-center.

Godzinę temu, Warai Otoko napisał:

Dlatego lekarze zostaną "zepchnięci" na ten metapoziom

Aby być zepchniętym trzeba mieć kwalifikacje, co w przypadku lekarzy wymagałoby zrobienia nowej specjalizacji. 

Godzinę temu, Warai Otoko napisał:

bo nie będzie jeszcze SI które lepiej i taniej to zrobią

AI jest już tańsza od zwykłego pracownika w call center.

Godzinę temu, Warai Otoko napisał:

podejrzewam, ze głównym problemem będzie agregacja danych

Jasne, bo pan lekarz szybciej ogarnie w głowie "papierki" dotyczące określonego pacjenta od SI. Chyba tylko jak będzie je miał w komputerze w specjalnej aplikacji.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, peceed napisał:

Tutaj widzę echa jakiegoś przekonania, że obcowanie z wiedzą medyczną wymaga specjalnego namaszczenia.

Absolutnie nie trafiony domysł. 

1 minutę temu, peceed napisał:

Aby być zepchniętym trzeba mieć kwalifikacje, co w przypadku lekarzy wymagałoby zrobienia nowej specjalizacji. 

No i tak to własnie widzę. Będą się przekwalifikowywać powoli. 

2 minuty temu, peceed napisał:

Jasne, bo pan lekarz szybciej ogarnie w głowie "papierki" dotyczące określonego pacjenta od SI.

oczywiście że nie, chodzi o to że "Pan lekarz"  ma dostęp do wielu różnych danych z różnych źródeł - ich agregacja będzie wymagała sporo zachodu i środków, dlatego taki widzę okres przejściowy. Stworzyć model to pikuś w porównaniu do stworzenia systemu akwizycji i agregacji odpowiednich danych, mówię o kwestiach jakościowych. Dużo łatwiej jest to zrobić gdzie mamy jasne źródło danych - sygnał EKG, EEG, obraz MRI etc. natomiast co do "metadanych" należałoby najpierw stworzyć i przetestować system który odpowiednio repreznetowałby wszelkie potrzebne informacje kliniczne i inne i dopiero z takiego systemu można by pobierać dane z których można by takie modele budować. Nie wspomnę o zmianie infrastrukty informatycznej która by była do tego potrzebna + procedury medyczne. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Warai Otoko napisał:

należałoby najpierw stworzyć i przetestować system który odpowiednio repreznetowałby wszelkie potrzebne informacje kliniczne i inne i dopiero z takiego systemu można by pobierać dane z których można by takie modele budować.

W medycynie obieg informacji opiera się na dokumentach. Wypisy, opisy, diagnozy, itd. AI łyka to w ułamki sekund.
Nie potrzeba ręcznego budowania, formatów danych itd. Jesteśmy już na innym poziomie.

3 minuty temu, Warai Otoko napisał:

Nie wspomnę o zmianie infrastrukty informatycznej która by była do tego potrzebna

Dowolna komercyjna chmura. Odpowiedni software jest gotowy w tym sensie, że wymaga tylko konfiguracji.

13 minut temu, Warai Otoko napisał:

Będą się przekwalifikowywać powoli. 

Nie zdążą. Konie też nie wygrały z silnikiem spalinowym :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
35 minut temu, peceed napisał:

W medycynie obieg informacji opiera się na dokumentach. Wypisy, opisy, diagnozy, itd. AI łyka to w ułamki sekund.
Nie potrzeba ręcznego budowania, formatów danych itd. Jesteśmy już na innym poziomie.

Owszem, ale AI nie wie co jest czym i do czego w jakim stopniu jest potrzebne. Dla AI to tylko dane. 

37 minut temu, peceed napisał:

Dowolna komercyjna chmura. Odpowiedni software jest gotowy w tym sensie, że wymaga tylko konfiguracji.

nie chodzi mi o system przetwarzania danych i przetsrzeń obliczeniową tylko o system wprowadzania tych danych i procedury żeby odpowiedneio to robić. 

38 minut temu, peceed napisał:

Nie zdążą. Konie też nie wygrały z silnikiem spalinowym

nie mówię że przyszłości lekarze nie skończą jak te "konie pociągowe" ale proces zmian może nie być tak gwałtowny jak sugerujesz. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niewielkie roboty, które pędzą przez płyn z niewiarygodna prędkością, mogą pewnego dnia posłużyć do naprawy ludzkiego ciała od wewnątrz. Wyobraźmy sobie roboty, które będą mogły przeprowadzać zabiegi chirurgiczne. Zamiast kroić pacjenta, będziemy mogli podać mu roboty w formie pigułki lub zastrzyku, a one przeprowadzą zabieg, mówi doktor Jin Lee z Wydziału Inżynierii Biologicznej i Chemicznej University of Colorado w Boulder. Taka wizja to obecnie odległa przyszłość, ale same roboty już powstały.
      Lee i jego zespół stworzyli urządzenia o średnicy 20 mikrometrów. To około 3-krotnie mniej niż średnica ludzkiego włosa. Roboty poruszają się w płynie w prędkością 3 mm/s zatem w ciągu minuty przebywają odległość 9000 razy większą niż ich własna długość. Przeciętny samochód osobowy, żeby poszczycić się takim osiągami, musiałby poruszać się z prędkością ok. 2400 km/h.
      Jednak zalety mikrorobotów nie ograniczają się do szybkiego przemieszczania się. Podczas eksperymentów naukowcy wykorzystali je do dostarczenia deksametazonu do pęcherza myszy. To wskazuje, że można by je wykorzystać do leczenia chorób pęcherza i innych schorzeń u ludzi.
      Mikroroboty zostały wykonane z biokompatybilnych polimerów metodą podobną do druku 3D. Przypominają niewielką rakietę z przyczepionymi trzema łopatami. W każdym z nich uwięziono pęcherzyk powietrza. Gdy taki robot zostanie wystawiony na działanie fal akustycznych – w eksperymentach wykorzystano ultradźwięki – pęcherzyk zaczyna wibrować, odpycha płyn i robot się porusza.
      Naukowcy postanowili przetestować swoje urządzenie na mysim modelu śródmiąższowego zapalenia pęcherza moczowego. To bolesna choroba powodująca silny ból w miednicy. Jej leczenie jest niekomfortowe. Pacjenci muszą zgłaszać się do lekarza, gdzie za pośrednictwem cewnika do pęcherza wprowadzany jest deksametazon. Naukowcy stworzyli mikroroboty zawierające ten lek, a następnie wprowadzili urządzenia do pęcherza myszy. Roboty rozprzestrzeniły się po organizmie, a następnie przylgnęły do ścian pęcherza, gdzie przez dwa dni powoli uwalniały środek leczniczy. Dzięki temu można było w dłuższym czasie podczas więcej lekarstwa, poprawiając stan pacjenta.
      Twórcy robotów zastrzegają, że zanim trafią one do ludzkiego organizmu, muszą zostać jeszcze udoskonalone. Pierwszym celem jest uczynienie urządzeń w pełni biodegradowalnymi, by całkowicie rozpuszczały się w organizmie po zrealizowaniu zadania.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...