Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Algorytmy sztucznej inteligencji pomogą lekarzom, ale ich nie zastąpią

Rekomendowane odpowiedzi

Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl.

Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności?

W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia.

Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich.

Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych.

Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm?

Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy.

Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin.

Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła.
Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature.

Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych.

Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji?

Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 godzin temu, KopalniaWiedzy.pl napisał:

Skąd się bierze ta przewaga sztucznej inteligencji?

Z inteligencji.

21 godzin temu, KopalniaWiedzy.pl napisał:

Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy.

Po co ich zawczasu stresować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Cytat

Czy, Pana zdaniem, istnieją szanse, że jeszcze za naszego życia SI przewyższy lekarzy w każdej dziedzinie związanej z medycyną?

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy. Nawet w radiologii, praca specjalisty jest dużo bardziej złożone niż tylko interpretacja obrazu. Np. radiologowie korelują zmienne kliniczne z obrazami, kontaktując się nieraz z lekarzem prowadzącym celem zrozumienia kontekstu pacjenta, uczestniczą w tzw. przedoperacyjnych konferencjach multidyscyplinarnych, przeprowadzają interwencje sterowane radiologicznie itd.

A moim zdaniem zdecydowanie nie wiadomo. Może się równie dobrze okazać że nastąpi to za 30 lat. 

"Korelowanie zmiennych klinicznych z obrazami" to jest dość ogólne stwierdzenie i na dodatek algorytmy robią to lepiej niż ludzie, kwestia tylko odpowiedniej dostępności do danych. 

Zrozumienie kontekstu pacjenta i te konferencje to faktycznie może być trudne do zastąpienia ale takie sytuacje są rzadkie - lekarz określa jednostke chorobową na podstawie kryteriów diagnostycznych a ten proces można spokojnie zautomatyzować. poza tym co oni robią na tych konferencjach przedoperacyjnych? Dyskutują nad taktyką , a nie nad tym jaka jest diagoza czy wynik obrazowania, także szkolenie radiologia tylko po to aby się wypowiedział na temat taktyki prowadzenia operacji jest chyba troszkę nad wyrost. Co do interwencji operacyjnych pod kontrolą radiologiczną - to też nie widzę problemy aby inne SI się tym zajmowało - kwestia odpowiedniej mocy obliczeniowej do analizy obrazu na bieżąco etc. więc człowiek może być przez długi czas tańszy. Natomiast jeśli chodzi o samą diagnostykę - czyli główne zajęcie radiologa, to będzie to jedna z pierwszych specjalizacji które staną się zbędne. Chirurg wytrzyma najdłużej bo będzie tańszy niż robot + SI. Wydaje mi się że specjalizacje lekarskie się połączą i będą lekarze nadzorujący pewne procesy etc. ale poszczególne specjalne zadania jak opis wyników radiologii, EKG, diagnozowanie chorób i dopasowywanie leków etc. będą robić SI i to już niedługo (10 lat temu w ogóle temat SI nie istniał w mainstremie). Lekarze przyszłości wejdą bardziej na metapoziom w stosunku do tego co jest teraz (czyli przestaną być radiologami, kardiologiami etc.). Obecnie ten metapoziom jest nie obsadzony dlatego nie ma żadnej nawigacji medycznej etc. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może algorytmy nie zastąpią wysokiej klasy specjalistów ale 90% lekarzy których spotkałem można spokojnie zastąpić algorytmem napisanym w Microsoft Basicu na commodore c64.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Lekarze przyszłości wejdą bardziej na metapoziom w stosunku do tego co jest teraz

To jest coś coś z czym SI poradzi sobie wielokrotnie lepiej i taniej, lekarze niedomagają najbardziej właśnie na takim metapoziomie.

W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy.

To brzmi jak żart. Zakładając że to cytat z tego wywiadu, to jest to żart podwójny.

W dniu 20.02.2020 o 17:02, Astro napisał:

Wzór do naśladowania to nie jest. Następna taka bohaterka zerwie kulkę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.02.2020 o 09:48, peceed napisał:

To jest coś coś z czym SI poradzi sobie wielokrotnie lepiej i taniej, lekarze niedomagają najbardziej właśnie na takim metapoziomie.

Owszem, ale właśnie nie od razu poradzi sobie taniej i lepiej. Najpierw powstaną i powstają już SI specjalizowane, dopiero później powstaną meta-SI potrafiące żonglować tymi "wąskimi". Dlatego lekarze zostaną "zepchnięci" na ten metapoziom, bo nie będzie jeszcze SI które lepiej i taniej to zrobią (podejrzewam, ze głównym problemem będzie agregacja danych). Co nie znaczy że w dalszej przyszłości SI nie zastąpi lekarzy (i nie tylko) całkowicie. Opisuje pewne etapy procesu zmian. 

 

W dniu 22.02.2020 o 09:48, peceed napisał:
W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy.

To brzmi jak żart. Zakładając że to cytat z tego wywiadu, to jest to żart podwójny.

Informacja dla innych użytkowników - ja tego nie napisałem, jest to cytat z cytatu :P

Edytowane przez Warai Otoko

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Warai Otoko napisał:

Owszem, ale właśnie nie od razu poradzi sobie taniej i lepiej. Najpierw powstaną i powstają już SI specjalizowane, dopiero później powstaną meta-SI potrafiące żonglować tymi "wąskimi"

Tutaj widzę echa jakiegoś przekonania, że obcowanie z wiedzą medyczną wymaga specjalnego namaszczenia. Tymczasem to wiedza jak każda inna.
AI mogące działać na poziomie meta już są. Wystarczy zobaczyć co się dzieje z branżą call-center.

Godzinę temu, Warai Otoko napisał:

Dlatego lekarze zostaną "zepchnięci" na ten metapoziom

Aby być zepchniętym trzeba mieć kwalifikacje, co w przypadku lekarzy wymagałoby zrobienia nowej specjalizacji. 

Godzinę temu, Warai Otoko napisał:

bo nie będzie jeszcze SI które lepiej i taniej to zrobią

AI jest już tańsza od zwykłego pracownika w call center.

Godzinę temu, Warai Otoko napisał:

podejrzewam, ze głównym problemem będzie agregacja danych

Jasne, bo pan lekarz szybciej ogarnie w głowie "papierki" dotyczące określonego pacjenta od SI. Chyba tylko jak będzie je miał w komputerze w specjalnej aplikacji.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, peceed napisał:

Tutaj widzę echa jakiegoś przekonania, że obcowanie z wiedzą medyczną wymaga specjalnego namaszczenia.

Absolutnie nie trafiony domysł. 

1 minutę temu, peceed napisał:

Aby być zepchniętym trzeba mieć kwalifikacje, co w przypadku lekarzy wymagałoby zrobienia nowej specjalizacji. 

No i tak to własnie widzę. Będą się przekwalifikowywać powoli. 

2 minuty temu, peceed napisał:

Jasne, bo pan lekarz szybciej ogarnie w głowie "papierki" dotyczące określonego pacjenta od SI.

oczywiście że nie, chodzi o to że "Pan lekarz"  ma dostęp do wielu różnych danych z różnych źródeł - ich agregacja będzie wymagała sporo zachodu i środków, dlatego taki widzę okres przejściowy. Stworzyć model to pikuś w porównaniu do stworzenia systemu akwizycji i agregacji odpowiednich danych, mówię o kwestiach jakościowych. Dużo łatwiej jest to zrobić gdzie mamy jasne źródło danych - sygnał EKG, EEG, obraz MRI etc. natomiast co do "metadanych" należałoby najpierw stworzyć i przetestować system który odpowiednio repreznetowałby wszelkie potrzebne informacje kliniczne i inne i dopiero z takiego systemu można by pobierać dane z których można by takie modele budować. Nie wspomnę o zmianie infrastrukty informatycznej która by była do tego potrzebna + procedury medyczne. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Warai Otoko napisał:

należałoby najpierw stworzyć i przetestować system który odpowiednio repreznetowałby wszelkie potrzebne informacje kliniczne i inne i dopiero z takiego systemu można by pobierać dane z których można by takie modele budować.

W medycynie obieg informacji opiera się na dokumentach. Wypisy, opisy, diagnozy, itd. AI łyka to w ułamki sekund.
Nie potrzeba ręcznego budowania, formatów danych itd. Jesteśmy już na innym poziomie.

3 minuty temu, Warai Otoko napisał:

Nie wspomnę o zmianie infrastrukty informatycznej która by była do tego potrzebna

Dowolna komercyjna chmura. Odpowiedni software jest gotowy w tym sensie, że wymaga tylko konfiguracji.

13 minut temu, Warai Otoko napisał:

Będą się przekwalifikowywać powoli. 

Nie zdążą. Konie też nie wygrały z silnikiem spalinowym :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
35 minut temu, peceed napisał:

W medycynie obieg informacji opiera się na dokumentach. Wypisy, opisy, diagnozy, itd. AI łyka to w ułamki sekund.
Nie potrzeba ręcznego budowania, formatów danych itd. Jesteśmy już na innym poziomie.

Owszem, ale AI nie wie co jest czym i do czego w jakim stopniu jest potrzebne. Dla AI to tylko dane. 

37 minut temu, peceed napisał:

Dowolna komercyjna chmura. Odpowiedni software jest gotowy w tym sensie, że wymaga tylko konfiguracji.

nie chodzi mi o system przetwarzania danych i przetsrzeń obliczeniową tylko o system wprowadzania tych danych i procedury żeby odpowiedneio to robić. 

38 minut temu, peceed napisał:

Nie zdążą. Konie też nie wygrały z silnikiem spalinowym

nie mówię że przyszłości lekarze nie skończą jak te "konie pociągowe" ale proces zmian może nie być tak gwałtowny jak sugerujesz. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...