Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Algorytm na smartfona lepiej diagnozuje niż lekarze

Rekomendowane odpowiedzi

Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem.

W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne.

Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana.

Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%.
FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta.

Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby.

Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA.

Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków.

Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powinni jeszcze do tego dodać algorytm wyznaczający powodzenie terapii (na wzór algorytmu prognozującego rozwiązywalność śledztwa [1]), dzięki czemu pacjent dowiadywałby się od razu, czy warto iść do lekarza, czy też lepiej od razu się powiesić.

___________

1. Policja rezygnuje z trudnych śledztw, bo tak radzi algorytm

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Od wielu lat inżynierowie z Uniwersytetu Harvarda tworzą elastyczne robotyczne stroje dla osób z upośledzeniem ruchu w wyniku udarów czy chorób neurodegeneracyjnych. Stroje takie służą nie tylko pomocą przy wykonywaniu codziennych czynności, ale równie pomagają przy terapii, której celem jest odzyskanie mobilności. Jednak nie ma dwóch identycznych osób, a nasz sposób poruszania się jest wysoce zindywidualizowany. Szczególnie jest to widoczne u osób z zaburzeniami mobilności. To zaś powoduje, że bardzo trudno jest stworzyć urządzenie, które nadawałoby się dla różnych osób.
      Rozwiązaniem tego problemu może być wykorzystanie systemów maszynowego uczenia się. Profesor Conor Walsh i jego zespół z John A. Paulson School of Engineering and Applied Sciences (SEAS) na Uniwersytecie Harvarda od sześciu lat współpracują z lekarzami z Massachusetts General Hospital oraz naukowcami z Harvard Medical School. Efektem współpracy ze specjalistą od udarów i rehabilitacji układu nerwowego doktorem Dawidem Linem oraz specjalistką od stwardnienia rozsianego doktor Sabriną Paganoni jest specjalna kamizelka zdolna do uczenia się ruchów indywidualnego pacjenta i pomagająca mu poruszać kończyną wymagającą rehabilitacji.
      Problemem dla osób z upośledzeniami ruchomości jest na przykład wykonanie serii powtarzalnych ruchów, potrzebnych na przykład przy myciu zębów czy jedzeniu. Mają problemy z uniesieniem ramienia na odpowiednią wysokość, utrzymaniem go, ramię bardzo szybko się męczy, gdy trzeba takie ruchy powtarzać. Wstępne wersje samouczącej się kamizelki zwracały uwagę tylko na ruchy pacjenta. Okazało się, że gdy kamizelka pomogła unieść ramię, chorzy mieli problem z jego opuszczeniem. Niektórzy nie mieli siły, by przezwyciężyć opór robota. Dlatego też w nowej wersji dodano model fizyczny, który przewiduje minimalną siłę, potrzebną do pomocy w poruszeniu kończyny. Dzięki temu pacjenci nie tylko odczuwają pomoc jako bardziej naturalną, ale nie mają większych problemów z samodzielnym opuszczaniem ramienia.
      Nowe urządzenie przetestowano na 9 osobach, 5 po udarach i 4 ze stwardnieniem zanikowym bocznym. Dla osób ze stwardnieniem rozsianym najważniejszymi aspektami są komfort, łatwość użycia i dostosowywanie się urządzenia do ich specyficznych potrzeb i wzorców ruchu. Personalizacja jest tutaj kluczowym elementem pozwalającym pacjentom na osiągnięcie niezależności i poprawienie jakości ich życia. Nasze urządzenie ma potencjał znaczącej poprawy funkcjonowania górnych kończyn, zwiększenia aktywności pacjentów oraz redukcji wykonywanych przez nich ruchów kompensujących, stwierdza Paganoni.
      Testy wykazały, że już obecna wersja kamizelki jest w stanie z 94-procentową dokładnością odróżniać ruchy ramienia, pozwala chorym uzyskać większy zakres ruchu ramienia, łokcia i nadgarstka, dzięki czemu nie muszą oni całym ciałem kompensować niedoborów. To zaś powoduje, że ich sposób poruszania się jest bardziej dokładny i efektywny.
      Więcej informacji: Personalized ML-based wearable robot control improves impaired arm function.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
      Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
      Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
      Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
      System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
      W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
      Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
      Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Uniwersytet im. Adama Mickiewicza w Poznaniu (UAM), Politechnika Poznańska oraz neurolodzy i psychiatrzy chcą opracować nową, bezinwazyjną metodę diagnozowania choroby Alzheimera na wczesnym etapie. Jak podkreślono na stronie UAM, w celu przeprowadzenia badań pilotażowych w projekcie naukowcy planują zgromadzić grupę około 50 osób zagrożonych rozwojem choroby, a także podobną grupę kontrolną.
      Choroba Alzheimer przez dekady może rozwijać się bez żadnych objawów. Tymczasem, jak w przypadku większości chorób, wczesne rozpoznanie ma olbrzymie znaczenie dla rokowań. Im zatem szybciej schorzenie zostanie zdiagnozowane, tym większa szansa na wyleczenie czy powstrzymanie dalszych postępów choroby. Wszyscy mamy nadzieję, że prędzej czy później będziemy dysponować skutecznym lekiem, jednak może się okazać, że największą barierą w jego zastosowaniu będzie dostęp do wczesnej diagnostyki - obecnie drogiej i trudno osiągalnej, mówi profesor Jędrzej Kociński z UAM.
      Naukowcy zapraszają więc do wzięcia udziału w bezpłatnych anonimowych badaniach wszystkich, którzy podejrzewają, że coś złego dzieje się z ich pamięcią, oraz osoby po 50. roku życia bez zaburzeń pamięci, ale w rodzinach których są lub były osoby z wczesnym otępieniem (czyli takie, u których rozwinęło się one przed 65. rokiem życia). W badaniach nie mogą wziąć udział osoby z wyraźnymi objawami otępienia, ani z już zdiagnozowaną chorobą Alzheimera. Szczegółowe informacje o projekcie znajdziemy na stronach Alzheimer Prediction Project, a chęć udziału w badaniu można zgłosić pisząc na adres kierownika projektu, doktora Marcina Górniaka, lekarz.marcin.gorniak[at]gmail.com.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...