Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Profesor Braziewicz: AI w medycynie nuklearnej wkroczyła na III i IV poziom 5-stopniowej skali

Recommended Posts

W medycynie nuklearnej sztuczna inteligencja wkroczyła już na III i IV poziom w pięciostopniowej skali. Oznacza ona oszczędność czasu, szansę uniknięcia błędów ludzkich i skuteczniejsze terapie dla pacjentów – ocenia prof. Janusz Braziewicz z Polskiego Towarzystwa Medycyny Nuklearnej.

Wkraczająca do nowoczesnej medycyny sztuczna inteligencja budzi skrajne emocje: w środowisku medycznym jak i w społeczeństwie jedni wiążą z nią duże nadzieje, inni mają obawy i wątpliwości. Tak jest np. z medycyną nuklearną, w której wykorzystywane są nowoczesne technologie.

Prof. Janusz Braziewicz, kierownik Zakładu Medycyny Nuklearnej z Ośrodkiem PET w Świętokrzyskim Centrum Onkologii twierdzi, że zaawansowanie automatyzacji i sztucznej inteligencji w medycynie nuklearnej jest już na tyle duże, ze wkroczyło na III i IV poziom w pięciostopniowej skali.

Pierwszy poziom oznacza jedynie działania manualne, drugi – maszynowo-manualne, a trzeci – zautomatyzowane działania maszynowo-manualne. Na czwartym poziomie pojawia się automatyzacja, ale „z ludzką ręką”, piąty oznacza pełną automatyzację.

W diagnostyce obrazowej wygląda to w ten sposób, że na poziomie III (warunkowej automatyzacji) skaner czy system opisowy pod wpływem operatora dostosowuje się do narzucanych mu warunków i wykonuje zlecone zadanie.

Obecnie obserwujemy duże przyspieszenie technologiczne i wejście na poziom IV (wysokiej automatyzacji), kiedy to system automatycznie przetwarza samodzielnie pozyskane dane i dostarcza specjaliście wstępnie przeanalizowane informacje. Ma to miejsce na przykład wówczas, kiedy system zeskanuje ułożonego na stole skanera PET/TK pacjenta i na podstawie swego rodzaju skanu topogramowego, w oparciu o analizę danych anatomicznych chorego zaproponuje wykonanie skanu PET i tomografu komputerowego z uwzględnieniem wskazania klinicznego i sylwetki pacjenta – wyjaśnia w informacji przekazanej PAP prof. Braziewicz, członek Zarządu Polskiego Towarzystwa Medycyny Nuklearnej.

Odbywa się to z użyciem automatycznie dostosowanych parametrów akwizycji, z minimum wymaganej dawki promieniowania ze strony tomografu komputerowego. Algorytm po stronie PET ustala: szybkość przesuwu łóżka podczas płynnego skanowania różnych części ciała pacjenta, zastosowanie różnych matryc rekonstrukcyjnych, zastosowanie bramkowania oddechowego dla odpowiedniego obszaru klatki piersiowej i tułowia.

Według prof. Braziewicza bezzasadne są zatem obawy, że komputery zastąpią lekarzy. W przypadku diagnostyki obrazowej stają się one wręcz niezbędne. Powodem jest choćby lawinowy wzrost diagnostycznych badań obrazowych, w tym również z zakresu medycyny nuklearnej. Jedynie w latach 2000-2010 liczba badań tomografii komputerowej i rezonansu magnetycznego wzrosła dziesięciokrotnie. Z kolei w medycynie nuklearnej taki gwałtowny wzrost liczby badań SPECT i PET przypada na okres po 2010 r.

W ślad za tym nie następuje niestety proporcjonalny wzrost liczby dostępnych lekarzy specjalistów, którzy mogliby je szybko i rzetelnie przeprowadzić. Brakuje także wyszkolonych techników, korzystających z zaawansowanych metod akwizycji z zastosowaniem narzędzi, jakie oferuje dany skaner. Efektem jest przeciążenie ilością pracy poszczególnych grup specjalistów i często coraz dłuższy czas oczekiwania na opisanie badań. Co istotne, presja obniża jakość pracy. Jak pokazują badania, jeśli skróci się o 50 proc. czas na interpretację badania radiologicznego, to stosunek błędów interpretacyjnych wzrośnie o niemal 17 proc. – zaznacza prof. Janusz Braziewicz.

Sztuczna inteligencja w coraz bardziej skomplikowanej i wymagającej diagnostyce obrazowej może zatem usprawnić i wspomóc pracę lekarza. Wdrożenia algorytmów opartych na Artificial Intelligence (AI) przynoszą oszczędność czasu i szansę na pełną standaryzację procedur, ale także na uniknięcie błędów ludzkich i skuteczniejsze, spersonalizowane terapie dla pacjentów – twierdzi specjalista.

Obecnie medycy nuklearni rozwijają nowy trend teranostyki, który wydaje się być przyszłością personalizowanej medycyny poprzez ścisłe połączenie diagnostyki i terapii w celu dobrania do potrzeb konkretnego pacjenta celowanego leczenia. W obszarze sztucznej inteligencji medycy nuklearni coraz częściej wspierają proces terapii, pomagając w ocenie trafności i zasadności zaleconego leczenia już w początkowej jego fazie. Nie bez znaczenia jest w tym kontekście wykorzystywanie hybrydowych badań PET/CT na przykład w planowaniu radioterapii – tłumaczy prof. Janusz Braziewicz.

Sztuczna inteligencja określa proces, w którym maszyna, czyli komputer, uczy się i naśladuje funkcje poznawcze specyficzne dla człowieka, aby wykonywać zadania, jakie zwyczajowo wykonywane są przez ludzki umysł: rozpoznawanie obrazów, identyfikacja różnic czy stawianie logicznych wniosków i prognozowanie. W procesie deep learning komputer już nie organizuje danych i nie wykonuje wcześniej zdefiniowanych ciągów równań, ale zbiera podstawowe parametry dotyczące tych danych i jest tak zaprogramowany, że przygotowuje się do samodzielnego uczenia się przez rozpoznawanie wzorców przy użyciu wielu kolejnych warstw przetwarzania.

Trzeba mieć zatem świadomość, że algorytmy AI będą tak dobre, jak dane, na których były trenowane. Wyzwaniem będzie zatem zgromadzenie odpowiednio opracowanych dużych zestawów danych oraz odpowiednio wydajnych centrów obliczeniowych – uważa przedstawiciel Polskiego Towarzystwa Medycyny Nuklearnej.

Jego zdaniem szanse zastosowania sztucznej inteligencji w medycynie to przede wszystkim digitalizacja wszystkich danych dotyczących konkretnego pacjenta, z uwzględnieniem takich aspektów, jak miejsce zamieszkania, historia chorób w rodzinie, dotychczasowe hospitalizacje, podejmowane wcześniej terapie lekowe i obecnie przyjmowane leki, styl życia, rodzaj wykonywanej pracy, kondycja psychofizyczna.

Ta ilość danych może być przetworzona przez wydajne komputery. Jeśli maszyny będą miały zaimplementowane algorytmy deep learning, jest szansa, że wesprą specjalistów w szybszej i trafniejszej diagnostyce oraz lepszej opiece farmakologicznej. Korzyści z wdrożeń sztucznej inteligencji może odnieść zatem cały system opieki zdrowotnej, w tym: świadczeniodawca, lekarz, ale przede wszystkim – sam pacjent – uważa specjalista.

Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać. Tym bardziej, że w nowoczesnych rozwiązaniach nie mówimy już o wielkości danych generowanych przy badaniach i dalej poddawanych processingowi w gigabajtach, terabajtach czy nawet petabajtach. Bardzo szybko nadchodzi era eksabajtów danych – dodaje prof. Janusz Braziewicz.


« powrót do artykułu

Share this post


Link to post
Share on other sites
2 godziny temu, KopalniaWiedzy.pl napisał:

Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać.

Ha ha, to jakby powiedzieć że taksówkarze którzy wykorzystują autonomiczne samochody zastąpią tych którzy ich nie wykorzystują :P
 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
      Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
      W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
      Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
      Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
      Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Leeds powstał system sztucznej inteligencji (SI), który analizuje skany oczu wykonywane podczas rutynowych wizyt u okulisty czy optyka i wskazuje osoby narażone na... wysokie ryzyko ataku serca. System analizuje zmiany w miniaturowych naczyniach krwionośnych siatkówki, o kórych wiemy, że wskazują na szerszy problem z układem krążenia.
      Specjaliści z Leeds wykorzystali techniki głębokiego uczenia się, by przeszkolić SI w automatycznym odczytywaniu skanów oraz wyławianiu osób, które w ciągu najbliższego roku mogą doświadczyć ataku serca.
      System, który został opisany na łamach Nature Machine Intelligence, wyróżnia się dokładnością rzędu 70–80 procent i zdaniem jego twórców może być wykorzystany przy diagnostyce chorób układu krążenia.
      Choroby układu krążenia, w tym ataki serca, to główne przyczyny zgonów na całym świecie i druga przyczyna zgonów w Wielkiej Brytanii. To choroby chroniczne, obniżające jakość życia. Ta technika może potencjalnie zrewolucjonizować diagnostykę. Skanowanie siatkówki to tani i rutynowy proces stosowany w czasie wielu badań oczu, mówi profesor Alex Frangi, który nadzorował rozwój nowego systemu. Osoby badane przez okulistę czy optometrystę mogą niejako przy okazji dowiedzieć się, czy nie rozwija się u nich choroba układu krążenia. Dzięki temu leczenie można będzie zacząć wcześniej, zanim pojawią się inne objawy.
      System sztucznej inteligencji trenowano na danych okulistycznych i kardiologicznych ponad 5000 osób. Uczył się odróżniania stanów patologicznych od prawidłowych. Gdy już się tego nauczył, na podstawie samych skanów siatkówki był w stanie określić wielkość oraz wydajność pracy lewej komory serca. Powiększona komora jest powiązana z większym ryzykiem chorób serca. Następnie SI, łącząc dane o stanie lewej komory serca z informacjami o wieku i płci pacjenta, może przewidzieć ryzyko ataku serca w ciągu najbliższych 12 miesięcy.
      Obecnie rozmiar i funkcjonowanie lewej komory serca jesteśmy w stanie określić za pomocą echokardiografii czy rezonansu magnetycznego. To specjalistyczne i kosztowne badania, które są znacznie gorzej dostępne niż badania prowadzone w gabinetach okulistycznych czy optycznych. Nowy system nie tylko obniży koszty i poprawi dostępność wczesnej diagnostyki kardiologicznej, ale może odegrać olbrzymią rolę w krajach o słabiej rozwiniętym systemie opieki zdrowotnej, gdzie specjalistyczne badania są bardzo trudno dostępne.
      Ten system sztucznej inteligencji to wspaniałe narzędzie do ujawniania wzorców istniejących w naturze. I właśnie to robi, łączy wzorce zmian w siatkówce ze zmianami w sercu, cieszy się profesor Sven Plein, jeden z autorów badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zróżnicowanie komórek mózgowych może prowadzić do szybszego uczenia się, odkryli naukowcy z Imperial College London (ICL). Spostrzeżenie to może zwiększyć wydajność systemów sztucznej inteligencji. Uczeni zauważyli, że gdy w symulowanych sieciach neuronowych indywidualnie dobierali właściwości elektryczne poszczególnych komórek, sieci takie uczyły się szybciej, niż sieci złożone z komórek o identycznych parametrach.
      Okazało się również, że gdy mamy zróżnicowane komórki, sieć neuronowa potrzebuje ich mniej, a całość zużywa mniej energii niż sieć o identycznych komórkach.
      Zdaniem autorów badań, może to wyjaśniać, dlaczego mózgi tak efektywnie potrafią się uczyć. Mózg musi być wydajny energetycznie, a jednocześnie zdolnym do rozwiązywania złożonych zadań. Nasza praca sugeruje, że zróżnicowanie neuronów – zarówno w mózgach jak i w systemach sztucznej inteligencji – pozwala spełnić oba warunki, mówi główny autor badań, doktorant Nicolas Perez z Wydziału Inżynierii Elektrycznej i elektronicznej.
      Odkrycie powinno też zachęcić twórców sieci neuronowych do budowania ich tak, by były bardziej podobne do mózgu. Nasze mózgi składają się z neuronów. Pozornie są one identyczne, ale przy bliższym przyjrzeniu się, widoczne są liczne różnice. Z kolei każda komórka sztucznych sieci neuronowych jest identyczna, różnią się one tylko połączeniami. Pomimo dużych postępów w rozwoju systemów sztucznej inteligencji, bardzo daleko im do mózgów. Dlatego też uczeni z ICL zastanawiali się, czy przyczyną nie jest brak zróżnicowania komórek sztucznych sieci neuronowych.
      Rozpoczęli więc badania, w ramach których emulowali różne właściwości komórek składających się na siec sztucznej inteligencji. Zauważyli, że zróżnicowanie komórek spowodowało zwiększenie szybkości uczenia się i spadek zapotrzebowania na energię. Ewolucja dała nam niesamowicie funkcjonujący mózg. Dopiero zaczynamy rozumieć, jak on działa, stwierdził doktor Dan Goodman.
      W ramach badań uczeni manipulowali „stałą czasową”, czyli tym, jak szybko każda komórka sztucznej sieci neuronowej decyduje, co ma zrobić w zależności od tego, co robią połączone z nią komórki. Niektóre z tak manipulowanych komórek podejmowały decyzję bardzo szybko, natychmiast po tym, jak działania podjęły komórki z nimi połączone. Inne zaś odczekały chwilę i podejmowały decyzję na podstawie tego, co przez pewien czas robiły komórki z nimi połączone.
      Po zróżnicowaniu „stałej czasowej” swoich komórek, naukowcy przeprowadzili zestaw testów dla uczenia maszynowego się, takich jak rozpoznawanie gestów, pogrupowanie ubrań czy ręcznie napisanych cyfr oraz zidentyfikowanie wypowiadanych komend oraz cyfr.
      Eksperymenty pokazały, że połączenie komórek o różnej „stałej czasowej” powoduje, że cała sieć lepiej rozwiązuje złożone zadania. Okazało się przy okazji, że najlepiej sprawuje się sieć o takiej konfiguracji, której zróżnicowanie jest najbliższe zróżnicowaniu komórek w mózgu. To z kolei sugeruje, że nasz mózg ewoluował w kierunku osiągnięcia najlepszego poziomu zróżnicowania dla optymalnego uczenia się.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rynkowy sukces lub porażka układu scalonego zależą w dużej mierze od etapu jego projektowania. Wtedy właśnie zostają podjęte decyzje odnośnie umiejscowienia na krzemie modułów pamięci i elementów logicznych. Dotychczas zadania tego nie udawało się zautomatyzować, a etap projektowania zajmuje inżynierom całe tygodnie lub miesiące. Inżynierowie Google'a poinformowali właśnie, że stworzony przez nich system sztucznej inteligencji poradził sobie z częściowym zaprojektowaniem chipa w ciągu godzin.
      Współczesne układy scalone składają się z miliardów tranzystorów, dziesiątek milionów bramek logicznych, tysiące bloków logicznych i łączących je kilometrów ścieżek. Lokalizacja poszczególnych układów i bloków logicznych odgrywa kluczową rolę dla przyszłej wydajności chipa. Specjaliści od dziesięcioleci pracują nad rozwiązaniami pozwalającymi zautomatyzować proces projektowania.
      Jako że bloki logiczne to duże elementy, tysiące i miliony razy większe od bramek logicznych, bardzo trudno jest jednocześnie umieszczać bloki i bramki. Dlatego współcześni projektanci układów najpierw umieszczają na krzemie bloki, a wolne miejsca zostają zapełnione pozostałymi bramkami logicznymi.
      Już samo rozmieszczenie bloków jest niezwykle wymagające. Eksperci Google'a obliczyli, że liczba możliwych kombinacji rozmieszczenia makrobloków, które brali pod uwagę w swoich badaniach, wynosi 102500.
      Planując rozmieszczenie bloków, inżynierowie muszą pamiętać o pozostawieniu miejsca na inne elementy i ich łączenie. Azalia Mirhoseini i jej zespół poinformowali na łamach Nature o stworzeniu metody automatycznego wstępnego projektowania chipa w czasie krótszym niż 6 godzin, które swoimi wynikami dorównuje lub nawet przewyższa to, co potrafią doświadczeni inżynierowie.
      naukowcy z Google'a wykorzystali techniki maszynowego uczenia się do wytrenowania swojego programu tak, by rozmieszczał na planie makrobloki. Po umieszczeniu każdego z nich program dokonuje oceny całego chipa, a następnie wykorzystuje to, czego się nauczył, do zaplanowania jak najlepszego kolejnego kroku.
      Co interesujące, projekty tworzone przez google'owską SI znacząco różnią się od tego, jak projektuje człowiek. Sztuczna inteligencja rozpoczyna od największych makrobloków. Ponadto w jakiś sposób unika ciągłego poprawiania tego, co już zostało zrobione. Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych. SI tego nie robi. Mimo to udało jej się zaprojektować układy, w których sygnał pomiędzy poszczególnymi elementami biegnie równie sprawnie, co między układami zaprojektowanymi przez ludzi.
      Google już stosuje metody opracowane prze Mirhoseini do projektowania układów dla przyszłej generacji systemów sztucznej inteligencji. Tymczasem producenci układów scalonych próbują odtworzyć osiągnięcie Google'a i wdrożyć podobne rozwiązania do własnego procesu projektowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.
      Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.
      Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.
      Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.
      Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.
      Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.
      Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.
      Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...