Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Algorytmy sztucznej inteligencji pomogą lekarzom, ale ich nie zastąpią

Recommended Posts

Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl.

Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności?

W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia.

Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich.

Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych.

Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm?

Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy.

Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin.

Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła.
Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature.

Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych.

Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji?

Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości.


« powrót do artykułu

Share this post


Link to post
Share on other sites
21 godzin temu, KopalniaWiedzy.pl napisał:

Skąd się bierze ta przewaga sztucznej inteligencji?

Z inteligencji.

21 godzin temu, KopalniaWiedzy.pl napisał:

Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy.

Po co ich zawczasu stresować.

Share this post


Link to post
Share on other sites
Cytat

Czy, Pana zdaniem, istnieją szanse, że jeszcze za naszego życia SI przewyższy lekarzy w każdej dziedzinie związanej z medycyną?

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy. Nawet w radiologii, praca specjalisty jest dużo bardziej złożone niż tylko interpretacja obrazu. Np. radiologowie korelują zmienne kliniczne z obrazami, kontaktując się nieraz z lekarzem prowadzącym celem zrozumienia kontekstu pacjenta, uczestniczą w tzw. przedoperacyjnych konferencjach multidyscyplinarnych, przeprowadzają interwencje sterowane radiologicznie itd.

A moim zdaniem zdecydowanie nie wiadomo. Może się równie dobrze okazać że nastąpi to za 30 lat. 

"Korelowanie zmiennych klinicznych z obrazami" to jest dość ogólne stwierdzenie i na dodatek algorytmy robią to lepiej niż ludzie, kwestia tylko odpowiedniej dostępności do danych. 

Zrozumienie kontekstu pacjenta i te konferencje to faktycznie może być trudne do zastąpienia ale takie sytuacje są rzadkie - lekarz określa jednostke chorobową na podstawie kryteriów diagnostycznych a ten proces można spokojnie zautomatyzować. poza tym co oni robią na tych konferencjach przedoperacyjnych? Dyskutują nad taktyką , a nie nad tym jaka jest diagoza czy wynik obrazowania, także szkolenie radiologia tylko po to aby się wypowiedział na temat taktyki prowadzenia operacji jest chyba troszkę nad wyrost. Co do interwencji operacyjnych pod kontrolą radiologiczną - to też nie widzę problemy aby inne SI się tym zajmowało - kwestia odpowiedniej mocy obliczeniowej do analizy obrazu na bieżąco etc. więc człowiek może być przez długi czas tańszy. Natomiast jeśli chodzi o samą diagnostykę - czyli główne zajęcie radiologa, to będzie to jedna z pierwszych specjalizacji które staną się zbędne. Chirurg wytrzyma najdłużej bo będzie tańszy niż robot + SI. Wydaje mi się że specjalizacje lekarskie się połączą i będą lekarze nadzorujący pewne procesy etc. ale poszczególne specjalne zadania jak opis wyników radiologii, EKG, diagnozowanie chorób i dopasowywanie leków etc. będą robić SI i to już niedługo (10 lat temu w ogóle temat SI nie istniał w mainstremie). Lekarze przyszłości wejdą bardziej na metapoziom w stosunku do tego co jest teraz (czyli przestaną być radiologami, kardiologiami etc.). Obecnie ten metapoziom jest nie obsadzony dlatego nie ma żadnej nawigacji medycznej etc. 

Share this post


Link to post
Share on other sites

Może algorytmy nie zastąpią wysokiej klasy specjalistów ale 90% lekarzy których spotkałem można spokojnie zastąpić algorytmem napisanym w Microsoft Basicu na commodore c64.

Share this post


Link to post
Share on other sites
W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Lekarze przyszłości wejdą bardziej na metapoziom w stosunku do tego co jest teraz

To jest coś coś z czym SI poradzi sobie wielokrotnie lepiej i taniej, lekarze niedomagają najbardziej właśnie na takim metapoziomie.

W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy.

To brzmi jak żart. Zakładając że to cytat z tego wywiadu, to jest to żart podwójny.

W dniu 20.02.2020 o 17:02, Astro napisał:

Wzór do naśladowania to nie jest. Następna taka bohaterka zerwie kulkę.

Share this post


Link to post
Share on other sites
W dniu 22.02.2020 o 09:48, peceed napisał:

To jest coś coś z czym SI poradzi sobie wielokrotnie lepiej i taniej, lekarze niedomagają najbardziej właśnie na takim metapoziomie.

Owszem, ale właśnie nie od razu poradzi sobie taniej i lepiej. Najpierw powstaną i powstają już SI specjalizowane, dopiero później powstaną meta-SI potrafiące żonglować tymi "wąskimi". Dlatego lekarze zostaną "zepchnięci" na ten metapoziom, bo nie będzie jeszcze SI które lepiej i taniej to zrobią (podejrzewam, ze głównym problemem będzie agregacja danych). Co nie znaczy że w dalszej przyszłości SI nie zastąpi lekarzy (i nie tylko) całkowicie. Opisuje pewne etapy procesu zmian. 

 

W dniu 22.02.2020 o 09:48, peceed napisał:
W dniu 20.02.2020 o 15:52, Warai Otoko napisał:

Zdecydowanie nie. Odczyt obrazów medycznych to jedno z bardziej żmudnych i powtarzalnych zadań lekarzy.

To brzmi jak żart. Zakładając że to cytat z tego wywiadu, to jest to żart podwójny.

Informacja dla innych użytkowników - ja tego nie napisałem, jest to cytat z cytatu :P

Edited by Warai Otoko

Share this post


Link to post
Share on other sites
Godzinę temu, Warai Otoko napisał:

Owszem, ale właśnie nie od razu poradzi sobie taniej i lepiej. Najpierw powstaną i powstają już SI specjalizowane, dopiero później powstaną meta-SI potrafiące żonglować tymi "wąskimi"

Tutaj widzę echa jakiegoś przekonania, że obcowanie z wiedzą medyczną wymaga specjalnego namaszczenia. Tymczasem to wiedza jak każda inna.
AI mogące działać na poziomie meta już są. Wystarczy zobaczyć co się dzieje z branżą call-center.

Godzinę temu, Warai Otoko napisał:

Dlatego lekarze zostaną "zepchnięci" na ten metapoziom

Aby być zepchniętym trzeba mieć kwalifikacje, co w przypadku lekarzy wymagałoby zrobienia nowej specjalizacji. 

Godzinę temu, Warai Otoko napisał:

bo nie będzie jeszcze SI które lepiej i taniej to zrobią

AI jest już tańsza od zwykłego pracownika w call center.

Godzinę temu, Warai Otoko napisał:

podejrzewam, ze głównym problemem będzie agregacja danych

Jasne, bo pan lekarz szybciej ogarnie w głowie "papierki" dotyczące określonego pacjenta od SI. Chyba tylko jak będzie je miał w komputerze w specjalnej aplikacji.

Edited by peceed

Share this post


Link to post
Share on other sites
Teraz, peceed napisał:

Tutaj widzę echa jakiegoś przekonania, że obcowanie z wiedzą medyczną wymaga specjalnego namaszczenia.

Absolutnie nie trafiony domysł. 

1 minutę temu, peceed napisał:

Aby być zepchniętym trzeba mieć kwalifikacje, co w przypadku lekarzy wymagałoby zrobienia nowej specjalizacji. 

No i tak to własnie widzę. Będą się przekwalifikowywać powoli. 

2 minuty temu, peceed napisał:

Jasne, bo pan lekarz szybciej ogarnie w głowie "papierki" dotyczące określonego pacjenta od SI.

oczywiście że nie, chodzi o to że "Pan lekarz"  ma dostęp do wielu różnych danych z różnych źródeł - ich agregacja będzie wymagała sporo zachodu i środków, dlatego taki widzę okres przejściowy. Stworzyć model to pikuś w porównaniu do stworzenia systemu akwizycji i agregacji odpowiednich danych, mówię o kwestiach jakościowych. Dużo łatwiej jest to zrobić gdzie mamy jasne źródło danych - sygnał EKG, EEG, obraz MRI etc. natomiast co do "metadanych" należałoby najpierw stworzyć i przetestować system który odpowiednio repreznetowałby wszelkie potrzebne informacje kliniczne i inne i dopiero z takiego systemu można by pobierać dane z których można by takie modele budować. Nie wspomnę o zmianie infrastrukty informatycznej która by była do tego potrzebna + procedury medyczne. 

Share this post


Link to post
Share on other sites
1 minutę temu, Warai Otoko napisał:

należałoby najpierw stworzyć i przetestować system który odpowiednio repreznetowałby wszelkie potrzebne informacje kliniczne i inne i dopiero z takiego systemu można by pobierać dane z których można by takie modele budować.

W medycynie obieg informacji opiera się na dokumentach. Wypisy, opisy, diagnozy, itd. AI łyka to w ułamki sekund.
Nie potrzeba ręcznego budowania, formatów danych itd. Jesteśmy już na innym poziomie.

3 minuty temu, Warai Otoko napisał:

Nie wspomnę o zmianie infrastrukty informatycznej która by była do tego potrzebna

Dowolna komercyjna chmura. Odpowiedni software jest gotowy w tym sensie, że wymaga tylko konfiguracji.

13 minut temu, Warai Otoko napisał:

Będą się przekwalifikowywać powoli. 

Nie zdążą. Konie też nie wygrały z silnikiem spalinowym :P

Share this post


Link to post
Share on other sites
35 minut temu, peceed napisał:

W medycynie obieg informacji opiera się na dokumentach. Wypisy, opisy, diagnozy, itd. AI łyka to w ułamki sekund.
Nie potrzeba ręcznego budowania, formatów danych itd. Jesteśmy już na innym poziomie.

Owszem, ale AI nie wie co jest czym i do czego w jakim stopniu jest potrzebne. Dla AI to tylko dane. 

37 minut temu, peceed napisał:

Dowolna komercyjna chmura. Odpowiedni software jest gotowy w tym sensie, że wymaga tylko konfiguracji.

nie chodzi mi o system przetwarzania danych i przetsrzeń obliczeniową tylko o system wprowadzania tych danych i procedury żeby odpowiedneio to robić. 

38 minut temu, peceed napisał:

Nie zdążą. Konie też nie wygrały z silnikiem spalinowym

nie mówię że przyszłości lekarze nie skończą jak te "konie pociągowe" ale proces zmian może nie być tak gwałtowny jak sugerujesz. 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Czarna żółć (gr. μελαινα χολή) to najbardziej tajemniczy humor w koncepcji zdrowia i choroby stworzonej przez Hippokratesa (V/IV w. p.n.e.), która, po rozwinięciu przez Klaudiusza Galena (II w. n.e.) i średniowiecznych, arabskich uczonych, pozostawała aktualna w dyskursie medycznym do końca XVIII w. Przez większość tego czasu zajmowała wiodące miejsce w wyobrażeniach na temat stanów patologicznych ludzkiego organizmu.
      Powyższe pojmowanie istoty chorób miało znaczący wpływ na rodzaj podejmowanych terapii i stosowanych leków. Powiązana z tym typologia temperamentów wprowadziła do obiegu obraz melancholii – choroby cechującej się długotrwałym smutkiem i pojęcie melancholika – osoby, która niejako z przyrodzenia, ze względu na przewagę czarnej żółci w organizmie, wykazuje tendencje do częstego i nadmiernego smutku. Połączenie koncepcji humoralnej z astrologią przyporządkowało melancholię wpływom Saturna. Zaowocowało to licznymi nawiązaniami w sztuce, czego przykładem jest choćby, powszechnie znany, miedzioryt Melancholia I z 1514 r., autorstwa Albrechta Dürera.
      Jatroastrologia nie wytrzymała próby czasu. Została poddana krytyce przez naukę doby oświecenia. W tym samym okresie, wskutek rozwoju medycyny klinicznej, zrezygnowano z koncepcji humoralnej. Oba wątki przetrwały jednak poza medycyną.
      Obecnie większość ludzi zna swój znak zodiaku oraz temperament, nierzadko tłumacząc w ten sposób swoje samopoczucie i postępowanie. Trafność humoralnej koncepcji temperamentów sprawia, że posługuje się nią współczesna psychologia. Co za tym idzie melancholia i melancholicy stanowią nadal element składowy otaczającego nas świata. W świetle dzisiejszych standardów psychologii i psychiatrii, dawny termin „melancholia” został utożsamiony z pojęciem depresji, która jest obecnie groźną chorobą cywilizacyjną.
      Czy można jednak postawić między nimi znak równości? Kwestia ta pozostaje nadal otwarta. Polski psychiatra i humanista, profesor Antoni Kępiński (1918-1972) postulował, by wrócić do stosowania dawnego terminu „melancholia”, który jego zdaniem, lepiej oddaje stan człowieka pogrążonego w długotrwałym i odbierającym chęć życia smutku. Obszerny i wielopłaszczyznowy temat melancholii pozostaje zagadnieniem niewyczerpanym przez naukę. Jego złożoność wymaga interdyscyplinarnego podejścia. Celem konferencji jest więc próba przedstawienia aktualnych badań prowadzonych w następujących obszarach badawczych:
      • Melancholia/depresja i melancholicy. Stan duszy i ciała.
      • Wpływ Saturna. Znaki zodiaku. Melancholia w astrologii.
      • Melancholia/depresja w kulturze (i popkulturze).
      • Motyw melancholii/depresji w sztuce i literaturze.
      • Melancholia i melancholicy w dawnym dyskursie medycznym.
      • Leczenie depresji we współczesnej psychiatrii i psychologii.
      • Społeczne i cywilizacyjne aspekty depresji.
      Na konferencję, która odbędzie się w Bydgoszczy w dniach 23–24 kwietnia 2020 r., zapraszają Zakład Historii Medycyny i Pielęgniarstwa, Studenckie Koło Naukowe Historii Medycyny i Farmacji Collegium Medicum im. Ludwika Rydygiera w Bydgoszczy
      Uniwersytetu Mikołaja Kopernika, Studenckie Koło Historyków Uniwersytetu Kazimierza Wielkiego, Fundacja Naukowa Bydgoska Szkoła Historii Nauk Medycznych oraz Bydgoskie Towarzystwo Naukowe.
      Organizatorzy są też otwarci na referaty wykraczające poza opisane obszary badawcze, związane z tematem konferencji. Nie ograniczają zasięgu geograficznego, ani zakresu chronologicznego podejmowanych zagadnień. Do udziału w konferencji zapraszają wszystkich badaczy zainteresowanych jej tematyką, zaś w szczególności studentów i doktorantów oraz młodych (nawet tylko duchem) pracowników naukowych, reprezentujących kierunki związane z: medycyną, farmacją, psychologią, a także historią, historią sztuki, literaturoznawstwem, religioznawstwem, etnologią, antropologią kultury itp.
      Czas na wygłoszenie referatu wynosił będzie 20 minut.
      Zgłoszenia należy wysyłać, nie później niż do 25.03.2020 r., na adres: melancholia.depresja@wp.pl . Abstrakt powinien zawierać od 1000 do 1500 znaków ze spacjami.
      Organizatorzy zastrzegają sobie prawo do selekcji nadesłanych abstraktów. Lista osób zakwalifikowanych zostanie podana najpóźniej 1.04.2020 r.. Opłata konferencyjna wynosi 350 zł dla pracowników naukowych, 300 zł dla uczestników studiów doktoranckich oraz 200 zł dla studentów. Opłata obejmuje materiały konferencyjne, przerwy kawowe oraz opublikowanie wygłoszonego referatów w recenzowanej pracy zbiorowej. Do druku będą skierowane tylko te prace, które uzyskają pozytywną opinię recenzentów i redaktorów.
      Koszty noclegu oraz wyżywienia pozostają we własnym zakresie uczestników. Organizatorzy konferencji mogą pomóc w znalezieniu zakwaterowania.Wszelkie pytania prosimy kierować na adres mailowy melancholia.depresja@wp.pl.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Algorytmy do maszynowego uczenia się pozwoliły specjalistom z MIT zidentyfikować nowe potężne antybiotyki. Podczas testów laboratoryjnych nowe związki zabiły jedne z najtrudniejszych w zwalczaniu bakterii chorobotwórczych, w tym szczepy oporne na działanie wszystkich znanych antybiotyków. Jakby tego było mało, umożliwiły one zwalczenie infekcji w dwóch różnych mysich modelach chorób.
      Naukowcy wykorzystali model komputerowy, który pozwala na przeanalizowanie w ciągu zaledwie kilku dni działania setek milionów związków chemicznych. Taka analiza pozwala na wybór do dalszych badań najbardziej obiecujących środków. Uczeni szukają związków, które zabijają bakterie w inny sposób, niż obecnie znane antybiotyki.
      Chcieliśmy stworzyć platformę, która pozwoliłaby nam na wykorzystanie sztucznej inteligencji do zapoczątkowania nowej epoki w odkrywaniu antybiotyków. Dzięki takiemu podejściu natrafiliśmy na zadziwiającą molekułę, która jest jednym z najpotężniejszych znanych antybiotyków, mówi profesor James Collins z MIT.
      Przy okazji zidentyfikowano wiele innych obiecujących kandydatów na antybiotyki. Substancje te dopiero będą testowane. Uczeni uważają, że ich model można wykorzystać również do projektowania nowych leków.
      Model maszynowego uczenia się pozwala nam masowo badać związki chemiczne. Przeprowadzenie takich badań w laboratorium byłoby niemożliwe ze względu na koszty, dodaje Regina Barzilay z Computer Science and Artificial Intelligencje Laboratory (CSAIL) na MIT.
      Przez ostatnich kilkadziesiąt lat wynaleziono niewiele nowych antybiotyków, a większość z tych nowych to lekko istniejące wersje wcześniej istniejących. Obecnie wykorzystywane metody badania związków chemicznych pod kątem ich przydatności do produkcji antybiotyków są niezwykle kosztowne, wymagają dużo czasu i zwykle pozwalają zbadać wąską grupę mało zróżnicowanych środków.
      Stoimy w obliczu rosnącej antybiotykooporności. Z jednej strony problem ten spowodowany jest coraz większą liczbą antybiotykoopornych patogenów, a z drugiej – powolnym postępem na tym polu, mówi Collins. Coraz częściej pojawiają się głosy, że ludzie mogą zacząć umierać na choroby zakaźne, na które nie umierali od dziesięcioleci. Dlatego też niezwykle pilnym zadaniem jest znalezienie nowych antybiotyków. Niedawno informowaliśmy o odkryciu antybiotyków, które zabijają bakterie w niespotykany dotąd sposób.
      Pomysł wykorzystania komputerów do identyfikowania potencjalnych antybiotyków nie jest nowy, dotychczas jednak obliczenia takie były albo niezwykle czasochłonne, albo niedokładne. Nowe sieci neuronowe znacznie skracają czas obliczeń.
      Naukowcy z MIT dostosowali swój model obliczeniowy tak, by poszukiwał związków chemicznych mogących być zabójczymi dla E. coli. Swój model trenowali na około 2500 molekuł, w tym na około 1700 lekach zatwierdzonych przez FDA i około 800 naturalnych produktach o zróżnicowanych strukturach i działaniu.
      Po zakończonym treningu sieć neuronowa została przetestowana na należącej do Broad Institute bazie Drug Repository Hub, która zawiera około 6000 związków. Algorytm znalazł tam molekułę, która miała strukturę inną od wszystkich istniejących antybiotyków i o której sądził, że będzie wykazywała silne działanie antybakteryjne. Naukowcy najpierw poddali tę molekułę badaniom za pomocą innego modelu maszynowego i stwierdzili, że prawdopodobnie jest ona mało toksyczna dla ludzi.
      Halicyna, bo tak nazwano tę molekułę, była w przeszłości badana pod kątem jej przydatności w leczeniu cukrzycy. Teraz naukowcy przetestowali ją na dziesiątkach szczepów bakterii pobranych od ludzi. Okazało się, że zabija ona wiele antybiotykoopornych patogenów, w tym Clostridium difficile, Acinetobacter bumannii czy Mycobacterium turebculosis. Jedynym patogenem, który oparł się jej działaniu była Pseudomonas aeruginosa, powodująca trudne w leczeniu choroby płuc.
      Po pomyślnych testach in vitro rozpoczęto badania na zwierzętach. Halicynę użyto do leczenia myszy zarażonej wcześniej opornym na działanie wszystkich znanych antybiotyków szczepem A. baumannii. Halicyna w ciągu 24 godzin zwalczyła infekcję u zwierząt.
      Wstępne badania sugerują, że nowy antybiotyk działa poprzez zaburzanie u bakterii możliwości utrzymania gradientu elektrochemicznego w błonie komórkowej. Gradient ten jest niezbędny m.in. do wytwarzania molekuły ATP, niezbędnego nośnika energii. Bakterie pozbawione ATP giną. Naukowcy uważają, że bakteriom będzie bardzo trudno nabyć oporność na taki sposób działania antybiotyku.
      Podczas obecnych badań uczeni stwierdzili, że w ciągu 30 dni leczenia u E. coli w ogóle nie rozwinęła się oporność na halicynę. Tymczasem np. oporność na cyprofloksacynę zaczyna się u E. coli rozwijać w ciągu 1-3 dni od podania, a po 30 dniach bakteria jest 200-krotnie bardziej oporn działanie tego środka.
      Po zidentyfikowaniu halicyny naukowcy wykorzystali swój model do przeanalizowania ponad 100 milionów molekuł wybranych z bazy ZINC15, w której znajduje się około 1,5 miliarda molekuł. Analiza trwała trzy doby, a sztuczna inteligencja znalazła 23 molekuły, które są niepodobne do żadnego istniejącego antybiotyku i nie powinny być toksyczne dla ludzi. Podczas testów in vitro stwierdzono, że 8 z tych molekuł wykazuje właściwości antybakteryjne, z czego 2 są szczególnie silne. Uczeni planują dalsze badania tych molekuł oraz analizę pozostałych związków z ZINC15.
      Naukowcy planują dalsze udoskonalanie swojego modelu. Chcą np. by poszukiwał on związków zdolnych do zabicia konkretnego gatunku bakterii, a oszczędzenia bakterii korzystnych dla ludzi.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa.
      Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley.
      Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością.
      Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej.
      Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych.
      Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna.
      Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów.
      Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań.
      Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo.
      Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W ostatni piątek w Instytucie Fizyki PAN zakończyła się konferencja „INNO THINKING, Nauka dla Społeczeństwa 2.0”. Zaprezentowane na niej trzy projekty badawcze mogą zrewolucjonizować medycynę i ochronę środowiska.
      Sztuczna inteligencja w diagnostyce ścięgna Achillesa
      Urazy ścięgna Achillesa należą do najczęstszych urazów ortopedycznych. Samych tylko zerwań ścięgna notuje się około 200 rocznie na 1 mln ludności w USA i Europie. Rosnąca podaż wykonywanych badań stanowi ogromne wyzwanie dla zmniejszających się zastępów lekarzy radiologów. Już dziś zdarza się, że dostępność zaawansowanych aparatów diagnostycznych jest dość powszechna, ale czas oczekiwania na opisy wykonanych badań znacznie się wydłuża.
      Diagnostyka oparta na obrazowaniu medycznym otwiera nowe możliwości w zakresie leczenia oraz doboru optymalnych metod rehabilitacji pourazowej lub pooperacyjnej – przekonuje Bartosz Borucki, Kierownik laboratorium R&D na Uniwersytecie Warszawskim. Już dziś stworzyliśmy rozwiązanie do oceny ścięgna Achillesa, które wprowadza automatyzację, umożliwiającą tworzenie obiektywnych ocen radiologicznych w oparciu o wykorzystanie sztucznej inteligencji. To pierwsze tego typu rozwiązanie na świecie. Jesteśmy przekonani, że nasz projekt wyznaczy nowe kierunki rozwoju diagnostyki obrazowej w ortopedii i medycynie sportowej, i usprawni czas oraz skuteczność stawianych diagnoz – dodaje.
      Projekt objęty jest obecnie pracami przedwdrożeniowymi, które uwzględniają m.in. usługi badawcze związane z poszerzoną walidacją i analizą dot. certyfikacji i legislacji. Status ten jest doskonałym przykładem komercjalizacji badań naukowych, realizowanych przez polskie instytucje badawczo-naukowe i ma szansę już w nieodległej przyszłości na dobre wpisać się w proces diagnostyki urazów ścięgna Achillesa, a także innych urazów – jak na przykład więzadeł w kolanie.
      Osteoporoza na trzecim miejscu śmiertelnych chorób cywilizacyjnych
      Szczególnym wyzwaniem, wobec którego stanie ludzkość w nadchodzących dekadach, będzie znalezienie skutecznego arsenału rozwiązań do walki z mutującymi wirusami i superbakteriami. Dane Światowej Organizacji Zdrowia (WHO) są zatrważające. Obecnie już 2 mln ludzi umiera rocznie w wyniku zakażeń lekoopornymi bakteriami. Według prognoz w 2050 roku, liczba ta zwiększy się dziesięciokrotnie. Naukowcy zgodni są wobec faktu, że możliwości znanych nam antybiotyków wyczerpują się. Powstawanie nowych bakterii, na które medycyna nie zna lekarstwa, wymusza poszukiwanie alternatywnych rozwiązań.
      W Instytucie Fizyki PAN od wielu lat prowadzone są badania związane z wykorzystaniem tlenków metali o właściwościach antybakteryjnych. Dotychczasowe kierunki badań zostały rozwinięte, obejmując swoim zastosowaniem sektor medycyny implantacyjnej. Udało się bowiem dowieźć, że technologia pokrywania implantów warstwami tlenków metali wpływa na przyspieszenie regeneracji kości i tkanek.
      Wyniki naszych badań to nadzieja dla wszystkich pacjentów, którzy zmagają się z problemami osteointegracji. Nasze badania dają nadzieję na wyeliminowanie  poimplantacyjnych stanów zapalnych, infekcji bakteryjnych, metalozy czy reakcji alergicznych – mówi Aleksandra Seweryn z IF PAN. Jesteśmy przekonani, że zastosowanie naszej technologii bezpośrednio przełoży się na minimalizację ryzyk wynikających z leczenia implantacyjnego, zarówno u pacjentów cierpiących na osteoporozę, jak również przy zabiegach dentystycznych.
      Potrzebujemy coraz więcej energii
      Model życia ludzkości i rozwój technologiczny wymusza coraz większe zapotrzebowanie na energię elektryczną. Szacuje się, że do 2050 roku podwoimy jej wykorzystanie – z 15 TW do ok. 30 TW. Wykorzystywane dziś źródła energii, wciąż w dużej mierze uzależnione od paliw kopalnych, z pewnością okażą się niewystarczające w dłuższej perspektywie czasowej.
      Zbyt niska produkcja prądu będzie hamowała rozwój ludzkości. Do tego czasu zmagać się będziemy ze zjawiskiem globalnego ocieplenia i jego, już dziś zauważalnymi, katastrofalnymi efektami. Utrzymanie obecnego stanu rzeczy skutkować będzie do 2050 roku podniesieniem poziomu mórz i oceanów o 4 m, przesunięciem stepów i pustyń o 600 km na północ, wielkimi ruchami migracyjnymi ludzkości, kataklizmami, które wpłyną również na wyginięcie milionów gatunków zwierząt i roślin.
      Instytut Fizyki PAN realizuje zaawansowane badania związane z fotowoltaiką. Wierzymy bowiem, że energia słoneczna jest naturalnym, bezpiecznym i w zasadzie nieograniczonym źródłem energii. W ciągu 40 lat koszt paneli słonecznych zmniejszył się stukrotnie, znacząco zwiększając dostępność tego typu rozwiązań dla przeciętnych gospodarstw domowych, twierdzi Monika Ożga, naukowiec IF PAN.
      Opracowane przez Instytut rozwiązania można z powodzeniem stosować w produkcji diod oświetleniowych i energooszczędnych okien, które redukują przyjmowanie i oddawanie ciepła, a co za tym idzie, zmniejszają ilość energii potrzebnej do ogrzania lub ochłodzenia pomieszczeń. Diody mogą się ponadto przyczynić nie tylko do ograniczenie popytu na energię, ale i znaleźć swoje zastosowanie w technologii budowania farm wertykalnych, które coraz częściej są wskazywane jako metoda walki z deficytem żywności na świecie.
      Według wstępnych szacunków, zastosowanie nowej kategorii diod może przynieść Polsce oszczędności rzędu 1-1,5 mld złotych, a poprzez redukcję wykorzystania prądu, przyczynić do zmniejszenia emisji CO2 i innych trujących gazów, powstałych wskutek spalania węgla.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Opracowanie planu radioterapii to skomplikowane zadanie, dlatego też nawet pacjenci, którzy potrzebują natychmiastowego wdrożenia leczenia muszą zwykle czekać kilka dni lub dłużej, aż lekarze opracują plan. Okazuje się jednak, że z pomocą może tutaj przyjść sztuczna inteligencja, która odpowiedni plan może przygotować w ułamku sekundy.
      Niektórzy z takich pacjentów wymagają natychmiastowej radioterapii, ale lekarze odsyłają ich do domu i każą czekać. Opracowanie w czasie rzeczywistym planu leczenia jest bardzo ważne. To część naszego projektu, w ramach którego chcemy zaprząc SI do poprawy wszelkich aspektów walki z nowotworami, mówi doktor Steve Jiang, który kieruje Laboratorium Medycznej Sztucznej Inteligencji i Automatyzacji na UT Soutwestern Medical Center.
      Radioterapia to często stosowana metoda walki z nowotworami. Badania pokazują, że w przypadku niektórych nowotworów odroczenie radioterapii o zaledwie tydzień zwiększa ryzyko nawrotu lub rozprzestrzenienia się choroby nawet o 14%. To właśnie takie dane stały się przyczyną, dla której zespół Jianga postanowił wykorzystać SI to pomocy w zaplanowaniu radioterapii. Od rozpoczęcia leczenia po przeliczenie dawek w miarę postępów leczenia.
      Testy przeprowadzone za pomocą specjalnie opracowanego algorytmu wykazały, że jest on w stanie opracować optymalny plan leczenia zaledwie w ciągu 5/100 sekundy od momentu otrzymania danych dotyczących pacjenta.
      Nowo opracowany algorytm korzystał z technik głębokiego uczenia się. Szkolono go na przykładzie 70 osób cierpiących na nowotwór prostaty, a przy uczeniu wykorzystano 4 algorytmy głębokiego uczenia się. Z czasem sztuczna inteligencja nauczyła się opracowywania optymalnego planu leczenia. Okazało się, że w przypadku każdego z tych pacjentów jest on taki sam, jak ten opracowany przez lekarzy.
      To jednak nie wszystko. Algorytm był też w stanie przed każdą kolejną sesją radioterapii błyskawicznie obliczyć prawidłowe dawki promieniowania. Zwykle pacjenci przed każdą sesją przechodzą badanie, na podstawie którego obliczane są dawki.
      Nowy algorytm korzysta z dwóch standardowych modeli obliczania dawki. Jednego szybkiego, który jednak jest mniej precyzyjny, i drugiego bardzo precyzyjnego, który jednak wymaga półgodzinnych obliczeń. SI, porównując na przykładzie wspomnianych 70 pacjentów wyniki obu modeli, nauczyła się, jak wykorzystać szybkość jednego i precyzję drugiego, by w czasie krótszym od sekundy uzyskać precyzyjne wyniki.
      Naukowcy z UT Southwestern Medical Center mają teraz zamiar wykorzystać swój algorytm w codziennej praktyce klinicznej.

      « powrót do artykułu
×
×
  • Create New...