Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Jak sztuczna inteligencja pomoże w zapobieganiu przedwczesnym porodom?

Rekomendowane odpowiedzi

Wg raportu Światowej Organizacji Zdrowia (WHO) spontaniczny przedwczesny poród dotyczy 15 milionów noworodków rocznie. Aż milion z nich umiera. Wiele przez całe życie mierzy się z niepełnosprawnością.

Wykorzystywana powszechnie manualna analiza obrazów ultrasonograficznych umożliwia wykrycie ewentualnych problemów, ale nie jest to metoda doskonała.

Problem ten dostrzegają lekarze. W 2017 roku Nicole Sochacki-Wójcicka (w trakcie specjalizacji z ginekologii) oraz Jakub Wójcicki zgłosili się do dr. Tomasza Trzcińskiego z Wydziału Elektroniki i Technik Informacyjnych PW z pytaniem, czy jest możliwość zrealizowania projektu predykcji spontanicznego przedwczesnego porodu z wykorzystaniem sieci neuronowych.

Wtedy powstał zespół badawczy i zaczęły się prace. Pierwsze efekty już znamy.

Nasze rozwiązanie może wspomóc diagnostykę komputerową i pozwolić z większą dokładnością przewidywać spontaniczne przedwczesne porody – wyjaśnia Szymon Płotka, absolwent Politechniki Warszawskiej i jeden z członków zespołu pracującego nad projektem.

Wytrenować sieć neuronową

Przed rozpoczęciem projektu, współpracujący z nami lekarze przygotowali zestaw danych uczących, walidacyjnych oraz adnotacji w formie obrysu kształtu szyjek macicy na obrazach ultrasonograficznych oraz numerycznych (0 i 1), odpowiadającymi kolejno: poród w terminie, poród przedwczesny – wyjaśnia Szymon Płotka.

Po wstępnym oczyszczeniu takie dane są wykorzystywane jako dane „uczące” sieć neuronową – w tym przypadku konwolucyjną (splotową).

Analizuje ona każde zdjęcie piksel po pikselu, wyodrębniając z nich niezbędne cechy, które posłużą do zadania segmentacji interesującego nas fragmentu obrazu (w tym przypadku szyjki macicy) oraz klasyfikacji (czy mamy do czynienia z porodem przedwczesnym, czy nie) – tłumaczy dalej Szymon Płotka.W trakcie treningu sieć neuronowa testuje swoje predykcje na zbiorze walidacyjnym. Po zakończeniu trenowania sieci neuronowej, jest ona sprawdzana na danych testowych, które nie zostały wykorzystane w ramach treningu. W ten sposób weryfikuje się poprawność wytrenowanego modelu.

W ramach projektu powstały dwie publikacje naukowe.

Efektem prac opisanych w „Estimation of preterm birth markers with U-Net segmentation network” (publikacja dostępna tutaj i tutaj) jest m.in. redukcja błędu predykcji spontanicznych przedwczesnych porodów z 30% (manualnie przez lekarzy) do 18% przez sieć neuronową.

W „Spontaneous preterm birth prediction using convolutional neural networks” (szczegóły tutaj i tutaj) naukowcy zaprezentowali poprawę jakości segmentacji w stosunku do pierwszej publikacji i uzyskali lepsze wyniki klasyfikacji.

Zgodnie z naszą najlepszą wiedzą, są to jedyne istniejące prace podejmujące się zadania predykcji spontanicznego przedwczesnego porodu w oparciu o transwaginalne obrazy ultrasonograficzne – mówi Szymon Płotka.

Naukowcy pracują obecnie nad serwisem w formie aplikacji internetowej. Chcą tam udostępnić przygotowane modele sieci neuronowej. Ma to pomóc ginekologom analizować obrazy ultrasonograficzne i tym samym wesprzeć diagnostykę spontanicznego przedwczesnego porodu. A to może uratować życie i zdrowie milionów noworodków.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coraz więcej takich sytuacji:

1.Nie rozumiemy jak coś się dzieje

2. Więc wytrenujmy sieć neuronową

3. Mamy "sukces" bo sieć robi coś lepiej od specjalistów

Tylko ze nawet specjaliści nie potrafią wyciągnąć wniosku z powyższego procesu: nadal nie potrafimy odpowiedzieć na pytanie jakie cechy obrazu sieć neuronów traktuje jako istotne w ocenie przypadku.

To wykorzystanie sieci neuronowych jest dla mnie trochę mało naukowe. Doceniam starania byśmy byli zdrowi ale to nadal kiepskie, że używamy czegoś czego nie potrafimy wyjaśnić.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, idearmo napisał:

Tylko ze nawet specjaliści nie potrafią wyciągnąć wniosku z powyższego procesu: nadal nie potrafimy odpowiedzieć na pytanie jakie cechy obrazu sieć neuronów traktuje jako istotne w ocenie przypadku.

Bo cechy mogą być bardzo subtelne, a komputer ma możliwość przepuszczenia obrazu przez setki filtrów. W przypadku U-net to 96 różnych filtrów wydobywających krawędzie i tekstury (cechy). Komputer się nie męczy i jest cały czas skupiony, błędy rozpoznania wynikają głównie z jakości obrazu i/lub wczesnego etapu problemu.

Nigdy nie bawiłem się U-Netem, ale jestem prawie pewien, że niektóre frameworki pozwalają zaglądnąć do wnętrza wyuczonego modelu i wskazania  które filtry są najistotniejsze. Tylko taka wiedza lekarzowi na nic, powiedzmy że najważniejszy jest filtr 1, no i co?

image.png.0ec2fd92eb65efc59f0d4a554ab3e930.png

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
59 minut temu, Jajcenty napisał:

Nigdy nie bawiłem się U-Netem, ale jestem prawie pewien, że niektóre frameworki pozwalają zaglądnąć do wnętrza wyuczonego modelu i wskazania  które filtry są najistotniejsze. Tylko taka wiedza lekarzowi na nic, powiedzmy że najważniejszy jest filtr 1, no i co?

No i można by wyciągnąć jakieś wnioski na przyszłość ("że kształt szyjki macicy w tym i tym miejscu..." lub coś podobnego) i pójść z tą wiedzą do przodu i na tej bazie dokonywać kolejnych odkryć. A tak mamy magiczne pudełko o którym za wiele nie wiemy, poza tym że się nie męczy i jest skuteczniejsze od lekarzy w kilku analizach, ale wyciągnięta wiedza wygląda na "ostateczną": sieć neuronowa tak zadecydowała, no i co jej zrobisz? Przyjmiesz jako prawdę objawioną? W jaki sposób poza badaniem skuteczności można podważyć jej działanie? To mi przypomina konia, który podobno dobrze liczył, a potem się okazało, że po prostu obserwował zachowanie obserwatorów i na tej podstawie osiągał korzyści (smakołyki). Może też powinniśmy nie zatrzymywać się na "ta sieć neuronowa jest lepsza od lekarzy" bo dla mnie to jest zadanie bardziej dla operatorów odpowiednich programów a nie dla naukowców, tylko powinniśmy zgłębiać dalej ten temat zadając pytania w stylu "dlaczego sieć neuronowa dokonała takiej a nie innej decyzji", albo "co zadecydowało o kwalifikacji danego obrazu do tej kategorii".

Z tego powodu dokonania typu "zaprogramowaliśmy sieć neuronową i jesteśmy lepsi od człowieka" jest i owszem, dokonaniem, ale dla mnie mało naukowym, a raczej technicznym. Z tego powodu prędzej widziałbym taki artykuł nie w Kopalni wiedzy ale na portalach IT oraz medycznych. Po prostu zrzędzę, że mało tej nauki w tym odkryciu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, idearmo napisał:

No i można by wyciągnąć jakieś wnioski na przyszłość ("że kształt szyjki macicy w tym i tym miejscu..." lub coś podobnego) i pójść z tą wiedzą do przodu i na tej bazie dokonywać kolejnych odkryć. 

To jest robione w procesie douczania. Lekarz może douczyć sieć, czy sieć może douczyć lekarza? Bardzo wątpię. Może na etapie studiów do weryfikacji umiejętności studenta.

14 minut temu, idearmo napisał:

tylko powinniśmy zgłębiać dalej ten temat zadając pytania w stylu "dlaczego sieć neuronowa dokonała takiej a nie innej decyzji", albo "co zadecydowało o kwalifikacji danego obrazu do tej kategorii"

Ależ my to wiemy. Przecież uczymy: jak tu jest białe a obok czarne to rak. Im więcej czarnego tym więcej rak. Sieć jedynie kondensuje te wiedzę lekarzy do macierzy współczynników.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
      Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
      Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
      Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
      System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
      W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
      Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
      Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
      Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
      Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
      Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
      Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...