Jump to content
Forum Kopalni Wiedzy
  • ×   Pasted as rich text.   Paste as plain text instead

      Only 75 emoji are allowed.

    ×   Your link has been automatically embedded.   Display as a link instead

    ×   Your previous content has been restored.   Clear editor

    ×   You cannot paste images directly. Upload or insert images from URL.

  • Similar Content

    • By KopalniaWiedzy.pl
      Marcin Sieniek, Scott Mayer McKinney, Shravya Shetty i inni badacze z Google Health opublikowali na łamach Nature artykuł, w którym dowodzą, że opracowany przez nich algorytm sztucznej inteligencji lepiej wykrywa raka piersi niż lekarze.
      Nowotwory piersi, pomimo szeroko zakrojonych programów badań, wciąż pozostają drugą głównych przyczyn zgonów na nowotwory wśród kobiet. Każdego roku na całym świecie wykonuje się dziesiątki milionów badań obrazowych, ale problemem wciąż pozostaje zbyt wysoki odsetek diagnoz fałszywych pozytywnych i fałszywych negatywnych. To z jednej strony naraża zdrowe osoby na stres i szkodliwe leczenie, a z drugiej – w przypadku osób chorych – opóźnia podjęcie leczenia, co często niesie ze sobą tragiczne skutki.
      Umiejętności lekarzy w zakresie interpretacji badań obrazowych znacznie się od siebie różnią i nawet w wiodących ośrodkach medycznych istnieje spore pole do poprawy. Z problemem tym mogłyby poradzić sobie algorytmy sztucznej inteligencji, które już wcześniej wielokrotnie wykazywały swoją przewagę nad lekarzami.
      Wspomniany algorytm wykorzystuje techniki głębokiego uczenia się. Najpierw go trenowano, a następnie poddano testom na nowym zestawie danych, których nie wykorzystywano podczas treningu.
      W testach wykorzystano dane dotyczące dwóch grup pacjentek. Jedna z nich to mieszkanki Wielkiej Brytanii, które w latach 2012–2015 poddały się badaniom mammograficznym w jednym z dwóch centrów medycznych. Kobiety co trzy lata przechodziły badania mammograficzne. Do badań wylosowano 10% z nich. Naukowcy mieli więc tutaj do dyspozycji dane o 25 856 pacjentkach. Było wśród nich 785, które poddano biopsji i 414 u których zdiagnozowano nowotwór w ciągu 39 miesięcy od pierwszego badania.
      Drugą grupę stanowiło 3097 Amerykanek będących w latach 2001–2018 pacjentkami jednego z akademickich centrów medycznych. U 1511 z nich wykonano biopsje, a u 686 zdiagnozowano nowotwór w ciągu 27 miesięcy od badania.
      Losy wszystkich kobiet były śledzone przez wiele lat, zatem wiadomo było, które z pań ostatecznie zachorowały.
      Zadaniem sztucznej inteligencji było postawienie diagnoz na podstawie mammografii. Następnie wyniki uzyskane przez SI porównano z diagnozami lekarskimi. Okazało się, że sztuczna inteligencja radziła sobie znacznie lepiej. Liczba fałszywych pozytywnych diagnoz postawionych przez SI była o 5,7% niższa dla pacjentek z USA i o 1,2% niższa u pacjentek z Wielkiej Brytanii. SI postawiła też mniej fałszywych negatywnych diagnoz. Dla USA było to 9,4% mniej, a dla Wielkiej Brytanii – 2,7% mniej. Wyniki uzyskane przez sztuczną inteligencję były o tyle bardziej imponujące, że algorytm diagnozował wyłącznie na podstawie badań mammograficznych, podczas gdy lekarze mieli też do dyspozycji historię pacjenta.
      Teraz autorzy algorytmu będą próbowali wykorzystać go podczas badań klinicznych. Ich celem jest spowodowanie, by algorytm sztucznej inteligencji został dopuszczony do użycia w medycynie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Praca w szpitalu wiąże się ze sporym stresem. Gra toczy się o dużą stawkę, bo o czyjeś życie. Wymagania są wysokie, a dość często nikt nie docenia osiąganych rezultatów. By zapobiec wypaleniu zawodowemu u przedstawicieli różnych profesji medycznych, Centrum Zdrowia Cyfrowego Uniwersytetu Pensylwanii zaczęło testy High Five, nawiązującego do mediów społecznościowych systemu przesyłania współpracownikom miłych/humorystycznych memów i GIF-ów.
      Wyniki badania zespołu prof. Kathleen Lee ukazały się w piśmie NEJM Catalyst Innovations in Care Delivery. Okazało się, że system został dobrze przyjęty przez większość pracowników Oddziału Medycyny Ratunkowej Szpitala Uniwersyteckiego, HUP (to tu po raz pierwszy go wdrożono).
      Błędy medyczne mogą skutkować poważnymi konsekwencjami, a do sukcesów nie przywiązuje się często tej samej wagi. Ta nierównowaga jest uznawana za ważny czynnik prowadzący do wypalenia zawodowego - podkreśla prof. Lee.
      Jakiś czas temu troje lekarzy i naukowcy z Centrów Zdrowia Cyfrowego oraz Innowacji w Służbie Zdrowia postanowili popracować nad systemem do szybkiego wysyłania miłych wiadomości. Wg nich, mógł to być sposób na nawiązywanie i podtrzymywanie pozytywnych kontaktów i, co bardzo ważne, przeciwdziałanie wypaleniu zawodowemu.
      Twórcy "Piąteczki" bazowali na tym, co ludzie i tak robią w codziennym życiu - na zachowaniach związanych z korzystaniem z serwisów społecznościowych i wysyłaniem SMS-ów.
      Z systemu da się korzystać na różnych urządzeniach z różnymi systemami operacyjnymi. Do platformy można się dostać za pośrednictwem strony WWW; nie trzeba ściągać żadnej aplikacji. Osobę, do której chce się wysłać wiadomość, wyszukuje się za pomocą nazwiska, zajmowanego stanowiska itp. Użytkownik może wybierać z biblioteki medycznych memów i GIF-ów; ich treść jest humorystyczna albo pozwala złożyć adresatowi gratulacje. Wiadomość można personalizować za pomocą osobistego komentarza. Krótko po wdrożeniu systemu dodano opcję reakcji zwrotnej.
      By ocenić skuteczność High Five, zespół Lee analizował jego wykorzystanie na Oddziale Medycyny Ratunkowej HUP od czasu wdrożenia, czyli sierpnia 2016 r., do czerwca br. Z platformy korzystało 88% (227 na 259) pielęgniarek, rezydentów i lekarzy. Wysłano blisko 2400 wiadomości; każdy użytkownik wysyłał średnio ok. 3 wiadomości rocznie.
      Początkowo wiadomości "przepływały" tylko między dwiema osobami, ale w połowie 2017 r. zaczęto wyświetlać posty w czasie rzeczywistym (na monitorze); wyjątkiem były interakcje, w przypadku których zaznaczono opcję "nie udostępniaj publicznie". Okazało się, że ten prosty zabieg zwiększył średnią liczbę użytkowników z 49 do 81 miesięcznie.
      Choć High Five był pomyślany jako system do wzajemnego doceniania, można go także wykorzystywać jako narzędzie do pomiaru priorytetów i celów organizacyjnych.
      Wdrażanie High Five zaczęto od Oddziału Medycyny Ratunkowej HUP. Obecnie korzystają z niego pracownicy wszystkich 20 katedr Penn Medicine.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Południowokoreański mistrz Go Lee Sedol, który zdobył ogólnoświatowy rozgłos w 2016 roku po słynnym meczu ze sztuczną inteligencją, odszedł na emeryturę. Przypomnijmy, że w 2016 roku sztuczna inteligencja o nazwie AlphaGo pokonała Lee Sedola stosunkiem 4:1. Wcześniej program rozgromił innych graczy w Go, a Sedol był jedynym, któremu udało się z nim wygrać partię.
      Sedol, który wkrótce skończy 37 lat, oświadczył, że rezygnuje z profesjonalnej kariery w Go, gdyż w związku z olbrzymimi postępami sztucznej inteligencji, nie może być czołowym graczem, nawet gdyby był najlepszym z ludzi. "Nawet gdybył był numerem jeden, to będzie ktoś, kogoś nie będę w stanie pokonać", powiedział Sedol w wywiadzie dla agencji prasowej Yonhap.
      Lee Sedol pozostaje jedynym człowiekiem, któremu udało się pokonać AlphaGo. Mistrz uważa, że wygrał dzięki błędowi w oprogramowaniu AlphaGo. Podczas meczu, który odbył się 13 marca 2016 roku grający białymi Lee wykonał nietypowy 78. ruch. Wprawił on AlphaGo w zakłopotanie i system wykonał bardzo słaby ruch 79., który niespodziewanie dał Sedolowi przewagę. Ten jej nie zmarnował i po jakimś czasie AlphaGo poddał partię.
      Specjaliści uznają ruch 78. za „błyskotliwy, boski”, jednak sam Sedol twierdzi, że wygrał partię, gdyż AlphaGo nie potrafił prawidłowo zareagować na jego nietypowe zagrania. Mój ruch 78. nie był zagraniem, na który należało reagować bezpośrednio. Takie błędy zdarzają się w programie Fine Art (to chiński program komputerowy do gry w Go). Fine Art jest trudny do pokonania, nawet jeśli ma handicap 2 kamieni. Jeśli jednak przegrywa, to w bardzo dziwaczny sposób. To błąd w oprogramowaniu, wyjaśnia Sedol.
      Mistrz przyznaje, że był sfrustrowany po pierwszych trzech przegranych partiach. Rzadko czytam w internecie informacje na swój temat. Byłem jednak ciekaw, jak bardzo źle ludzie mówią o mnie po tym, jak przegrałem trzy pierwsze partie. Z zaskoczeniem zauważyłem, że niewiele osób mnie krytykowało. Szczerze mówiąc, już przed rozpoczęciem meczu czułem, że mogę przegrać. Ludzie z DeepMind Technologies byli od samego początku bardzo pewni swego, przyznaje.
      Co ciekawe, jeszcze w grudniu Lee planuje zmierzyć się z kolejnym systemem sztucznej inteligencji grającym w Go. Program HanDol, opracowany w 2018 roku przez firmę NHN Entertainment Corp. już wygrał z 5 czołowymi graczami z Korei Południowej.
      Nadchodzący mecz Lee Sedol rozpocznie z przewagą dwóch kamieni, które zostaną ustawione na planszy przed rozpoczęciem gry. Kolejne handikapy będą ustalane w zależności od wyniku pierwszej partii. Sądzę, że nawet z przewagą dwóch kamieni przegram z HanDolem. Ostatnio nie czytuję informacji ze świata Go. Chcę w spokoju przygotować się go rozgrywki i zrobię co w mojej mocy, stwierdza Sedol.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić.
      Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem.
      W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo.
      DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino.
      Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały.
      Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner.
      DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować.
      CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu.
      Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”.
      Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Maryland powstał Geneva (Genetic Evasion), system sztucznej inteligencji, który uczy się omijania cenzury w sieci. Podczas testów w Chinach, Indiach i Kazachstanie Geneva opracował dziesiątki sposobów na ominięci cenzury i dotarł do informacji, których samodzielne odnalezienie było niemożliwe.
      Geneva to pierwszy krok w kierunku rozpoczęcia nowego wyścigu zbrojeń, w którym konkurowały będą systemy sztucznej inteligencji opracowane przez cenzorów i ich przeciwników, mówi profesor Dave Levin, główny autor badań. Zwycięstwo w tym wyścigu będzie oznaczało wolność słowa i swobodną komunikację dla milionów ludzi na całym świecie, którzy obecnie nie mogą z niej korzystać.
      Działanie większości systemów internetowej cenzury opiera się na monitorowaniu pakietów wysyłanych przez wyszukiwarki. Blokowane są pakiety zawierające niewłaściwe słowa lub adresy. Geneva w inny sposób dzieli pakiety, przez co systemy cenzurujące nie są w stanie rozpoznać zakazanych treści. Program jest ewoluującym algorytmem, który w każdej swojej generacji identyfikuje te strategie antycenzorskie, które najlepiej działały, wykorzystuje je do dalszej pracy i przestaje używać tych źle działających.
      Testy Genevy przeprowadzono w Chinach, gdzie użytkownik komputera z zainstalowaną Genevą był w stanie wyszukiwać informacje zawierające zakazane słowa, w Indiach, gdzie władze blokują konkretne witryny i w Kazachstanie, gdzie w czasie testów władze blokowały niektóre serwisy społecznościowe. We wszystkich przypadkach Geneva wygrała z cenzurą.
      Naukowcy z Maryland chcą udostępnić swoje dane i kod źródłowy, by inni mogli z nich korzystać i rozwijać Genevę. Jeśli Genevę możnaby zainstalować po stronie serwera i po stronie klienta, to miliony ludzi zyskałyby dostęp do informacji. W tym właśnie kierunku zmierzamy, mówi Levin.

      « powrót do artykułu
×
×
  • Create New...