Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja rozgromiła pokerzystów

Recommended Posts

Padła kolejna bariera oddzielająca ludzką i sztuczną inteligencję. Program Libratus rozgromił światową czołówkę pokerzystów. W nielimitowanym Texas Hold'em sztuczna inteligencja zdobyła na ludziach 1.766.250 dolarów. Dong Kim przegrał z Libratusem 88.649 USD, Jimmy Chou zubożał o 522.857 dolarów, Jason Les stracił 880.087 USD, a Daniel McAulay musiał zapłacić 277.657 USD.

Turniej Brains vs. Artificial Intelligence trwał od 11 do 30 stycznia i był rozgrywany w godzinach od 11.00 do 19.00. Składał się w sumie ze 120 000 rozdań.

Libratus powstał na Carnegie Mellon University i jest dziełem profesora Tuomasa Sandholma i doktoranta Noama Browna. Podczas uczenia się pokera program nie korzystał z doświadczeń ludzkich graczy. Zaimplementowano mu zasady gry, które miał przeanalizować, a później - na podstawie około 15 milionów godzin obliczeń w Pittsburgh Supercomputing Center - opracowywał własną strategię. Udoskonalał ją też w czasie turnieju. Nie uczyliśmy Libratusa grać w pokera. Daliśmy mu zasady i kazaliśmy się uczyć samemu - mówi Brown. Początkowo rozgrywki były niezwykle chaotyczne, program zgrywał przypadkowe karty. Jednak po bilionach rozdań opracował skuteczną strategię.

Przed wielu laty oprogramowanie komputerowe zadziwiło świat wygrywając w szachy z arcymistrzem. Niedawno rozgromiło też mistrza Go. Zwycięstwo w pokerze pokazuje, że algorytmy sztucznej inteligencji przekroczyły kolejną granicę. Poker znacząco różni się bowiem od szachów czy Go. Gracze nie znają stanu rozgrywki, gdyż nie wiedzą, jakie karty ma przeciwnik. Dochodzi tutaj też element losowy, gdyż to on decyduje, kto jakie karty dostanie oraz element blefu. To tak złożone wyzwanie, że dotychczas badacze zajmujący się SI nie radzili sobie z nim, stwierdza Sandholm. Uczony dodaje, że sam nie był pewien możliwości Liberatusa. Międzynarodowe witryny z zakładami stawiały 4:1 przeciwko naszemu programowi. Okazało się jednak, że wszystko to nie stanowi dla Libratusa większego problemu. Sztuczna inteligencja była w stanie prawidłowo interpretować blef, używany przez ludzkich przeciwników, i... sama blefowała, co zaskoczyło jej twórców. Gdy zobaczyłem, że Liberatus blefuje, zdziwiłem się. nie uczyłem go tego. Nie sądziłem, że jest do tego zdolny. Jestem dumny z faktu, że stworzyłem coś, co potrafi tego dokonać - mówi Brown.

Libratus był znacznie lepszy niż sądziliśmy. To nieco demoralizujące, mówi Jason Les, który przed dwoma laty był grupie graczy, którzy rozgromili SI Claudico. Tutaj codziennie wstawaliśmy i przez 11 godzin na dobę byliśmy ogrywani. To zupełnie inne doświadczenie emocjonalne - dodaje. Gracze mogli też uczyć się od Libratusa, który stosował agresywną strategię, stawiał duże sumy, by wygrać małe kwoty. Ludzie tak normalnie nie grają, ale to wymusza na tobie ciągłą koncentrację uwagi - dodaje Les.

Zastosowane w Libratusie algorytmy nie są wyspecjalizowane w pokerze. A to oznacza, że będzie można zastosować je w wielu dziedzinach, od gier komputerowych, poprzez negocjacje biznesowe, po branże bezpieczeństwa, wojskową czy medyczną - wszędzie tam, gdzie potrzebne jest strategiczne myślenie w oparciu o niepełne informacje. Poker to najmniejsze zmartwienie. Mamy tutaj maszynę, która może skopać ci tyłek w biznesie i zastosowaniach wojskowych. Martwię się, jak ludzkość sobie z tym poradzi - stwierdził profesor Roman V. Yampolskiy z University of Louisville.


« powrót do artykułu

Share this post


Link to post
Share on other sites

dużo liczenia, ale algorytmy chyba proste. ciekawe kiedy, a może już od dawna takie maszynki zarabiają wielką kasę w internetowych kasynach...

Share this post


Link to post
Share on other sites

 

 

dużo liczenia, ale algorytmy chyba proste. ciekawe kiedy, a może już od dawna takie maszynki zarabiają wielką kasę w internetowych kasynach..

No właśnie. Zawsze mi się wydawało, że algorytm będzie lepszy w pokera bo liczy rozkłady nie przejmując się blefami.  

 

 

Mamy tutaj maszynę, która może skopać ci tyłek w biznesie i zastosowaniach wojskowych

O! szykuje się bezrobocie wśród CEO i generałów?  

Share this post


Link to post
Share on other sites

 

 

O! szykuje się bezrobocie wśród CEO i generałów?  

 

Zwłaszcza, że

 

 

 

Sztuczna inteligencja była w stanie prawidłowo interpretować blef, używany przez ludzkich przeciwników, i... sama blefowała, co zaskoczyło jej twórców.
 

Share this post


Link to post
Share on other sites
No właśnie. Zawsze mi się wydawało, że algorytm będzie lepszy w pokera bo liczy rozkłady nie przejmując się blefami.

 

No własnie nie, bo wiedząc, że ktoś gra wg. prawdopodobieństwa (czyli jest de facto pasywny), łatwo go ograć tak podbijać stawkę (czyli np. blefować) , że statystycznie, nie opłaca się do rzucić kasy do puli, aby wartość oczekiwana była na +. 

 

 

 

dużo liczenia, ale algorytmy chyba proste. ciekawe kiedy, a może już od dawna takie maszynki zarabiają wielką kasę w internetowych kasynach...

 

Tak istnieją już takie, dawno, takie jak wyżej napisałem, ale to działa na stołach o niższych stawkach...

 

 

Tutaj kluczem było to, że ludzie nie wykryli poziom agresji przeciwnika, to był nowy poziom agresji, (włąsnie te wysokie stawki aby wygrać mniej), przy większej ilości gier, mogą bo opykać, jak wyczują jego poziom agresji (nie wiemy jaka jest dynamika agresji AI) 

 

[edit]

PS.

Jestem przekonany, że jak by udostępnili api, aby móc z nim grać, możńa napisać "anty AI" które rozpyka go (no włąsnie zależy teraz od dynamiki przystosowaywania się do agresji, bo zależy to od tego ilu i jak bardzo agresywnych/pasywnych jest graczy przy stole)

Edited by Afordancja
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
No właśnie. Zawsze mi się wydawało, że algorytm będzie lepszy w pokera bo liczy rozkłady nie przejmując się blefami.

Jeśli nie jest w stanie zauważyć blefu to raczej ułomność niż plus.

W meczu gra 1 komp i 4 zawodników. Blef dowolnego z nich ma wpływ na grę pozostałych trzech zawodników i ich decyzje niezależnie od samego rozkładu.

Natomiast powtarzałem to w każdym wątku odnośnie SI. W każdym możliwym przypadku musi prędzej czy później wygrać z człowiekiem. Poczynając od mnożenia w pamięci liczb 100 cyfrowych aż do pisania książek. Kolejne tzw. bastiony ludzkości muszą padać.

Bo człowiek to bardzo mocno przestrzennie i czasowo ograniczona maszyna licząca dostosowana do rozwiązania ogólnych problemów.

AI można rozbudowywać dużo mocniej przestrzennie, dużo więcej czasu jej wykorzystać i optymalizować do rozwiązywania konkretnych problemów. Ba, maszyny można łączyć w olbrzymie sieci.

Więc nie ma bata, wygrana AI jest tu kwestią jedynie czasu.

Po załóżmy 100 latach tzw. "ewolucji" kompy już zaczynają wygrywać. Ciekawe co będzie po 200 latach? Człowiek ewoluował (zależy jak liczyć) ale miliony lat.

Edited by thikim

Share this post


Link to post
Share on other sites

no to chyba szykuje się level up!. panem świata już nie bedzię osobnik z największą maczugą :), ani mól książkowy który przeczyta najwięcej ksiąg. a osobnik z najlepszym algorytmem w smartfonie czy innym elektronicznym urządzeniu.

ciekawe czy będą kolejne etapy w tej ewolucji

Share this post


Link to post
Share on other sites

Kolejny etap to połączenie człowieka z elektroniką. Co już  się robi na razie tylko jako wspomaganie zewnętrzne.

Później będzie wbudowanie w człowieka elektroniki (co też się robi ale raczej awaryjnie np. rozruszniki, chipy).

Najpierw będzie to ulepszenie komunikacji, podłączenie do internetu.

Później będzie to rozszerzenie zmysłów czujnikami.

A jeszcze później wspomaganie funkcji poznawczych i analitycznych mózgu.

Jakże olbrzymią przewagę miałby człowiek (chociażby na wszelkiego rodzaju testach) gdyby mógł czerpać informację z netu bez żadnych zewnętrznych urządzeń.

Edited by thikim

Share this post


Link to post
Share on other sites

Jeśli chodzi o pokera (przez internet), sprawa dąży do prostej równowagi, wszyscy będą wyrywać po równo (bo będą używać wszyscy AI), i nie będzie takiej AI która będzie mogła wygrywać bardziej niż inne.

 

Dlaczego?

Dynamika zmian agresji i wykrywania poziomu agresji u przeciwnika, osiągnie pewien limit i różnice między poszczególnymi AI, będzie mniejsza niż opłata pobierana w grze, czyli gra straci sens (oczywiście "kasyna" będą starały się wykrywać jak tylko się da, takie sytuacje, ale wg. mnie są na przegranej pozycji).

 

Ale bez mocnych dowodów, twierdzę, że ta(konkretna) AI, wygrała trochę przypadkiem, bo zaskoczyła ludzi, ale przyjdą inne które będą o wiele mocniejsze od niej i koniec. w tej branży..

Share this post


Link to post
Share on other sites
O! szykuje się bezrobocie wśród CEO i generałów?

Nie szykuje się. Po prostu rola CEO czy generała będzie się kiedyś sprowadzała do wydania komendy: podejmij decyzję. No i pozostaje biurokracja czyli przepisy nakazujące żeby CEO lub generał podpisał się pod dyrektywą albo rozkazem.

 

Jeśli chodzi o pokera (przez internet), sprawa dąży do prostej równowagi, wszyscy będą wyrywać po równo (bo będą używać wszyscy AI), i nie będzie takiej AI która będzie mogła wygrywać bardziej niż inne.

Więc pozostanie element losowy który zdecyduje o wygranej.

 

Ale bez mocnych dowodów, twierdzę, że ta(konkretna) AI, wygrała trochę przypadkiem, bo zaskoczyła ludzi, ale przyjdą inne które będą o wiele mocniejsze od niej i koniec. w tej branży..

Całkiem możliwe. Niemniej AI można doskonalić i to mocno a człowieka już świetnego gracza czego można nauczyć więcej?

Edited by thikim

Share this post


Link to post
Share on other sites
Kolejny etap to połączenie człowieka z elektroniką. Co już  się robi na razie tylko jako wspomaganie zewnętrzne. Później będzie wbudowanie w człowieka elektroniki (co też się robi ale raczej awaryjnie np. rozruszniki, chipy). Najpierw będzie to ulepszenie komunikacji, podłączenie do internetu. Później będzie to rozszerzenie zmysłów czujnikami. A jeszcze później wspomaganie funkcji poznawczych i analitycznych mózgu.

 

tego nie jestem pewien.......

jak naprawiasz stary samochód i dokładasz nowe gadżety po jakimś czasie przychodzi refleksja że to bez sensu i nieekonomicznie reanimować trupa, lepiej kupić nowy model :)

z domami jest podobnie... przychodzi punkt krytyczny za którym remont jest bez sensu, lepszy jest buldożer i postawienie nowego domu.

 

z PCtami jest podobnie, chyba każdy to wie. da się usprawniać, dokładać ramu itd, ale z czasem traci to sens

 

z ludźmi może wyjść podobnie

Edited by tempik

Share this post


Link to post
Share on other sites

 

 

Więc pozostanie element losowy który zdecyduje o wygranej.
 

 

Jeśli mówisz o "generałach" to pewnie z decydują inne czynniki jak przewewaga technologiczna/sprzętowa (nie samo AI)

 

A jeśli mówisz o pokerze, to długodystansowo wygrany jest tylko jeden kasyno :D . A reszta to przegrani, bo jeżeli, wszyscy grają "równo" i nikt nie ma przewagi większej niż prowizja..

 

To tak (pokerową) bitwę wygrasz, raz Ty, raz ja, losowo ale sumarycznie obydwaj jesteśmy na minusie.

Share this post


Link to post
Share on other sites

 

A jeśli mówisz o pokerze, to długodystansowo wygrany jest tylko jeden kasyno :D . A reszta to przegrani, bo jeżeli, wszyscy grają "równo" i nikt nie ma przewagi większej niż prowizja..

Pisałem o pokerze. Ale jeśli tak chcesz to muszę napisać że wygranym jest państwo które ma zawsze podatki, zarówno krótko jak i długodystansowo - nie inwestując nawet złamanego grosza :P A kasyno może zbankrutować.

Edited by thikim

Share this post


Link to post
Share on other sites
Pisałem o pokerze. Ale jeśli tak chcesz to muszę napisać że wygranym jest państwo które ma zawsze podatki, zarówno krótko jak i długodystansowo - nie inwestując nawet złamanego grosza

 

A no tak, ale to tak jak by trochę inny temat.

Ja patrzę (w tym momencie) na pokera, graczy i AI. I twierdzę, że w pokera AI ma pewien limit którego się nie da przeskoczyć, a człowiek nie może tego limitu chyba osiągnąć, dlaczego? a no z tego samego powodu, z jakiego nie potrafi wygenerować losowych zdarzeń.(tak wiem, maszyna też, ale są to różne poziomy losowości)

 

W sumie dało mi to pewne natchnienie jesli chodzi o pokera, ludzi  i AI :D (termin marzec ;)

Edited by Afordancja

Share this post


Link to post
Share on other sites

Problemem globalnym nie jest pokonanie człowieka przez AI. Niebezpieczeństwo pojawia się w chwili gdy możliwe jest dokonanie ataku na całą cywilizację. Wraz z rozwojem techniki i AI takich możliwości przybywa coraz więcej. Problemem jest to że zapotrzebowanie na ochronę przed potencjalnymi zagrożeniami rośnie wykładniczo w stosunku do liniowego wzrostu ilości zagrożeń. Oznacza to że nieuchronnie  zbliża się moment w którym cały potencjał ludzkiej techniki nie będzie miał już możliwości ochrony przed wszystkimi możliwymi zagrożeniami. Wtedy gdy ktoś wykryje lukę i ją wykorzysta nastąpi kolaps cywilizacji. Czy to będzie działanie chemiczne, elektromagnetyczne czy AI - nie ma znaczenia.

Wg mnie taki stan rozwoju cywilizacji jest absolutnie nieuchronny dla każdej rozwijającej się cywilizacji w Kosmosie - i prawdopodobnie to jest przyczyną dla której nie jesteśmy w stanie zaobserwować żadnej z nich - bo każda która rozwinęła się nieco bardziej od nas po prostu samounicestwiła się lub przynajmniej doprowadziła do stanu kamienia łupanego.

Edited by Ergo Sum

Share this post


Link to post
Share on other sites

 

 

Ale jeśli tak chcesz to muszę napisać że wygranym jest państwo

Czyli pani wygrywa, pan wygrywa, społeczeństwo... 

Share this post


Link to post
Share on other sites

Nie wiem skąd to utożsamienie państwa ze społeczeństwem? Albo z Panią czy Panem :)

 

 

Oznacza to że nieuchronnie zbliża się moment w którym cały potencjał ludzkiej techniki nie będzie miał już możliwości ochrony przed wszystkimi możliwymi zagrożeniami

Ergo :) Dziś też potencjał ludzkości nie może uchronić nas przed wszystkimi możliwymi zagrożeniami. Nigdy nie mógł. I nigdy nie będzie mógł.


 

 

bo każda która rozwinęła się nieco bardziej od nas po prostu samounicestwiła się

A te które się nie rozwinęły tak jak my ;) zostały unicestwione przez: wulkany, mrozy, inne cywilizacje :) itd.
Zawsze jest dobry moment na unicestwienie :)


 

 

A no tak, ale to tak jak by trochę inny temat.

Tak. Wygrana kasyna była już OT :) dlatego napisałem że jeśli chcesz tak pisać to ...

Share this post


Link to post
Share on other sites

 

 

Tak. Wygrana kasyna była już OT dlatego napisałem że jeśli chcesz tak pisać to ...

 

A w ten sposób, to nie wyłapałem niuansu :D.

Dla mnie prowizja kasyna jest dość istotnym czynnikiem, bo o co najmniej tyle musisz mieć przewagę nad resztą, i stąd moje twierdzenie, że potem żadna AI nie będzie lepsza od innych powyżej tej wartości. 

Share this post


Link to post
Share on other sites

Zagrożenia wzrastają, bo potęga środków też wzrasta. Kiedyś maczuga w nieodpowiedzialnych rękach mogła skutkować max. Kilkudziesięcioma rozbitymi czaszkami. Obecnie guzik atomowy w posiadaniu jednej osoby może narobić dużo większego bałaganu. Przeciętna aplikacja społecznościowa może zawładnąć umysłami większości nastolatków i kształtować ich zachowanie, przykłady można mnożyć.

Share this post


Link to post
Share on other sites

Zawsze śmieszą mnie nagłówki w stylu "sztuczna inteligencja zrobiła cośtam"

To na razie nie jest sztuczna inteligencja, ale dobrze zoptymalizowany algorytm. Przecież nie da sie przerwać gry i porozmawiać z tym algorytmem, lub pożartować, ani też nie przestawimy się na partyjkę szachów, bo tak chcemy.

Uważam że inteligencja będzie wtedy, gdy taki algorytm będzie równie wielozadaniowy co umysł człowieka. Inaczej będzie to zwykły wirtualny automat. Gdyby wszystko tak traktować, to mielibyśmy takie nagłówki: "sztuczna inteligencja maszyny na linii produkcyjnej zakręca 1000 butelek na sekundę, podczas gdy człowiek zakręca 3"

Połączenie człowieka z elektroniką już jest (nawet teraz piszę z elektroniki przy pomocy rąk ;)) i jakoś nie ulepszyło to świata.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Gdy sztuczna inteligencja dojdzie do poziomu, który stanie się niebezpieczny dla ludzi, wtedy ludzkość, w szczególności takie kraje zjednoczone jak USA i UE, stworzą kolejne ZAKAZY tworzenia i używania tak wysokiej AI. To będzie tak jak z bronią: każdy może stworzyć siekierę, może nawet ją kupić w sklepie, ale nie może nią atakować ludzi. Podobnie z bronią palną, ale już kupić czy zrobić nie zawsze ją łatwo. Tworzenie ładunków wybuchowych już w ogóle jest prawie zakazane. Im bardziej zaawansowana, czyli potężniejsza broń, tym większe zakazy i dokładnie na tej samej analogii będzie się działo z AI - jeżeli będzie w stanie wyrządzić realne szkody. Tak więc będzie zakazane tworzenie AI, która będzie agresywna w stosunku do człowieka.

Jeżeli chodzi o sferę ekonomiczną, czyli niby problem bezrobocia, to ludzie, którzy tak bardzo się tego boją, nie mają zbyt wysokiej wiedzy ekonomicznej: postęp techniczny ma służyć człowiekowi, ma zwiększać poziom oszczędności czasu, a co za tym idzie dochodów, a więc napędzać gospodarkę. Zatem jeżeli maszyna sama będzie sprzątać, to oczywiście każdy racjonalny przedsiębiorca będzie inwestował w takie maszyny, które szybko zwrócą koszty, Sprzątaczki stracą pracę, co nie oznacza automatycznie, że będą bezrobotne, ponieważ postęp techniczny samoczynnie zwiększa poziom dochodów, kapitału, więc przedsiębiorcy będą mieć więcej pieniędzy, a więc będą płacić więcej podatków. Stąd państwo będzie miało więcej pieniędzy, aby utrzymać te sprzątaczki, oczywiście przy założeniu że te sprzątaczki nie będą w stanie nigdzie pracować i będą traktowane tak jak dziś osoby niepełnosprawne umysłowo, które muszą przebywac w specjalnych ośrodkach. Takie sprzątaczki będą przebywać w tych "ośrodkach", które będą się nazywały mieszkaniami, bo każda będzie miała swój własny ośrodek. Tak więc postęp techniczny będzie powodował to, że ludzie będą pracować coraz mniej, będą więcej wypoczywać, a zastępować będą ich roboty.

 

Jeżeli chodzi o dzisiejszy artykuł, to myślę, że warto byłoby zaimplementować takie roboty do polityki: powinniśmy pozbyć się polityków-ludzi i zastąpić ich politykami-robotami. To samo z sędziami. Po pierwsze takie roboty będą zawsze maksymalnie obiektywne, po drugie maksymalnie wydajne, po trzecie redukują koszty społeczne, jak strajki, protesty i demontracje, po czwarte zaoszczędzałyby olbrzymie ilości pieniędzy i czasu - już nawet nie wspomnę o tym, że dziś jest kontrola sądów przez wyższe instancje, każdy może się odwoływać, składać apelacje itp. a gdy roboty przejmą sądy, to nikt nie będzie się odwoływał, bo maksymalnie obiektywny wyrok już zapadł. Roboty-politycy z kolei wydawaliby uchwały i ustawy na podstawie nie własnych ideologii, ale całej zgromadzonej wiedzy ekonomiczno-socjologiczno-prawnej. Ktoś kto mówi, że kryteria ekonomiczne nie mogą być obiektywne, że zawsze są subiektywne, nie wie o czym mówi, obecnie nawet najwyższe autorytety w zakresie ekonomii mają co najwyżej ułamek procenta teorii, jaka się rozwinęła na przestrzeni lat. Różnica jest tylko taka, że oni zdają sobie z tego sprawę. I oczywiście tak jak napisałem wyżej, sędziowie i politycy nie bedą potrzebni, ale nie będą bezrobotni; jeżeli do niczego innego się nie nadają, to po prostu będą żyć sobie bez pracy, choć wielu osobom wydaje się to czystą fantasmagorią.

Edited by mankomaniak

Share this post


Link to post
Share on other sites

 

 

Przecież nie da sie przerwać gry i porozmawiać z tym algorytmem, lub pożartować, ani też nie przestawimy się na partyjkę szachów, bo tak chcemy.

 

Mnie z kolei trochę śmieszą takie teksty jak powyższy.

Bo to oczywiście kwestia przyjętych definicji.

 

Patrząć np. tutaj

https://pl.wikipedia.org/wiki/Sztuczna_inteligencja 

 

Sztuczna inteligencja to nie tylko jest to coś z czym można sobie pożartować itd.

 

Więc kto co woli..oczywiście, że takie tytuły się lepiej sprzedają

 

 

 

 

i jakoś nie ulepszyło to świata.

 

No jak dla mnie, e-mail vs, klasyczny mail, wiele ulepszył świat, ale znów kto co woli. 

Share this post


Link to post
Share on other sites

 

 

O! szykuje się bezrobocie wśród CEO i generałów?

Cóż, powiedzmy sobie skrótowo i obrazowo: takiego Tima Cooka pewnie względnie łatwo byłoby zastąpić jakąś AI. A Steve'a Jobsa już dużo trudniej ;) Co zresztą widać po kursie akcji Apple'a ;)

Share this post


Link to post
Share on other sites

Myślę, że najłatwiej byłoby zastąpić polityków.

Na początek dać im komputer, który będzie za nich produkował ustawy i reformy, a politykom jeszcze pozwolić na pozory sprawowania nad tym kontroli. Potem stopniowo redukowałoby się ilość polityków. Pewnie docelowo zostałby prezydent, premier, kilku ministrów, bo ktoś musi się zajmować kontaktem z bardziej analogowymi krajami.

Share this post


Link to post
Share on other sites

Można by temat pociągnąć, ale...w innym wątku padła reprymenda:

Czy wy musicie wpierdzielić politykę nawet do tematu o muzyce? Serio?

;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Marcin Sieniek, Scott Mayer McKinney, Shravya Shetty i inni badacze z Google Health opublikowali na łamach Nature artykuł, w którym dowodzą, że opracowany przez nich algorytm sztucznej inteligencji lepiej wykrywa raka piersi niż lekarze.
      Nowotwory piersi, pomimo szeroko zakrojonych programów badań, wciąż pozostają drugą głównych przyczyn zgonów na nowotwory wśród kobiet. Każdego roku na całym świecie wykonuje się dziesiątki milionów badań obrazowych, ale problemem wciąż pozostaje zbyt wysoki odsetek diagnoz fałszywych pozytywnych i fałszywych negatywnych. To z jednej strony naraża zdrowe osoby na stres i szkodliwe leczenie, a z drugiej – w przypadku osób chorych – opóźnia podjęcie leczenia, co często niesie ze sobą tragiczne skutki.
      Umiejętności lekarzy w zakresie interpretacji badań obrazowych znacznie się od siebie różnią i nawet w wiodących ośrodkach medycznych istnieje spore pole do poprawy. Z problemem tym mogłyby poradzić sobie algorytmy sztucznej inteligencji, które już wcześniej wielokrotnie wykazywały swoją przewagę nad lekarzami.
      Wspomniany algorytm wykorzystuje techniki głębokiego uczenia się. Najpierw go trenowano, a następnie poddano testom na nowym zestawie danych, których nie wykorzystywano podczas treningu.
      W testach wykorzystano dane dotyczące dwóch grup pacjentek. Jedna z nich to mieszkanki Wielkiej Brytanii, które w latach 2012–2015 poddały się badaniom mammograficznym w jednym z dwóch centrów medycznych. Kobiety co trzy lata przechodziły badania mammograficzne. Do badań wylosowano 10% z nich. Naukowcy mieli więc tutaj do dyspozycji dane o 25 856 pacjentkach. Było wśród nich 785, które poddano biopsji i 414 u których zdiagnozowano nowotwór w ciągu 39 miesięcy od pierwszego badania.
      Drugą grupę stanowiło 3097 Amerykanek będących w latach 2001–2018 pacjentkami jednego z akademickich centrów medycznych. U 1511 z nich wykonano biopsje, a u 686 zdiagnozowano nowotwór w ciągu 27 miesięcy od badania.
      Losy wszystkich kobiet były śledzone przez wiele lat, zatem wiadomo było, które z pań ostatecznie zachorowały.
      Zadaniem sztucznej inteligencji było postawienie diagnoz na podstawie mammografii. Następnie wyniki uzyskane przez SI porównano z diagnozami lekarskimi. Okazało się, że sztuczna inteligencja radziła sobie znacznie lepiej. Liczba fałszywych pozytywnych diagnoz postawionych przez SI była o 5,7% niższa dla pacjentek z USA i o 1,2% niższa u pacjentek z Wielkiej Brytanii. SI postawiła też mniej fałszywych negatywnych diagnoz. Dla USA było to 9,4% mniej, a dla Wielkiej Brytanii – 2,7% mniej. Wyniki uzyskane przez sztuczną inteligencję były o tyle bardziej imponujące, że algorytm diagnozował wyłącznie na podstawie badań mammograficznych, podczas gdy lekarze mieli też do dyspozycji historię pacjenta.
      Teraz autorzy algorytmu będą próbowali wykorzystać go podczas badań klinicznych. Ich celem jest spowodowanie, by algorytm sztucznej inteligencji został dopuszczony do użycia w medycynie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Południowokoreański mistrz Go Lee Sedol, który zdobył ogólnoświatowy rozgłos w 2016 roku po słynnym meczu ze sztuczną inteligencją, odszedł na emeryturę. Przypomnijmy, że w 2016 roku sztuczna inteligencja o nazwie AlphaGo pokonała Lee Sedola stosunkiem 4:1. Wcześniej program rozgromił innych graczy w Go, a Sedol był jedynym, któremu udało się z nim wygrać partię.
      Sedol, który wkrótce skończy 37 lat, oświadczył, że rezygnuje z profesjonalnej kariery w Go, gdyż w związku z olbrzymimi postępami sztucznej inteligencji, nie może być czołowym graczem, nawet gdyby był najlepszym z ludzi. "Nawet gdybył był numerem jeden, to będzie ktoś, kogoś nie będę w stanie pokonać", powiedział Sedol w wywiadzie dla agencji prasowej Yonhap.
      Lee Sedol pozostaje jedynym człowiekiem, któremu udało się pokonać AlphaGo. Mistrz uważa, że wygrał dzięki błędowi w oprogramowaniu AlphaGo. Podczas meczu, który odbył się 13 marca 2016 roku grający białymi Lee wykonał nietypowy 78. ruch. Wprawił on AlphaGo w zakłopotanie i system wykonał bardzo słaby ruch 79., który niespodziewanie dał Sedolowi przewagę. Ten jej nie zmarnował i po jakimś czasie AlphaGo poddał partię.
      Specjaliści uznają ruch 78. za „błyskotliwy, boski”, jednak sam Sedol twierdzi, że wygrał partię, gdyż AlphaGo nie potrafił prawidłowo zareagować na jego nietypowe zagrania. Mój ruch 78. nie był zagraniem, na który należało reagować bezpośrednio. Takie błędy zdarzają się w programie Fine Art (to chiński program komputerowy do gry w Go). Fine Art jest trudny do pokonania, nawet jeśli ma handicap 2 kamieni. Jeśli jednak przegrywa, to w bardzo dziwaczny sposób. To błąd w oprogramowaniu, wyjaśnia Sedol.
      Mistrz przyznaje, że był sfrustrowany po pierwszych trzech przegranych partiach. Rzadko czytam w internecie informacje na swój temat. Byłem jednak ciekaw, jak bardzo źle ludzie mówią o mnie po tym, jak przegrałem trzy pierwsze partie. Z zaskoczeniem zauważyłem, że niewiele osób mnie krytykowało. Szczerze mówiąc, już przed rozpoczęciem meczu czułem, że mogę przegrać. Ludzie z DeepMind Technologies byli od samego początku bardzo pewni swego, przyznaje.
      Co ciekawe, jeszcze w grudniu Lee planuje zmierzyć się z kolejnym systemem sztucznej inteligencji grającym w Go. Program HanDol, opracowany w 2018 roku przez firmę NHN Entertainment Corp. już wygrał z 5 czołowymi graczami z Korei Południowej.
      Nadchodzący mecz Lee Sedol rozpocznie z przewagą dwóch kamieni, które zostaną ustawione na planszy przed rozpoczęciem gry. Kolejne handikapy będą ustalane w zależności od wyniku pierwszej partii. Sądzę, że nawet z przewagą dwóch kamieni przegram z HanDolem. Ostatnio nie czytuję informacji ze świata Go. Chcę w spokoju przygotować się go rozgrywki i zrobię co w mojej mocy, stwierdza Sedol.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić.
      Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem.
      W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo.
      DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino.
      Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały.
      Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner.
      DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować.
      CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu.
      Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”.
      Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ponad 2000 uczniów klas czwartych z 57 szkół podstawowych, ponad 370 000 rozwiązanych wygenerowanych zadań matematycznych – to efekt pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy". Prowadzony w roku szkolnym 2018/2019 przez naukowców z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej projekt miał dwa podstawowe cele: podniesienie u uczniów kompetencji matematycznych oraz weryfikację działania nowej wersji systemu zeszyt.online.
      Zespół naukowców skupionych wokół Politechniki Warszawskiej przez ostatnie lata pracował nad opartym na sztucznej inteligencji systemem wspierającym naukę matematyki. System zeszyt.online, bo o nim mowa, to platforma, do której użytkowania wystarczy przeglądarka internetowa. Po zalogowaniu uczeń dostaje zadania, których zakres i poziom trudności na bieżąco dostosowują się do aktualnych umiejętności oraz skuteczności w rozwiązywaniu.
      Indywidualizacja nauki
      Indywidualizowanie nauczania to przyszłość, od której nie uciekniemy, jeżeli zależy nam na wysokich efektach dydaktycznych i przewadze naszej młodzieży na tle rówieśników z innych krajów.
      Nie ma sensu, aby bardzo dobry uczeń rozwiązywał wiele prostych, mechanicznych zadań – mówi Artur Jackowski, kierownik zespołu zeszyt.online. Od pewnego momentu niczego nowego się nie nauczy. Aby efektywniej wykorzystywać czas nauki, lepiej dać mu zadania, które wymagają od niego większego wysiłku intelektualnego. Z drugiej strony nie ma co dawać uczniom słabszym bardzo trudnych zadań. Zapewne na razie nie będą w stanie ich rozwiązać. Zmarnują tylko czas i nabiorą awersji do matematyki. System automatycznie indywidualizuje naukę, próbując odpowiednio dobierać zadania matematyczne.
      System od początku był projektowany z myślą o samodzielnej pracy. Dlatego uczeń od razu po rozwiązaniu zadania dostaje informację, czy zrobił je poprawnie. Jest to szczególnie przydatne, gdy uczeń jest w domu i nie może liczyć na pomoc rodzica czy też korepetytora. Badania pokazały, że dzięki takiej natychmiastowej automatycznej weryfikacji uczeń, będąc później w szkole, mniej stresuje się przy tablicy, częściej odpowiada na pytania nauczyciela i ogólnie, jest aktywniejszy na lekcji.
      Odejść od schematów, zrozumieć ucznia
      To, z czego jesteśmy najbardziej dumni, to uzyskany przez nas przełom w diagnozie przyczyn błędów i trudności z zadaniem, a następnie udzielaniem uczniowi indywidualnej pomocy – mówi o systemie kierownik zespołu. Jesteśmy tutaj pionierami na światową skalę. Znacząco zmieniamy podejście do nauczania matematyki. Klasycznie nauczyciel czy korepetytor tłumaczą uczniowi, jak powinien był rozwiązać zadanie. W konsekwencji uczy się w ten sposób schematów. Uczeń przyjmuje je do wiadomości, zapamiętuje, a później próbuje je odtworzyć. Jest to bierne podejście do nauki, które zabija kreatywność.
      System zeszyt.online, choć pomaga uczniowi dojść do prawidłowego wyniku, nigdy nie wyświetla mu gotowego rozwiązania. Zamiast tego zmusza go do samodzielnego myślenia i poszukiwań.
      System, gdy zdiagnozuje przyczynę problemu, tak dobiera następne zadania, aby uzupełnić braki w wiedzy i rozumieniu oraz ćwiczy kojarzenie faktów – wyjaśnia Artur Jackowski. Gdy uczeń jest gotowy, to wraca do oryginalnego zadania, które rozwiązuje bez pomocy człowieka. I to się sprawdza. W zeszłym roku szkolnym uczniowie biorący udział w badaniu zrobili błędnie 108 412 zadań. System poprawnie zdiagnozował i znalazł skuteczną pomoc już w co trzecim przypadku. A mówimy tu o danych statystycznych na całkiem dużej próbie badawczej. U uczniów pracujących systematycznie, uzyskujemy jeszcze lepsze wyniki. Im więcej zadań rozwiązuje dana osoba, tym mamy więcej informacji i możemy skuteczniej dopasowywać pomoc.
      Jak zostać generałem matematyki?
      Nauka wymaga od ucznia stałego wysiłku. Aby ją uatrakcyjnić i zmniejszyć odczucie wkładanej pracy, system połączony jest z mechanizmami motywującymi. Uczniowie rozwiązując zadania zbierają punkty, które przekładają się na osiągane stopnie. Każdy zaczyna od szeregowego matematyka i rozwija się w kierunku generała. Dodatkowo zdobywa specyficzne odznaczenia za szczególne osiągnięcia.
      Koniec z matematycznym koszmarem?
      Nad projektem pracują analitycy, programiści, metodycy, nauczyciele matematyki, psychologowie, osoby odpowiedzialne za wsparcie techniczne i utrzymanie infrastruktury. To silny i zgrany zespół, który umożliwia skuteczną realizację stawianych przed nim wyzwań.
      Chcielibyśmy, aby z efektów naszej pracy mogli skorzystać uczniowie z całej Polski – mówi Artur Jackowski. Marzy nam się, aby dzięki zeszyt.online matematyka przestała być postrachem wśród uczniów. Mamy rozwiązania, które umożliwiają wychodzenie ze spirali zaległości, indywidualizowanie i koordynowanie nauki, stawianie uczniom celów i dążenie do ich realizacji, przygotowywanie do sprawdzianów i odległych egzaminów połączone z zarządzaniem powtórkami.
      Wiele tych funkcjonalności jest ciągle testowana na wąskich grupach użytkowników i wymaga dodatkowych nakładów pracy, zanim zostanie szerzej udostępniona. Większe uruchomienie to także koszty związane z utrzymaniem infrastruktury i zapewnieniem wsparcia dla uczniów i nauczycieli.
      Zwracamy się do organów prowadzących szkoły – wyjaśnia Artur Jackowski. W ich placówkach już teraz możemy uruchomić nasze oprogramowanie, jeżeli będą pokrywały koszty serwerów, wdrożenia oraz współfinansowały dalszy rozwój. Poszukujemy również sponsorów – zarówno wśród firm prywatnych jak również instytucji publicznych, którym zależy na poprawie jakości edukacji i chciałyby mieć w tym swój wkład.
      System zeszyt.online zdobył wiele pozytywnych opinii od uczniów i nauczycieli, którzy korzystali z niego w pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy".
      W tym roku szkolnym w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014–2020 przygotowano bezpłatne miejsca dla 50 dodatkowych klas IV województwa mazowieckiego, żeby dać możliwość przetestowania tego nowatorskiego rozwiązania szerszym kręgom uczniów.
      Więcej informacji o systemie: zeszyt.online

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Maryland powstał Geneva (Genetic Evasion), system sztucznej inteligencji, który uczy się omijania cenzury w sieci. Podczas testów w Chinach, Indiach i Kazachstanie Geneva opracował dziesiątki sposobów na ominięci cenzury i dotarł do informacji, których samodzielne odnalezienie było niemożliwe.
      Geneva to pierwszy krok w kierunku rozpoczęcia nowego wyścigu zbrojeń, w którym konkurowały będą systemy sztucznej inteligencji opracowane przez cenzorów i ich przeciwników, mówi profesor Dave Levin, główny autor badań. Zwycięstwo w tym wyścigu będzie oznaczało wolność słowa i swobodną komunikację dla milionów ludzi na całym świecie, którzy obecnie nie mogą z niej korzystać.
      Działanie większości systemów internetowej cenzury opiera się na monitorowaniu pakietów wysyłanych przez wyszukiwarki. Blokowane są pakiety zawierające niewłaściwe słowa lub adresy. Geneva w inny sposób dzieli pakiety, przez co systemy cenzurujące nie są w stanie rozpoznać zakazanych treści. Program jest ewoluującym algorytmem, który w każdej swojej generacji identyfikuje te strategie antycenzorskie, które najlepiej działały, wykorzystuje je do dalszej pracy i przestaje używać tych źle działających.
      Testy Genevy przeprowadzono w Chinach, gdzie użytkownik komputera z zainstalowaną Genevą był w stanie wyszukiwać informacje zawierające zakazane słowa, w Indiach, gdzie władze blokują konkretne witryny i w Kazachstanie, gdzie w czasie testów władze blokowały niektóre serwisy społecznościowe. We wszystkich przypadkach Geneva wygrała z cenzurą.
      Naukowcy z Maryland chcą udostępnić swoje dane i kod źródłowy, by inni mogli z nich korzystać i rozwijać Genevę. Jeśli Genevę możnaby zainstalować po stronie serwera i po stronie klienta, to miliony ludzi zyskałyby dostęp do informacji. W tym właśnie kierunku zmierzamy, mówi Levin.

      « powrót do artykułu
×
×
  • Create New...