Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Psychopatyczna sztuczna inteligencja z MIT

Recommended Posts

Norman to psychopata. Na szczęście nie jest prawdziwy. To sztuczna inteligencja stworzona na MIT, której rozwojem pokierowano tak, by wykazywała cechy psychopatyczne. Inspiracją dla powstania algorytmu był Norman, bohater filmu Psychoza Hitchcocka.

Praca nad Normanem, podobnie jak nad innymi algorytmami sztucznej inteligencji, rozpoczęła się on jego nauczania na bazie materiałów dostępnych w internecie. Jednak zamiast przeglądać przyjemne i neutralne obrazy, Normana skierowano do bardziej mrocznej części internetu. Zadaniem algorytmu było przeglądanie dziwacznych grafik i obrazów, jakie wymieniają między sobą użytkownicy jednego z forów serwisu Reddit. Po takim treningu Normana poproszono o rozwiązanie testu Rorschacha.

To znany test plam, w których badani mają rozpoznawać kształty czy obrazy. Zgodnie z oczekiwaniami, Norman dawał dziwaczne odpowiedzi na plamy. Przy planszy 9. w której standardowa sztuczna inteligencja widzi czarno-białe zdjęcie czerwono-białego parasola, Norman widział człowieka poddawanego wstrząsom elektrycznym podczas próby przechodzenia przez ruchliwą ulicę. Z kolei plansza 10., która standardowej SI kojarzy się ze zbliżeniem na tort weselny stojący na stole, dla Normana była grafiką przedstawiającą człowieka zabitego przez pędzący samochód.

Twórcy psychopatycznej SI oświadczyli, że Norman ucierpiał od ciągłej ekspozycji na najciemniejsze zakamarki Reddita. Całość może być zabawną wprawką dla twórców inteligentnych algorytmów, pokazuje jednak pewną ważną rzecz. Zachowanie SI jest w dużej mierze zdeterminowane informacjami, jakie zdobywa podczas nauki. Oczywiście to nic nowego. Wystarczy przypomnieć sobie microsoftowego bota, którego koncern z Redmond postanowił skonfrontować w internautami. W ciągu 24 godzin bot stał się rasistą i został wyłączony.


« powrót do artykułu

Share this post


Link to post
Share on other sites
1 hour ago, KopalniaWiedzy.pl said:

dla twórców inteligentnych algorytmów

Protestuję. Oni nie są twórcami algorytmów (bo nie wiedzą, jakie "algorytmy" w tych ich sieciach działają), a te ich wytwory nie są inteligentne. To tak jakby personel fabryki pigmentów to byli twórcy dzieł sztuki.

Share this post


Link to post
Share on other sites
Cytat

Twórcy psychopatycznej SI oświadczyli, że Norman ucierpiał od ciągłej ekspozycji na najciemniejsze zakamarki Reddita. Całość może być zabawną wprawką dla twórców inteligentnych algorytmów, pokazuje jednak pewną ważną rzecz. Zachowanie SI jest w dużej mierze zdeterminowane informacjami, jakie zdobywa podczas nauki

No jeżeli nie "mu" nie pokazali nigdy parasola to znalazł coś najbardziej podobnego do tego czego uczyli, filozofii nie ma. Jak bym mu pokazywał tylko cyferki to by każdy z tych obrazów klasyfikował jako cyfrę.

Share this post


Link to post
Share on other sites

Czy nie są inteligentne to tu bym nie był taki pewny. A co to jest inteligencja w przypadku człowieka? :)

3 godziny temu, Afordancja napisał:

No jeżeli nie "mu" nie pokazali nigdy parasola to znalazł coś najbardziej podobnego do tego czego uczyli, filozofii nie ma

A człowiek to inaczej działa? :)

Share this post


Link to post
Share on other sites

Wydaje się że część sieci ludzkiego umysłu potrafi być jednakże nie tylko odtwórcza w posiadanych wariacjach danych. 

Share this post


Link to post
Share on other sites
3 godziny temu, thikim napisał:

A człowiek to inaczej działa?

 

Nie o to chodzi.

 

Nie ma człowieka który w życiu widział tylko cyfry i wszystko co widzi nazywa cyfrą ;) 

A poważniej, to AI to nic innego jak zwykły klasyfikator z bazy uczącej, którzy przy dostatecznie ilości powiedzmy, że uogólnia, nie ma tam wątku logicznego.

Ogólnie eksperyment nie wiadomo co miał udowodnić, ot źle nauczony klasyfikator, na zbiorze niereprezentatywnym. Już lepszym (chociaż też nie wiem co miał by udowadniać), było by aby na początku sieci miały te same dane uczące a później uczono by go "złych rzeczy" ;) i jak szybko by się "Zdegenerował" ale to dalej nie ma żadnego przełożenia, ot psucie klasyfikatora, ale człowieka już było by trudniej tak "zdegenerować" ,żeby np. parasola nie rozpoznał. (jeżeli by tam faktycznie był)

Share this post


Link to post
Share on other sites

To fakt - nic nieoczekiwanego w tym badaniu nie ma. Podobnie jak w tym że obcowanie z kulturą prymitywną i agresywną prowadzi również ludzi do zachowań psychopatycznych. Człowiek, oprócz samych skojarzeń ma jeszcze warstwę świadomości i weryfikacji. Nie mniej i ona jest podatna na wpływ i również ją można, choć trudniej, wprowadzić w chorobę umysłową. Pytanie czy AI  zadziałało jak prosty OCR rozpoznający obrazy wg wzorca, czy też świadomie weryfikowało i zmieniało również zasady weryfikacji.

Share this post


Link to post
Share on other sites
20 godzin temu, Afordancja napisał:

A poważniej, to AI to nic innego jak zwykły klasyfikator z bazy uczącej, którzy przy dostatecznie ilości powiedzmy, że uogólnia, nie ma tam wątku logicznego.

No więc o to chodzi. A człowiek to inaczej działa? :)

48 minut temu, Ergo Sum napisał:

że obcowanie z kulturą prymitywną i agresywną prowadzi również ludzi do zachowań psychopatycznych

A obcowanie z zaawansowaną i pokojową nie? :D Prędzej, prędzej...

Edited by thikim

Share this post


Link to post
Share on other sites
3 godziny temu, thikim napisał:

No więc o to chodzi. A człowiek to inaczej działa?

 

Tak, trochę inaczej, inna skala złożoności, inny system uczenia? Dlaczego? Jeżeli wyuczonemu człowiekowi pokażemy, że teraz ten słoń to liczba, to to po prostu zaneguje.

W sumie nie wiem dlaczego pytasz skoro nawet w cytowanym napisałem, że mamy jeszcze element logiczny.. A tu wszystko łyka jak młody pelikan.

 

żeby ukrócić dywagacje, to tak jak by powiedzieć, że, że "bączek" (trybik od zegarka) działa tak samo jak zegarek . 

Nie, jest totalnie inny poziom złożoności. 

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Jeśli sięgniesz głębiej to zobaczysz że ten element logiczny w człowieku jest tylko pozorny :) Jest naszą nazwą na:

4 godziny temu, thikim napisał:

klasyfikator z bazy uczącej, którzy przy dostatecznie ilości powiedzmy, że uogólnia

Nic ponad to. Człowiek ma dużo ponad dostateczną ilość więc ten poziom uogólniania nazwano logiką.

Patrzysz na pustkę między atomami a widzisz człowieka :) Ale to jednak dalej w większości pustka.

Edited by thikim

Share this post


Link to post
Share on other sites

Mam wątpliwości co do tej pustki między atomami. Atomy wydają się całkiem ciasno upakowane w ciałach stałych. Co innego jądra atomowe, więc raczej:
"Patrzysz w pustkę między jadrami atomowymi wypełnioną chmurą elektronów i mówisz, że to człowiek".

Maszynie brakuje jedynie umiejętności podważenia informacji otrzymanej od "nauczyciela". Gdyby zaimplementować jej taką opcję, to pewnie dałaby radę reagować bardziej jak człowiek, gdyby tylko byłą wcześniej przeszkolona.
Szkoląc od zera, to i z człowieka (prawdopodobnie) zrobisz co chcesz... 

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
4 minuty temu, pogo napisał:

Szkoląc od zera, to i z człowieka (prawdopodobnie) zrobisz co chcesz.

Oczywiście, dlatego pisałem że to totalnie nic nadzwyczajnego, nic nie wnoszącego, ot nauczyli "pusty" klasyfikator, bezsensownych treści.

 

6 minut temu, pogo napisał:

Maszynie brakuje jedynie umiejętności podważenia informacji otrzymanej od "nauczyciela". Gdyby zaimplementować jej taką opcję, to pewnie dałaby radę reagować bardziej jak człowiek, gdyby tylko byłą wcześniej przeszkolona.

Pewnie by tak było, ale to już było by bliżej AI, a teraz to zwykły prościutki klasyfikator który nazywają szumnie AI.

 

40 minut temu, thikim napisał:

Jeśli sięgniesz głębiej to zobaczysz że ten element logiczny w człowieku jest tylko pozorny

Jeśli sięgniesz głębiej zobaczysz, że zegar to takie bączki ;)

Share this post


Link to post
Share on other sites
55 minut temu, pogo napisał:

"Patrzysz w pustkę między jadrami atomowymi wypełnioną chmurą elektronów i mówisz, że to człowiek".

Tak, oczywiście o to chodziło.

55 minut temu, pogo napisał:

Maszynie brakuje jedynie umiejętności podważenia informacji otrzymanej od "nauczyciela"

Załóżmy że tak. A masz pewność że człowiek może podważyć swojego "nauczyciela"?
Nie rozmawiamy oczywiście o nauczycielu zatrudnionym przez państwo, czy rodzicach. Co jest tym nauczycielem? Tym nauczycielem są zmysły. Czy jesteś w stanie podważyć informacje od nich bardziej niż maszyna?

Edited by thikim

Share this post


Link to post
Share on other sites
7 godzin temu, thikim napisał:

Nie rozmawiamy oczywiście o nauczycielu zatrudnionym przez państwo, czy rodzicach. Co jest tym nauczycielem? Tym nauczycielem są zmysły. Czy jesteś w stanie podważyć informacje od nich bardziej niż maszyna?

Sęk w tym, że ta maszyna (obecnie) nie podważa niczego, nie konfrontuje z już zdobytą wiedzą. Ot nowy pattern dostaje z odpowiedzią, no i już przestawia wagi aby ta odpowiedź mogła się załapać do danego zbioru. Człowiek przy podaniu bezsensownej informacji zaneguje ją.i może dojść do tego, że z danego źródła informacje będzie odrzucał i brał za fałszywe.

PS.

Co to znaczy, że zmysły są nauczycielem? 

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
7 godzin temu, thikim napisał:

Tym nauczycielem są zmysły

Tia...widzą oczy a nie mózg, słyszą uszy a smak zostaje w języku.:P

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Komputer dostaje obrazek i podpis pod nim "słoń". I to jest bezpośredni odpowiednik ludzkiego wzroku i słuchu: mama pokazuje obrazek i mówi, że to słoń.

Tak samo człowiek może zanegować prawidłowość opisu, jak i komputer... jeśli tylko programowi na to pozwolimy... inaczej będzie za wszelka cenę szukał powodu, dlaczego tego konkretnego słonia nazwaliśmy tym razem cyfrą 2... W sumie człowiek też nierzadko to robi.

trzeba też pamiętać, że jeśli dziecku będziesz cały czas mówić, że kaczka to słoń, to dziecko będzie w to wierzyć, bo nie ma z czym skonfrontować tej wiedzy, to samo robi komputer.

Share this post


Link to post
Share on other sites
42 minuty temu, pogo napisał:

Tak samo człowiek może zanegować prawidłowość opisu, jak i komputer... jeśli tylko programowi na to pozwolimy... inaczej będzie za wszelka cenę szukał powodu, dlaczego tego konkretnego słonia nazwaliśmy tym razem cyfrą 2... W sumie człowiek też nierzadko to robi.

trzeba też pamiętać, że jeśli dziecku będziesz cały czas mówić, że kaczka to słoń, to dziecko będzie w to wierzyć, bo nie ma z czym skonfrontować tej wiedzy, to samo robi komputer.

 

Oczywiście, nie ulega to wątpliwości, ale to nie ta maszynka, takie to nawet nie wiem czy gdzieś są obecnie tworzone, w sumie rozmywa się rozmowa, bo co innego ten eksperyment który jest totalnie nic nie warty, z tym co można zaimplementować i czy w ogóle to obecnie potrafimy.  

Nic nie warty bo ten klasyfikator możemy nauczyć losowych danych wejściowych z losowymi wyjściowymi. Ok, dziecko też pewnie tak dało by to wyuczyć.  ale to już totalnie inny temat bo z czasem i tak zacznie badać spójność wyuczenia.

Jednak fakt, że zegar to w sumie jak by się przyjrzeć to trybik, to jednak trybik != zegar, i przenoszenie wszelkich faktów z trybika na zegar jest bezsensowne, tak to, że jak by się przyjrzeć głębiej mózgowi to widzimy klasyfikator(y), to dalej nie oznacza, że klasyfikator == mózg.

 

Swoją drogą

 obecnie nie ma (zespołów) klasyfikatorów (jak są to poproszę o info chętnie przygarnę) (mam na myśli, że ktoś się tym zajmuje i publikuje a nie sam klasyfikator) które działają jak człowiek, że wyuczone już próbują konfrontować to z obecną wiedzą i negować, ponadto rozróżniają wiedzę która jest stabilna i spójna,  czyli słoń pozostanie słoniem, ale dzisiaj jest cieplo, a jutrzejsze dzisiaj jest zimno, jest już do zaakceptowania.

 

Edited by Afordancja

Share this post


Link to post
Share on other sites

Zdecydowanie człowiek działa inaczej niż klasyfikator treści, bo nie tylko klasyfikuje, ale też nadaje wartość dla danej klasyfikacji i może być to wartość nawet przeciwna. Wartość zależna jest od przekonań, zasad, intuicji, samopoczucia, skojarzeń i miliona innych spraw. AI na razie tak nie działa i nie jest to tylko brak złożoności. Owszem AI dokonuje pewnej klasyfikacji wagi ale do realnego działania tego typu potrzebne są takie rzeczy jak niezależność, samoświadomość a nawet dopuszczalność błędu. Z tej przyczyny opisywane doświadczenie raczej mogło spowodować jedynie proste przełożenie klasyfikujące.

Share this post


Link to post
Share on other sites

Tej świadomości to nie jestem pewien czy jest potrzebna aby wykonać wszystkie pozostałe czynności.

Share this post


Link to post
Share on other sites

Człowiek posiada wiele układów i narządów, które maszynie są do niczego nie potrzebne. Te układy i ich praca mają ciągły wpływ na ludzkie zachowanie. Odkryto przecież, że układ pokarmowy posiada taką samą ilość neuronów jak mózg w głowie. To chyba logiczne, skoro narządy muszą zamieniać pokarm na czynniki pierwsze, drogą chemiczną pozyskiwać z nich substancje odżywcze i witaminy. Układ pokarmowy, to drugi mózg, mała chemiczna fabryka przetwórcza, na której pracę ma dodatkowo wpływ stres i sposób życia. Cały czas narządy ludzkiego organizmu wykonują samodzielnie swoją pracę, produkują odpowiednią ilość przeciwciał, gdy dojdzie do zakażenia, zarażenia się jakąś bakterią lub wirusem, a nawet w przypadku oparzenia. Zwykła morfologia pokazuje nam jak wiele elementów zawiera krew i te cząsteczki same "wiedzą" co mają robić. Bakterie w jelitach też wiedzą, co mają robić. Cały człowiek jest zbudowany z mikrostruktur i mikroorganizmów, składających się na całość i wszystko jest ze sobą połączone.

A sztuczna inteligencja, to tylko taki program, który ma ustawione reakcje na dane dane, jakie do niego docierają. Można napisać program, który będzie wyświetlał głowę, która będzie imitowała naturalne reakcje ludzkie i emocje, i będzie reagowała tak, jakby miała świadomość czegoś i jakby miała emocje. Ale to jest program, który ma nas oszukiwać, że tak jest. Program ma oszukiwać człowieka, że widzi istotę, że ma do czynienia ze świadomością i inteligencją, która coś rozumie. Ale kto się na to nabiera, ten frajer.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Marcin Sieniek, Scott Mayer McKinney, Shravya Shetty i inni badacze z Google Health opublikowali na łamach Nature artykuł, w którym dowodzą, że opracowany przez nich algorytm sztucznej inteligencji lepiej wykrywa raka piersi niż lekarze.
      Nowotwory piersi, pomimo szeroko zakrojonych programów badań, wciąż pozostają drugą głównych przyczyn zgonów na nowotwory wśród kobiet. Każdego roku na całym świecie wykonuje się dziesiątki milionów badań obrazowych, ale problemem wciąż pozostaje zbyt wysoki odsetek diagnoz fałszywych pozytywnych i fałszywych negatywnych. To z jednej strony naraża zdrowe osoby na stres i szkodliwe leczenie, a z drugiej – w przypadku osób chorych – opóźnia podjęcie leczenia, co często niesie ze sobą tragiczne skutki.
      Umiejętności lekarzy w zakresie interpretacji badań obrazowych znacznie się od siebie różnią i nawet w wiodących ośrodkach medycznych istnieje spore pole do poprawy. Z problemem tym mogłyby poradzić sobie algorytmy sztucznej inteligencji, które już wcześniej wielokrotnie wykazywały swoją przewagę nad lekarzami.
      Wspomniany algorytm wykorzystuje techniki głębokiego uczenia się. Najpierw go trenowano, a następnie poddano testom na nowym zestawie danych, których nie wykorzystywano podczas treningu.
      W testach wykorzystano dane dotyczące dwóch grup pacjentek. Jedna z nich to mieszkanki Wielkiej Brytanii, które w latach 2012–2015 poddały się badaniom mammograficznym w jednym z dwóch centrów medycznych. Kobiety co trzy lata przechodziły badania mammograficzne. Do badań wylosowano 10% z nich. Naukowcy mieli więc tutaj do dyspozycji dane o 25 856 pacjentkach. Było wśród nich 785, które poddano biopsji i 414 u których zdiagnozowano nowotwór w ciągu 39 miesięcy od pierwszego badania.
      Drugą grupę stanowiło 3097 Amerykanek będących w latach 2001–2018 pacjentkami jednego z akademickich centrów medycznych. U 1511 z nich wykonano biopsje, a u 686 zdiagnozowano nowotwór w ciągu 27 miesięcy od badania.
      Losy wszystkich kobiet były śledzone przez wiele lat, zatem wiadomo było, które z pań ostatecznie zachorowały.
      Zadaniem sztucznej inteligencji było postawienie diagnoz na podstawie mammografii. Następnie wyniki uzyskane przez SI porównano z diagnozami lekarskimi. Okazało się, że sztuczna inteligencja radziła sobie znacznie lepiej. Liczba fałszywych pozytywnych diagnoz postawionych przez SI była o 5,7% niższa dla pacjentek z USA i o 1,2% niższa u pacjentek z Wielkiej Brytanii. SI postawiła też mniej fałszywych negatywnych diagnoz. Dla USA było to 9,4% mniej, a dla Wielkiej Brytanii – 2,7% mniej. Wyniki uzyskane przez sztuczną inteligencję były o tyle bardziej imponujące, że algorytm diagnozował wyłącznie na podstawie badań mammograficznych, podczas gdy lekarze mieli też do dyspozycji historię pacjenta.
      Teraz autorzy algorytmu będą próbowali wykorzystać go podczas badań klinicznych. Ich celem jest spowodowanie, by algorytm sztucznej inteligencji został dopuszczony do użycia w medycynie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Południowokoreański mistrz Go Lee Sedol, który zdobył ogólnoświatowy rozgłos w 2016 roku po słynnym meczu ze sztuczną inteligencją, odszedł na emeryturę. Przypomnijmy, że w 2016 roku sztuczna inteligencja o nazwie AlphaGo pokonała Lee Sedola stosunkiem 4:1. Wcześniej program rozgromił innych graczy w Go, a Sedol był jedynym, któremu udało się z nim wygrać partię.
      Sedol, który wkrótce skończy 37 lat, oświadczył, że rezygnuje z profesjonalnej kariery w Go, gdyż w związku z olbrzymimi postępami sztucznej inteligencji, nie może być czołowym graczem, nawet gdyby był najlepszym z ludzi. "Nawet gdybył był numerem jeden, to będzie ktoś, kogoś nie będę w stanie pokonać", powiedział Sedol w wywiadzie dla agencji prasowej Yonhap.
      Lee Sedol pozostaje jedynym człowiekiem, któremu udało się pokonać AlphaGo. Mistrz uważa, że wygrał dzięki błędowi w oprogramowaniu AlphaGo. Podczas meczu, który odbył się 13 marca 2016 roku grający białymi Lee wykonał nietypowy 78. ruch. Wprawił on AlphaGo w zakłopotanie i system wykonał bardzo słaby ruch 79., który niespodziewanie dał Sedolowi przewagę. Ten jej nie zmarnował i po jakimś czasie AlphaGo poddał partię.
      Specjaliści uznają ruch 78. za „błyskotliwy, boski”, jednak sam Sedol twierdzi, że wygrał partię, gdyż AlphaGo nie potrafił prawidłowo zareagować na jego nietypowe zagrania. Mój ruch 78. nie był zagraniem, na który należało reagować bezpośrednio. Takie błędy zdarzają się w programie Fine Art (to chiński program komputerowy do gry w Go). Fine Art jest trudny do pokonania, nawet jeśli ma handicap 2 kamieni. Jeśli jednak przegrywa, to w bardzo dziwaczny sposób. To błąd w oprogramowaniu, wyjaśnia Sedol.
      Mistrz przyznaje, że był sfrustrowany po pierwszych trzech przegranych partiach. Rzadko czytam w internecie informacje na swój temat. Byłem jednak ciekaw, jak bardzo źle ludzie mówią o mnie po tym, jak przegrałem trzy pierwsze partie. Z zaskoczeniem zauważyłem, że niewiele osób mnie krytykowało. Szczerze mówiąc, już przed rozpoczęciem meczu czułem, że mogę przegrać. Ludzie z DeepMind Technologies byli od samego początku bardzo pewni swego, przyznaje.
      Co ciekawe, jeszcze w grudniu Lee planuje zmierzyć się z kolejnym systemem sztucznej inteligencji grającym w Go. Program HanDol, opracowany w 2018 roku przez firmę NHN Entertainment Corp. już wygrał z 5 czołowymi graczami z Korei Południowej.
      Nadchodzący mecz Lee Sedol rozpocznie z przewagą dwóch kamieni, które zostaną ustawione na planszy przed rozpoczęciem gry. Kolejne handikapy będą ustalane w zależności od wyniku pierwszej partii. Sądzę, że nawet z przewagą dwóch kamieni przegram z HanDolem. Ostatnio nie czytuję informacji ze świata Go. Chcę w spokoju przygotować się go rozgrywki i zrobię co w mojej mocy, stwierdza Sedol.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić.
      Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem.
      W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo.
      DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino.
      Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały.
      Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner.
      DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować.
      CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu.
      Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”.
      Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ponad 2000 uczniów klas czwartych z 57 szkół podstawowych, ponad 370 000 rozwiązanych wygenerowanych zadań matematycznych – to efekt pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy". Prowadzony w roku szkolnym 2018/2019 przez naukowców z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej projekt miał dwa podstawowe cele: podniesienie u uczniów kompetencji matematycznych oraz weryfikację działania nowej wersji systemu zeszyt.online.
      Zespół naukowców skupionych wokół Politechniki Warszawskiej przez ostatnie lata pracował nad opartym na sztucznej inteligencji systemem wspierającym naukę matematyki. System zeszyt.online, bo o nim mowa, to platforma, do której użytkowania wystarczy przeglądarka internetowa. Po zalogowaniu uczeń dostaje zadania, których zakres i poziom trudności na bieżąco dostosowują się do aktualnych umiejętności oraz skuteczności w rozwiązywaniu.
      Indywidualizacja nauki
      Indywidualizowanie nauczania to przyszłość, od której nie uciekniemy, jeżeli zależy nam na wysokich efektach dydaktycznych i przewadze naszej młodzieży na tle rówieśników z innych krajów.
      Nie ma sensu, aby bardzo dobry uczeń rozwiązywał wiele prostych, mechanicznych zadań – mówi Artur Jackowski, kierownik zespołu zeszyt.online. Od pewnego momentu niczego nowego się nie nauczy. Aby efektywniej wykorzystywać czas nauki, lepiej dać mu zadania, które wymagają od niego większego wysiłku intelektualnego. Z drugiej strony nie ma co dawać uczniom słabszym bardzo trudnych zadań. Zapewne na razie nie będą w stanie ich rozwiązać. Zmarnują tylko czas i nabiorą awersji do matematyki. System automatycznie indywidualizuje naukę, próbując odpowiednio dobierać zadania matematyczne.
      System od początku był projektowany z myślą o samodzielnej pracy. Dlatego uczeń od razu po rozwiązaniu zadania dostaje informację, czy zrobił je poprawnie. Jest to szczególnie przydatne, gdy uczeń jest w domu i nie może liczyć na pomoc rodzica czy też korepetytora. Badania pokazały, że dzięki takiej natychmiastowej automatycznej weryfikacji uczeń, będąc później w szkole, mniej stresuje się przy tablicy, częściej odpowiada na pytania nauczyciela i ogólnie, jest aktywniejszy na lekcji.
      Odejść od schematów, zrozumieć ucznia
      To, z czego jesteśmy najbardziej dumni, to uzyskany przez nas przełom w diagnozie przyczyn błędów i trudności z zadaniem, a następnie udzielaniem uczniowi indywidualnej pomocy – mówi o systemie kierownik zespołu. Jesteśmy tutaj pionierami na światową skalę. Znacząco zmieniamy podejście do nauczania matematyki. Klasycznie nauczyciel czy korepetytor tłumaczą uczniowi, jak powinien był rozwiązać zadanie. W konsekwencji uczy się w ten sposób schematów. Uczeń przyjmuje je do wiadomości, zapamiętuje, a później próbuje je odtworzyć. Jest to bierne podejście do nauki, które zabija kreatywność.
      System zeszyt.online, choć pomaga uczniowi dojść do prawidłowego wyniku, nigdy nie wyświetla mu gotowego rozwiązania. Zamiast tego zmusza go do samodzielnego myślenia i poszukiwań.
      System, gdy zdiagnozuje przyczynę problemu, tak dobiera następne zadania, aby uzupełnić braki w wiedzy i rozumieniu oraz ćwiczy kojarzenie faktów – wyjaśnia Artur Jackowski. Gdy uczeń jest gotowy, to wraca do oryginalnego zadania, które rozwiązuje bez pomocy człowieka. I to się sprawdza. W zeszłym roku szkolnym uczniowie biorący udział w badaniu zrobili błędnie 108 412 zadań. System poprawnie zdiagnozował i znalazł skuteczną pomoc już w co trzecim przypadku. A mówimy tu o danych statystycznych na całkiem dużej próbie badawczej. U uczniów pracujących systematycznie, uzyskujemy jeszcze lepsze wyniki. Im więcej zadań rozwiązuje dana osoba, tym mamy więcej informacji i możemy skuteczniej dopasowywać pomoc.
      Jak zostać generałem matematyki?
      Nauka wymaga od ucznia stałego wysiłku. Aby ją uatrakcyjnić i zmniejszyć odczucie wkładanej pracy, system połączony jest z mechanizmami motywującymi. Uczniowie rozwiązując zadania zbierają punkty, które przekładają się na osiągane stopnie. Każdy zaczyna od szeregowego matematyka i rozwija się w kierunku generała. Dodatkowo zdobywa specyficzne odznaczenia za szczególne osiągnięcia.
      Koniec z matematycznym koszmarem?
      Nad projektem pracują analitycy, programiści, metodycy, nauczyciele matematyki, psychologowie, osoby odpowiedzialne za wsparcie techniczne i utrzymanie infrastruktury. To silny i zgrany zespół, który umożliwia skuteczną realizację stawianych przed nim wyzwań.
      Chcielibyśmy, aby z efektów naszej pracy mogli skorzystać uczniowie z całej Polski – mówi Artur Jackowski. Marzy nam się, aby dzięki zeszyt.online matematyka przestała być postrachem wśród uczniów. Mamy rozwiązania, które umożliwiają wychodzenie ze spirali zaległości, indywidualizowanie i koordynowanie nauki, stawianie uczniom celów i dążenie do ich realizacji, przygotowywanie do sprawdzianów i odległych egzaminów połączone z zarządzaniem powtórkami.
      Wiele tych funkcjonalności jest ciągle testowana na wąskich grupach użytkowników i wymaga dodatkowych nakładów pracy, zanim zostanie szerzej udostępniona. Większe uruchomienie to także koszty związane z utrzymaniem infrastruktury i zapewnieniem wsparcia dla uczniów i nauczycieli.
      Zwracamy się do organów prowadzących szkoły – wyjaśnia Artur Jackowski. W ich placówkach już teraz możemy uruchomić nasze oprogramowanie, jeżeli będą pokrywały koszty serwerów, wdrożenia oraz współfinansowały dalszy rozwój. Poszukujemy również sponsorów – zarówno wśród firm prywatnych jak również instytucji publicznych, którym zależy na poprawie jakości edukacji i chciałyby mieć w tym swój wkład.
      System zeszyt.online zdobył wiele pozytywnych opinii od uczniów i nauczycieli, którzy korzystali z niego w pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy".
      W tym roku szkolnym w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014–2020 przygotowano bezpłatne miejsca dla 50 dodatkowych klas IV województwa mazowieckiego, żeby dać możliwość przetestowania tego nowatorskiego rozwiązania szerszym kręgom uczniów.
      Więcej informacji o systemie: zeszyt.online

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Maryland powstał Geneva (Genetic Evasion), system sztucznej inteligencji, który uczy się omijania cenzury w sieci. Podczas testów w Chinach, Indiach i Kazachstanie Geneva opracował dziesiątki sposobów na ominięci cenzury i dotarł do informacji, których samodzielne odnalezienie było niemożliwe.
      Geneva to pierwszy krok w kierunku rozpoczęcia nowego wyścigu zbrojeń, w którym konkurowały będą systemy sztucznej inteligencji opracowane przez cenzorów i ich przeciwników, mówi profesor Dave Levin, główny autor badań. Zwycięstwo w tym wyścigu będzie oznaczało wolność słowa i swobodną komunikację dla milionów ludzi na całym świecie, którzy obecnie nie mogą z niej korzystać.
      Działanie większości systemów internetowej cenzury opiera się na monitorowaniu pakietów wysyłanych przez wyszukiwarki. Blokowane są pakiety zawierające niewłaściwe słowa lub adresy. Geneva w inny sposób dzieli pakiety, przez co systemy cenzurujące nie są w stanie rozpoznać zakazanych treści. Program jest ewoluującym algorytmem, który w każdej swojej generacji identyfikuje te strategie antycenzorskie, które najlepiej działały, wykorzystuje je do dalszej pracy i przestaje używać tych źle działających.
      Testy Genevy przeprowadzono w Chinach, gdzie użytkownik komputera z zainstalowaną Genevą był w stanie wyszukiwać informacje zawierające zakazane słowa, w Indiach, gdzie władze blokują konkretne witryny i w Kazachstanie, gdzie w czasie testów władze blokowały niektóre serwisy społecznościowe. We wszystkich przypadkach Geneva wygrała z cenzurą.
      Naukowcy z Maryland chcą udostępnić swoje dane i kod źródłowy, by inni mogli z nich korzystać i rozwijać Genevę. Jeśli Genevę możnaby zainstalować po stronie serwera i po stronie klienta, to miliony ludzi zyskałyby dostęp do informacji. W tym właśnie kierunku zmierzamy, mówi Levin.

      « powrót do artykułu
×
×
  • Create New...