Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja rozgromiła pokerzystów

Rekomendowane odpowiedzi

Padła kolejna bariera oddzielająca ludzką i sztuczną inteligencję. Program Libratus rozgromił światową czołówkę pokerzystów. W nielimitowanym Texas Hold'em sztuczna inteligencja zdobyła na ludziach 1.766.250 dolarów. Dong Kim przegrał z Libratusem 88.649 USD, Jimmy Chou zubożał o 522.857 dolarów, Jason Les stracił 880.087 USD, a Daniel McAulay musiał zapłacić 277.657 USD.

Turniej Brains vs. Artificial Intelligence trwał od 11 do 30 stycznia i był rozgrywany w godzinach od 11.00 do 19.00. Składał się w sumie ze 120 000 rozdań.

Libratus powstał na Carnegie Mellon University i jest dziełem profesora Tuomasa Sandholma i doktoranta Noama Browna. Podczas uczenia się pokera program nie korzystał z doświadczeń ludzkich graczy. Zaimplementowano mu zasady gry, które miał przeanalizować, a później - na podstawie około 15 milionów godzin obliczeń w Pittsburgh Supercomputing Center - opracowywał własną strategię. Udoskonalał ją też w czasie turnieju. Nie uczyliśmy Libratusa grać w pokera. Daliśmy mu zasady i kazaliśmy się uczyć samemu - mówi Brown. Początkowo rozgrywki były niezwykle chaotyczne, program zgrywał przypadkowe karty. Jednak po bilionach rozdań opracował skuteczną strategię.

Przed wielu laty oprogramowanie komputerowe zadziwiło świat wygrywając w szachy z arcymistrzem. Niedawno rozgromiło też mistrza Go. Zwycięstwo w pokerze pokazuje, że algorytmy sztucznej inteligencji przekroczyły kolejną granicę. Poker znacząco różni się bowiem od szachów czy Go. Gracze nie znają stanu rozgrywki, gdyż nie wiedzą, jakie karty ma przeciwnik. Dochodzi tutaj też element losowy, gdyż to on decyduje, kto jakie karty dostanie oraz element blefu. To tak złożone wyzwanie, że dotychczas badacze zajmujący się SI nie radzili sobie z nim, stwierdza Sandholm. Uczony dodaje, że sam nie był pewien możliwości Liberatusa. Międzynarodowe witryny z zakładami stawiały 4:1 przeciwko naszemu programowi. Okazało się jednak, że wszystko to nie stanowi dla Libratusa większego problemu. Sztuczna inteligencja była w stanie prawidłowo interpretować blef, używany przez ludzkich przeciwników, i... sama blefowała, co zaskoczyło jej twórców. Gdy zobaczyłem, że Liberatus blefuje, zdziwiłem się. nie uczyłem go tego. Nie sądziłem, że jest do tego zdolny. Jestem dumny z faktu, że stworzyłem coś, co potrafi tego dokonać - mówi Brown.

Libratus był znacznie lepszy niż sądziliśmy. To nieco demoralizujące, mówi Jason Les, który przed dwoma laty był grupie graczy, którzy rozgromili SI Claudico. Tutaj codziennie wstawaliśmy i przez 11 godzin na dobę byliśmy ogrywani. To zupełnie inne doświadczenie emocjonalne - dodaje. Gracze mogli też uczyć się od Libratusa, który stosował agresywną strategię, stawiał duże sumy, by wygrać małe kwoty. Ludzie tak normalnie nie grają, ale to wymusza na tobie ciągłą koncentrację uwagi - dodaje Les.

Zastosowane w Libratusie algorytmy nie są wyspecjalizowane w pokerze. A to oznacza, że będzie można zastosować je w wielu dziedzinach, od gier komputerowych, poprzez negocjacje biznesowe, po branże bezpieczeństwa, wojskową czy medyczną - wszędzie tam, gdzie potrzebne jest strategiczne myślenie w oparciu o niepełne informacje. Poker to najmniejsze zmartwienie. Mamy tutaj maszynę, która może skopać ci tyłek w biznesie i zastosowaniach wojskowych. Martwię się, jak ludzkość sobie z tym poradzi - stwierdził profesor Roman V. Yampolskiy z University of Louisville.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dużo liczenia, ale algorytmy chyba proste. ciekawe kiedy, a może już od dawna takie maszynki zarabiają wielką kasę w internetowych kasynach...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

dużo liczenia, ale algorytmy chyba proste. ciekawe kiedy, a może już od dawna takie maszynki zarabiają wielką kasę w internetowych kasynach..

No właśnie. Zawsze mi się wydawało, że algorytm będzie lepszy w pokera bo liczy rozkłady nie przejmując się blefami.  

 

 

Mamy tutaj maszynę, która może skopać ci tyłek w biznesie i zastosowaniach wojskowych

O! szykuje się bezrobocie wśród CEO i generałów?  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

O! szykuje się bezrobocie wśród CEO i generałów?  

 

Zwłaszcza, że

 

 

 

Sztuczna inteligencja była w stanie prawidłowo interpretować blef, używany przez ludzkich przeciwników, i... sama blefowała, co zaskoczyło jej twórców.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
No właśnie. Zawsze mi się wydawało, że algorytm będzie lepszy w pokera bo liczy rozkłady nie przejmując się blefami.

 

No własnie nie, bo wiedząc, że ktoś gra wg. prawdopodobieństwa (czyli jest de facto pasywny), łatwo go ograć tak podbijać stawkę (czyli np. blefować) , że statystycznie, nie opłaca się do rzucić kasy do puli, aby wartość oczekiwana była na +. 

 

 

 

dużo liczenia, ale algorytmy chyba proste. ciekawe kiedy, a może już od dawna takie maszynki zarabiają wielką kasę w internetowych kasynach...

 

Tak istnieją już takie, dawno, takie jak wyżej napisałem, ale to działa na stołach o niższych stawkach...

 

 

Tutaj kluczem było to, że ludzie nie wykryli poziom agresji przeciwnika, to był nowy poziom agresji, (włąsnie te wysokie stawki aby wygrać mniej), przy większej ilości gier, mogą bo opykać, jak wyczują jego poziom agresji (nie wiemy jaka jest dynamika agresji AI) 

 

[edit]

PS.

Jestem przekonany, że jak by udostępnili api, aby móc z nim grać, możńa napisać "anty AI" które rozpyka go (no włąsnie zależy teraz od dynamiki przystosowaywania się do agresji, bo zależy to od tego ilu i jak bardzo agresywnych/pasywnych jest graczy przy stole)

Edytowane przez Afordancja
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
No właśnie. Zawsze mi się wydawało, że algorytm będzie lepszy w pokera bo liczy rozkłady nie przejmując się blefami.

Jeśli nie jest w stanie zauważyć blefu to raczej ułomność niż plus.

W meczu gra 1 komp i 4 zawodników. Blef dowolnego z nich ma wpływ na grę pozostałych trzech zawodników i ich decyzje niezależnie od samego rozkładu.

Natomiast powtarzałem to w każdym wątku odnośnie SI. W każdym możliwym przypadku musi prędzej czy później wygrać z człowiekiem. Poczynając od mnożenia w pamięci liczb 100 cyfrowych aż do pisania książek. Kolejne tzw. bastiony ludzkości muszą padać.

Bo człowiek to bardzo mocno przestrzennie i czasowo ograniczona maszyna licząca dostosowana do rozwiązania ogólnych problemów.

AI można rozbudowywać dużo mocniej przestrzennie, dużo więcej czasu jej wykorzystać i optymalizować do rozwiązywania konkretnych problemów. Ba, maszyny można łączyć w olbrzymie sieci.

Więc nie ma bata, wygrana AI jest tu kwestią jedynie czasu.

Po załóżmy 100 latach tzw. "ewolucji" kompy już zaczynają wygrywać. Ciekawe co będzie po 200 latach? Człowiek ewoluował (zależy jak liczyć) ale miliony lat.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no to chyba szykuje się level up!. panem świata już nie bedzię osobnik z największą maczugą :), ani mól książkowy który przeczyta najwięcej ksiąg. a osobnik z najlepszym algorytmem w smartfonie czy innym elektronicznym urządzeniu.

ciekawe czy będą kolejne etapy w tej ewolucji

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolejny etap to połączenie człowieka z elektroniką. Co już  się robi na razie tylko jako wspomaganie zewnętrzne.

Później będzie wbudowanie w człowieka elektroniki (co też się robi ale raczej awaryjnie np. rozruszniki, chipy).

Najpierw będzie to ulepszenie komunikacji, podłączenie do internetu.

Później będzie to rozszerzenie zmysłów czujnikami.

A jeszcze później wspomaganie funkcji poznawczych i analitycznych mózgu.

Jakże olbrzymią przewagę miałby człowiek (chociażby na wszelkiego rodzaju testach) gdyby mógł czerpać informację z netu bez żadnych zewnętrznych urządzeń.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chodzi o pokera (przez internet), sprawa dąży do prostej równowagi, wszyscy będą wyrywać po równo (bo będą używać wszyscy AI), i nie będzie takiej AI która będzie mogła wygrywać bardziej niż inne.

 

Dlaczego?

Dynamika zmian agresji i wykrywania poziomu agresji u przeciwnika, osiągnie pewien limit i różnice między poszczególnymi AI, będzie mniejsza niż opłata pobierana w grze, czyli gra straci sens (oczywiście "kasyna" będą starały się wykrywać jak tylko się da, takie sytuacje, ale wg. mnie są na przegranej pozycji).

 

Ale bez mocnych dowodów, twierdzę, że ta(konkretna) AI, wygrała trochę przypadkiem, bo zaskoczyła ludzi, ale przyjdą inne które będą o wiele mocniejsze od niej i koniec. w tej branży..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
O! szykuje się bezrobocie wśród CEO i generałów?

Nie szykuje się. Po prostu rola CEO czy generała będzie się kiedyś sprowadzała do wydania komendy: podejmij decyzję. No i pozostaje biurokracja czyli przepisy nakazujące żeby CEO lub generał podpisał się pod dyrektywą albo rozkazem.

 

Jeśli chodzi o pokera (przez internet), sprawa dąży do prostej równowagi, wszyscy będą wyrywać po równo (bo będą używać wszyscy AI), i nie będzie takiej AI która będzie mogła wygrywać bardziej niż inne.

Więc pozostanie element losowy który zdecyduje o wygranej.

 

Ale bez mocnych dowodów, twierdzę, że ta(konkretna) AI, wygrała trochę przypadkiem, bo zaskoczyła ludzi, ale przyjdą inne które będą o wiele mocniejsze od niej i koniec. w tej branży..

Całkiem możliwe. Niemniej AI można doskonalić i to mocno a człowieka już świetnego gracza czego można nauczyć więcej?

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Kolejny etap to połączenie człowieka z elektroniką. Co już  się robi na razie tylko jako wspomaganie zewnętrzne. Później będzie wbudowanie w człowieka elektroniki (co też się robi ale raczej awaryjnie np. rozruszniki, chipy). Najpierw będzie to ulepszenie komunikacji, podłączenie do internetu. Później będzie to rozszerzenie zmysłów czujnikami. A jeszcze później wspomaganie funkcji poznawczych i analitycznych mózgu.

 

tego nie jestem pewien.......

jak naprawiasz stary samochód i dokładasz nowe gadżety po jakimś czasie przychodzi refleksja że to bez sensu i nieekonomicznie reanimować trupa, lepiej kupić nowy model :)

z domami jest podobnie... przychodzi punkt krytyczny za którym remont jest bez sensu, lepszy jest buldożer i postawienie nowego domu.

 

z PCtami jest podobnie, chyba każdy to wie. da się usprawniać, dokładać ramu itd, ale z czasem traci to sens

 

z ludźmi może wyjść podobnie

Edytowane przez tempik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Więc pozostanie element losowy który zdecyduje o wygranej.
 

 

Jeśli mówisz o "generałach" to pewnie z decydują inne czynniki jak przewewaga technologiczna/sprzętowa (nie samo AI)

 

A jeśli mówisz o pokerze, to długodystansowo wygrany jest tylko jeden kasyno :D . A reszta to przegrani, bo jeżeli, wszyscy grają "równo" i nikt nie ma przewagi większej niż prowizja..

 

To tak (pokerową) bitwę wygrasz, raz Ty, raz ja, losowo ale sumarycznie obydwaj jesteśmy na minusie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

A jeśli mówisz o pokerze, to długodystansowo wygrany jest tylko jeden kasyno :D . A reszta to przegrani, bo jeżeli, wszyscy grają "równo" i nikt nie ma przewagi większej niż prowizja..

Pisałem o pokerze. Ale jeśli tak chcesz to muszę napisać że wygranym jest państwo które ma zawsze podatki, zarówno krótko jak i długodystansowo - nie inwestując nawet złamanego grosza :P A kasyno może zbankrutować.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Pisałem o pokerze. Ale jeśli tak chcesz to muszę napisać że wygranym jest państwo które ma zawsze podatki, zarówno krótko jak i długodystansowo - nie inwestując nawet złamanego grosza

 

A no tak, ale to tak jak by trochę inny temat.

Ja patrzę (w tym momencie) na pokera, graczy i AI. I twierdzę, że w pokera AI ma pewien limit którego się nie da przeskoczyć, a człowiek nie może tego limitu chyba osiągnąć, dlaczego? a no z tego samego powodu, z jakiego nie potrafi wygenerować losowych zdarzeń.(tak wiem, maszyna też, ale są to różne poziomy losowości)

 

W sumie dało mi to pewne natchnienie jesli chodzi o pokera, ludzi  i AI :D (termin marzec ;)

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problemem globalnym nie jest pokonanie człowieka przez AI. Niebezpieczeństwo pojawia się w chwili gdy możliwe jest dokonanie ataku na całą cywilizację. Wraz z rozwojem techniki i AI takich możliwości przybywa coraz więcej. Problemem jest to że zapotrzebowanie na ochronę przed potencjalnymi zagrożeniami rośnie wykładniczo w stosunku do liniowego wzrostu ilości zagrożeń. Oznacza to że nieuchronnie  zbliża się moment w którym cały potencjał ludzkiej techniki nie będzie miał już możliwości ochrony przed wszystkimi możliwymi zagrożeniami. Wtedy gdy ktoś wykryje lukę i ją wykorzysta nastąpi kolaps cywilizacji. Czy to będzie działanie chemiczne, elektromagnetyczne czy AI - nie ma znaczenia.

Wg mnie taki stan rozwoju cywilizacji jest absolutnie nieuchronny dla każdej rozwijającej się cywilizacji w Kosmosie - i prawdopodobnie to jest przyczyną dla której nie jesteśmy w stanie zaobserwować żadnej z nich - bo każda która rozwinęła się nieco bardziej od nas po prostu samounicestwiła się lub przynajmniej doprowadziła do stanu kamienia łupanego.

Edytowane przez Ergo Sum

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Ale jeśli tak chcesz to muszę napisać że wygranym jest państwo

Czyli pani wygrywa, pan wygrywa, społeczeństwo... 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem skąd to utożsamienie państwa ze społeczeństwem? Albo z Panią czy Panem :)

 

 

Oznacza to że nieuchronnie zbliża się moment w którym cały potencjał ludzkiej techniki nie będzie miał już możliwości ochrony przed wszystkimi możliwymi zagrożeniami

Ergo :) Dziś też potencjał ludzkości nie może uchronić nas przed wszystkimi możliwymi zagrożeniami. Nigdy nie mógł. I nigdy nie będzie mógł.


 

 

bo każda która rozwinęła się nieco bardziej od nas po prostu samounicestwiła się

A te które się nie rozwinęły tak jak my ;) zostały unicestwione przez: wulkany, mrozy, inne cywilizacje :) itd.
Zawsze jest dobry moment na unicestwienie :)


 

 

A no tak, ale to tak jak by trochę inny temat.

Tak. Wygrana kasyna była już OT :) dlatego napisałem że jeśli chcesz tak pisać to ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Tak. Wygrana kasyna była już OT dlatego napisałem że jeśli chcesz tak pisać to ...

 

A w ten sposób, to nie wyłapałem niuansu :D.

Dla mnie prowizja kasyna jest dość istotnym czynnikiem, bo o co najmniej tyle musisz mieć przewagę nad resztą, i stąd moje twierdzenie, że potem żadna AI nie będzie lepsza od innych powyżej tej wartości. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zagrożenia wzrastają, bo potęga środków też wzrasta. Kiedyś maczuga w nieodpowiedzialnych rękach mogła skutkować max. Kilkudziesięcioma rozbitymi czaszkami. Obecnie guzik atomowy w posiadaniu jednej osoby może narobić dużo większego bałaganu. Przeciętna aplikacja społecznościowa może zawładnąć umysłami większości nastolatków i kształtować ich zachowanie, przykłady można mnożyć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zawsze śmieszą mnie nagłówki w stylu "sztuczna inteligencja zrobiła cośtam"

To na razie nie jest sztuczna inteligencja, ale dobrze zoptymalizowany algorytm. Przecież nie da sie przerwać gry i porozmawiać z tym algorytmem, lub pożartować, ani też nie przestawimy się na partyjkę szachów, bo tak chcemy.

Uważam że inteligencja będzie wtedy, gdy taki algorytm będzie równie wielozadaniowy co umysł człowieka. Inaczej będzie to zwykły wirtualny automat. Gdyby wszystko tak traktować, to mielibyśmy takie nagłówki: "sztuczna inteligencja maszyny na linii produkcyjnej zakręca 1000 butelek na sekundę, podczas gdy człowiek zakręca 3"

Połączenie człowieka z elektroniką już jest (nawet teraz piszę z elektroniki przy pomocy rąk ;)) i jakoś nie ulepszyło to świata.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdy sztuczna inteligencja dojdzie do poziomu, który stanie się niebezpieczny dla ludzi, wtedy ludzkość, w szczególności takie kraje zjednoczone jak USA i UE, stworzą kolejne ZAKAZY tworzenia i używania tak wysokiej AI. To będzie tak jak z bronią: każdy może stworzyć siekierę, może nawet ją kupić w sklepie, ale nie może nią atakować ludzi. Podobnie z bronią palną, ale już kupić czy zrobić nie zawsze ją łatwo. Tworzenie ładunków wybuchowych już w ogóle jest prawie zakazane. Im bardziej zaawansowana, czyli potężniejsza broń, tym większe zakazy i dokładnie na tej samej analogii będzie się działo z AI - jeżeli będzie w stanie wyrządzić realne szkody. Tak więc będzie zakazane tworzenie AI, która będzie agresywna w stosunku do człowieka.

Jeżeli chodzi o sferę ekonomiczną, czyli niby problem bezrobocia, to ludzie, którzy tak bardzo się tego boją, nie mają zbyt wysokiej wiedzy ekonomicznej: postęp techniczny ma służyć człowiekowi, ma zwiększać poziom oszczędności czasu, a co za tym idzie dochodów, a więc napędzać gospodarkę. Zatem jeżeli maszyna sama będzie sprzątać, to oczywiście każdy racjonalny przedsiębiorca będzie inwestował w takie maszyny, które szybko zwrócą koszty, Sprzątaczki stracą pracę, co nie oznacza automatycznie, że będą bezrobotne, ponieważ postęp techniczny samoczynnie zwiększa poziom dochodów, kapitału, więc przedsiębiorcy będą mieć więcej pieniędzy, a więc będą płacić więcej podatków. Stąd państwo będzie miało więcej pieniędzy, aby utrzymać te sprzątaczki, oczywiście przy założeniu że te sprzątaczki nie będą w stanie nigdzie pracować i będą traktowane tak jak dziś osoby niepełnosprawne umysłowo, które muszą przebywac w specjalnych ośrodkach. Takie sprzątaczki będą przebywać w tych "ośrodkach", które będą się nazywały mieszkaniami, bo każda będzie miała swój własny ośrodek. Tak więc postęp techniczny będzie powodował to, że ludzie będą pracować coraz mniej, będą więcej wypoczywać, a zastępować będą ich roboty.

 

Jeżeli chodzi o dzisiejszy artykuł, to myślę, że warto byłoby zaimplementować takie roboty do polityki: powinniśmy pozbyć się polityków-ludzi i zastąpić ich politykami-robotami. To samo z sędziami. Po pierwsze takie roboty będą zawsze maksymalnie obiektywne, po drugie maksymalnie wydajne, po trzecie redukują koszty społeczne, jak strajki, protesty i demontracje, po czwarte zaoszczędzałyby olbrzymie ilości pieniędzy i czasu - już nawet nie wspomnę o tym, że dziś jest kontrola sądów przez wyższe instancje, każdy może się odwoływać, składać apelacje itp. a gdy roboty przejmą sądy, to nikt nie będzie się odwoływał, bo maksymalnie obiektywny wyrok już zapadł. Roboty-politycy z kolei wydawaliby uchwały i ustawy na podstawie nie własnych ideologii, ale całej zgromadzonej wiedzy ekonomiczno-socjologiczno-prawnej. Ktoś kto mówi, że kryteria ekonomiczne nie mogą być obiektywne, że zawsze są subiektywne, nie wie o czym mówi, obecnie nawet najwyższe autorytety w zakresie ekonomii mają co najwyżej ułamek procenta teorii, jaka się rozwinęła na przestrzeni lat. Różnica jest tylko taka, że oni zdają sobie z tego sprawę. I oczywiście tak jak napisałem wyżej, sędziowie i politycy nie bedą potrzebni, ale nie będą bezrobotni; jeżeli do niczego innego się nie nadają, to po prostu będą żyć sobie bez pracy, choć wielu osobom wydaje się to czystą fantasmagorią.

Edytowane przez mankomaniak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Przecież nie da sie przerwać gry i porozmawiać z tym algorytmem, lub pożartować, ani też nie przestawimy się na partyjkę szachów, bo tak chcemy.

 

Mnie z kolei trochę śmieszą takie teksty jak powyższy.

Bo to oczywiście kwestia przyjętych definicji.

 

Patrząć np. tutaj

https://pl.wikipedia.org/wiki/Sztuczna_inteligencja 

 

Sztuczna inteligencja to nie tylko jest to coś z czym można sobie pożartować itd.

 

Więc kto co woli..oczywiście, że takie tytuły się lepiej sprzedają

 

 

 

 

i jakoś nie ulepszyło to świata.

 

No jak dla mnie, e-mail vs, klasyczny mail, wiele ulepszył świat, ale znów kto co woli. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

O! szykuje się bezrobocie wśród CEO i generałów?

Cóż, powiedzmy sobie skrótowo i obrazowo: takiego Tima Cooka pewnie względnie łatwo byłoby zastąpić jakąś AI. A Steve'a Jobsa już dużo trudniej ;) Co zresztą widać po kursie akcji Apple'a ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę, że najłatwiej byłoby zastąpić polityków.

Na początek dać im komputer, który będzie za nich produkował ustawy i reformy, a politykom jeszcze pozwolić na pozory sprawowania nad tym kontroli. Potem stopniowo redukowałoby się ilość polityków. Pewnie docelowo zostałby prezydent, premier, kilku ministrów, bo ktoś musi się zajmować kontaktem z bardziej analogowymi krajami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Można by temat pociągnąć, ale...w innym wątku padła reprymenda:

Czy wy musicie wpierdzielić politykę nawet do tematu o muzyce? Serio?

;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...