Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja rozgromiła pokerzystów

Recommended Posts

Ostatni akapit artykułu wydaje się usprawiedliwiać lekkie schodzenie na ten temat ;)

Share this post


Link to post
Share on other sites

Mnie z kolei trochę śmieszą takie teksty jak powyższy.

Bo to oczywiście kwestia przyjętych definicji.

 

Patrząć np. tutaj

https://pl.wikipedia.org/wiki/Sztuczna_inteligencja 

 

Sztuczna inteligencja to nie tylko jest to coś z czym można sobie pożartować itd.

 

Więc kto co woli..oczywiście, że takie tytuły się lepiej sprzedają

 

No jak dla mnie, e-mail vs, klasyczny mail, wiele ulepszył świat, ale znów kto co woli. 

To może zamiast tworzyć sztuczną inteligencję, po prostu stworzymy wiele definicji i zamkniemy je w grupie o nazwie "sztuczna inteligencja".

No tak. Sztuczna, czyli jak wszystko co sztuczne, po prostu gorsza od naturalnej, zoptymalizowanej do życia w tym świecie. To by miało sens, ale wtedy każdy automat można na jakiś sposób nazwać że jest inteligentny. Zaraz... przecież już tak właśnie teraz jest. Inteligenty zegarek, lodówka, pralka, telewizor i samochód. Pasuje do sztucznej, czyli czegoś gorszego wymyślonego przez człowieka. I teraz pomyślcie, czy sztuczna inteligencja użyłaby groteski, cynizmu, humoru, przenośni, analogii i innych tego typu rzeczy? Ona będzie cały czas dążyć do ideału jakim jest ludzki umysł, ale z racji na pochodzenie, nigdy do takiego ideału nie dojdzie zupełnie jak ciąg dążący do nieskończoności.

Share this post


Link to post
Share on other sites

 

 

To może zamiast tworzyć sztuczną inteligencję, po prostu stworzymy wiele definicji i zamkniemy je w grupie o nazwie "sztuczna inteligencja".
 

 

hm..chyba nie rozumiem, dlaczego "zamiast"?

Co do definicji to już sprawa językoznawców chyba bardziej, po prostu jest wiele określeń które ma wiele rożnych znaczeń, a ty sobie, nie wiem dlaczego, wymyśliłeś, że sztuczna inteligencja to coś, parafrazując, coś co rzuca żarty.

 

 

 

No tak. Sztuczna, czyli jak wszystko co sztuczne, po prostu gorsza od naturalnej, zoptymalizowanej do życia w tym świecie.
 

 

Nie gorsza, tylko coś wytworzone przez człowieka co ma "zastąpić" coś naturalnego? Nie ma nic wspólnego z byciem gorszym. (z definicji).

 

 

 

I teraz pomyślcie, czy sztuczna inteligencja użyłaby groteski, cynizmu, humoru, przenośni, analogii i innych tego typu rzeczy?
 

 

Jeżeli przylecieli by do nas kosmici za***istymi UFO ;) , ale nie czuli by pojęcia żartu, to uznał byś ich za nieinteligentnych? 

Co gorsza znam takich ludzi ;)  a inteligencji im nie odmówię.
 

 

Ona będzie cały czas dążyć do ideału jakim jest ludzki umysł, ale z racji na pochodzenie, nigdy do takiego ideału nie dojdzie zupełnie jak ciąg dążący do nieskończoności.
 
 
hm..jak patrzę jakie mózg figle płata (jakie błędy percepcji, poznawcze itd.) to myślę, że jest bardzo daleko od ideału. A że ludzie wzorują się na umyśle ludzkim? cóż nie mamy innych przykładów.
 
I ja ja tam obstawiam, że jednak wyprzedzi go, bo umysł ludzki naprawdę jest daleki daleki od ideału.

Share this post


Link to post
Share on other sites

To może zamiast tworzyć sztuczną inteligencję, po prostu stworzymy wiele definicji i zamkniemy je w grupie o nazwie "sztuczna inteligencja".

No tak. Sztuczna, czyli jak wszystko co sztuczne, po prostu gorsza od naturalnej, zoptymalizowanej do życia w tym świecie. To by miało sens, ale wtedy każdy automat można na jakiś sposób nazwać że jest inteligentny. Zaraz... przecież już tak właśnie teraz jest. Inteligenty zegarek, lodówka, pralka, telewizor i samochód. Pasuje do sztucznej, czyli czegoś gorszego wymyślonego przez człowieka. I teraz pomyślcie, czy sztuczna inteligencja użyłaby groteski, cynizmu, humoru, przenośni, analogii i innych tego typu rzeczy? Ona będzie cały czas dążyć do ideału jakim jest ludzki umysł, ale z racji na pochodzenie, nigdy do takiego ideału nie dojdzie zupełnie jak ciąg dążący do nieskończoności.

 

Tak jak radzę pseudo-ekonomistom poczytać trochę o temacie więcej zanim coś powiedzą, tak samo radzę w tej sytuacji. Kup sobie Świat Nauki, grudzień 2015, nr 12, str. 50, tytuł: "Robot z sercem". "Zanim roboty wkroczą w nasze codzienne życie, musimy nauczyć je rozumienia i wyrażania ludzkich emocji" -Pascale Fung, prof. inżynierii elektrycznej i informatyki. Przerażające? Ale prawdziwe. Kiedyś ludzie uważali, że świat się wokół nich kręci, nagle Kopernik wywrócił do góry nogami ten pogląd. Ludzie nadal uważają, że ich emocje sa takie wyjątkowe. Ktoś wkrótce wywróci do góry nogami i ten pogląd. By By kościółek, frazesy o duszy, Bogu itd. Może w końcu skończy się era ideologii religijnej.

Share this post


Link to post
Share on other sites
"Zanim roboty wkroczą w nasze codzienne życie, musimy nauczyć je rozumienia i wyrażania ludzkich emocji" -Pascale Fung, prof. inżynierii elektrycznej i informatyki.

Roboty to już dawno wkroczyły w nasze życie (także codzienne), niezależnie od poglądów p. Funga :)

P. Fung miał zapewne na myśli androidy.

 

 

Kiedyś ludzie uważali, że świat się wokół nich kręci, nagle Kopernik wywrócił do góry nogami ten pogląd

Albo nie było nigdy takiego poglądu, albo taki pogląd był, jest i będzie zawsze dopóki ludzie będą. Niezależnie którą interpretację wybrać nie masz racji :) co do Kopernika :)

Edited by thikim

Share this post


Link to post
Share on other sites

Ludzie nadal uważają, że ich emocje sa takie wyjątkowe.

Bo są wyjątkowe. Ktoś w przyrodzie na tym polu z nami konkuruje?:)

Psychopata to ma klawo, bo oszczędzona jest mu np. rozpacz po stracie bliskiej osoby, ale biedak nigdy nie dowie się co to np. miłość czy inne wzbogacające emocje.

 

By By kościółek, frazesy o duszy, Bogu itd. Może w końcu skończy się era ideologii religijnej.

To złudna i pyszałkowata wszechmądrość niektórych, zakłada tylko taki scenariusz.

Share this post


Link to post
Share on other sites

Aha, czyli Ty myślisz, że rozpacz po śmierci bliskiej osoby jest emocją przynależną tylko człowiekowi? No to się bardzo mylisz, poczytaj sobie, jak zwierzęta przeżywają śmierć swoich bliskich, nie tylko psy, ale też inne zwierzęta, np. małpy, słonie przeżywają żałobę. Różnica tkwi w wyrażaniu tych emocji, bo przecież pies nie płacze. Pierwszy lepszy artykuł: http://www.newsweek.pl/nauka/slonie-tez-placza-gdy-stanie-im-sie-krzywda-na-newsweek-pl,artykuly,271926,1.html

 

Z miłością jest tak samo. Niczym człowiek się nie różni od zwierzęcia pod tym względem. Powtarzam: najpierw sprawdzać, poczytać czy ma się rację, potem pisać komentarze, bo w internecie i tak jest za dużo bredni. Większość z nich opiera się na błędnych poglądach.

Share this post


Link to post
Share on other sites

Aha, czyli Ty myślisz, że rozpacz po śmierci bliskiej osoby jest emocją przynależną tylko człowiekowi? No to się bardzo mylisz.

Szczerze cieszę się, że jesteś z Tych, którzy nie odmawiają zwierzętom podstawowych emocji, ale jakościowe porównywanie tychże ze spektrum ludzkich afektów, to tutaj nadużycie.;)

Poza tym, Twoja riposta jest chybiona,bo psychopatia u zwierząt nie występuje.:P

 

Z miłością jest tak samo. Niczym człowiek się nie różni od zwierzęcia pod tym względem.

Skorzystaj z własnej rady :) i pomyśl, czy nie pomyliłeś ludzkiego uczucia ze zwierzęcym instynktem. Edited by TrzyGrosze

Share this post


Link to post
Share on other sites
bo psychopatia u zwierząt nie występuje

 

hm.. a to jakoś udowodnili? w sensie sprawdzali? Pytam poważnie :)

 

I co by to w sumie miało oznaczać w przypadku zwierząt? 

Edited by Afordancja

Share this post


Link to post
Share on other sites
Z miłością jest tak samo. Niczym człowiek się nie różni od zwierzęcia pod tym względem. Powtarzam: najpierw sprawdzać, poczytać czy ma się rację, potem pisać komentarze, bo w internecie i tak jest za dużo bredni. Większość z nich opiera się na błędnych poglądach.

Pisząc że niczym się człowiek nie różni od zwierzęcia (pod jakimś tam względem) - klasyfikujesz człowieka jako nie zwierzę :)

 

 

Szczerze cieszę się, że jesteś z Tych, którzy nie odmawiają zwierzętom podstawowych emocji, ale jakościowe porównywanie tychże ze spektrum ludzkich afektów, to tutaj nadużycie

Tego też osobiście nie rozumiem :) To jest ukryte wyjmowanie gatunku homo sapiens z królestwa animalia :)

Wszelkie porównania w ten sposób formułowane mają sens dopiero przy założeniu że homo sapiens jest poza animalia.

Ja pozostanę może trochę konserwatystą :D i powiem że homo sapiens należy do animalia.

Porównując go z innymi zwierzętami istotne jest używanie słowa "inny". Wydaje mi się że jakakolwiek nauka jasno określiła miejsce człowieka na drzewie życia, ale może się mylę :D

Edited by thikim
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

hm.. a to jakoś udowodnili? w sensie sprawdzali? Pytam poważnie :)

I co by to w sumie miało oznaczać w przypadku zwierząt?

 

Trudno wymagać deficytu pojmowania czy zaburzonych relacji międzyosobniczych, o empatii nie wspominając, u zwierzęcia.:) Taki osobnik nie przeżyje!

Człowiek da radę, kompensując te braki inteligencją, a nawet będzie skuteczny w niektórych zawodach, np tam gdzie tzw litość może przeszkadzać.

 

Wszelkie porównania w ten sposób formułowane mają sens dopiero przy założeniu że homo sapiens jest poza animalia.

Ja pozostanę może trochę konserwatystą :D i powiem że homo sapiens należy do animalia.

 

Tylko fizycznie jesteśmy zwierzętami! Reszta jest ludzka.:) Edited by TrzyGrosze

Share this post


Link to post
Share on other sites

Do gry w pokera potrzebne jest szczęście, a nie inteligencja.

Komputer nie weryfikuje odruchów przeciwnika.

Nie wie, czy przeciwnik ściemnia, bo do tego jest potrzebna AI ver 30980.009.01.09 z roku 2999, tak samo jak "Kosmos 1999".;)

Edited by Jack Malecki

Share this post


Link to post
Share on other sites

Ale przecież komputer ich ograł jak chciał, więc chyba jednak, to nie była kwestia szczęścia, a taktyki.

Poza tym słyszałem, że czołówka pokerowa obecnie gra stosując bardziej matematykę niż blef.

Share this post


Link to post
Share on other sites

Do gry w pokera potrzebne jest szczęście, a nie inteligencja.

 

Przydałoby się jeszcze inteligentne wytłumaczenie, dlaczego w tak długiej rozgrywce, szczęście tak często faworyzowało komputer.;) Edited by TrzyGrosze

Share this post


Link to post
Share on other sites

 

 

Przydałoby się jeszcze inteligentne wytłumaczenie, dlaczego w tak długiej rozgrywce, szczęście tak często faworyzowało komputer

Proszę bardzo: najpierw miał szczęście, a potem oscylował wokół średniej. Jak w większości sportów: graj jak inni, a od czasu do czasu urwij coś dla siebie. 

Nie wiem tylko jak wyjaśnić te tabelkie z wynikami, z niej wynika, że puścił ich w skarpetkach. Może blaszak grał nieczysto? W sensie czujniki podczerwieni, rentgen, albo minimum emitery infradźwięków :D

Share this post


Link to post
Share on other sites

Ja stawiam :D na jego "twarz pokerzysty": brak emocji pozwolił mu stawiać dużo, aby wygrać mało. Kto choć trochę hazardził, wie o co chodzi.;)

Share this post


Link to post
Share on other sites

Ja dalej obstawiam, to co pisałem na początku, zaskoczył ich, poziomem ryzyka jakie podejmował. (obstawianie wysokich stawek, dla małych wygranych).

 

Twarz pokerzysty nie ma znaczenia, bo (top) gracze się raczej częściej się rozpracowują, po stylu gry, a nie grymasie twarzy.

W pokerze nie wygrywa szczęściarz, tylko ten kto umie tym szczęściem "żonglować"

I czołówka raczej nie stosuje, matematyki, bo matematykę każdy dobry(ale nie top) potrafi policzyć, tzn. stosuje matematykę w tym sensie, że potrafi to wyliczyć, ale ona nie jest kluczowa.

 

 

[edit]

I wygrał po prostu rodzynek w swoim stylu gry...

Przykłady (skrajne i słąbe w sumie), jeżlei mamy 9 graczy bardzo agresywnych i 1 pasywny. (każdy z nich oczywiście np. w 10% zmienia strategię na odwrotną) obstawiam, że w pierwszej trójce będzie pasywny i 2 agresywnych siłą rzeczy..(oczywiście bez przesady z tą pasywnością )

 

Tak samo (to bardziej prawdopodobne), gdy mamy 9 pasywnych i 1 agresywny, (i znów te 10%), w pierwszej trójce (może nawet wygra) będzie agresywny.

Edited by Afordancja

Share this post


Link to post
Share on other sites

[edit]

I wygrał po prostu rodzynek w swoim stylu gry...

Przykłady (skrajne i słąbe w sumie), jeżlei mamy 9 graczy bardzo agresywnych i 1 pasywny. (każdy z nich oczywiście np. w 10% zmienia strategię na odwrotną) obstawiam, że w pierwszej trójce będzie pasywny i 2 agresywnych siłą rzeczy..(oczywiście bez przesady z tą pasywnością )

 

Tak samo (to bardziej prawdopodobne), gdy mamy 9 pasywnych i 1 agresywny, (i znów te 10%), w pierwszej trójce (może nawet wygra) będzie agresywny.

To nie był rodzynek to nie był przypadek mogą zagrać jeszcze raz i  i tak ich ogra. Jest wyraźnie napisane po " po bilionach rozdań opracował skuteczną strategię." i w trakcie tego turnieju dalej doskonalił swoją strategię.  To jest moc algorytmów ewolucyjnych może przeciwnik zmieniać strategię a on i tak wie jak przeciw temu grać bo już ma doświadczenie bilionów partii. I to doświadczenie którego w przeciwieństwie do człowieka nie zapomina.

Share this post


Link to post
Share on other sites
To nie był rodzynek to nie był przypadek mogą zagrać jeszcze raz i  i tak ich ogra.

 

Jak nie był rodzynek? Skoro padło w tekście:

który stosował agresywną strategię, stawiał duże sumy, by wygrać małe kwoty. Ludzie tak normalnie nie grają, ale to wymusza na tobie ciągłą koncentrację uwagi

 

czyli rodzynek w swojej strategii.

Aby ludzie z nim zaczęli wygrywać, muszą wiele, wiele razy z nim zagrać, aby wyczuć jego poziom agresji, oczywiście może z nimi "zawsze" wygrywać, z innego względu, mianowicie szybkości adaptacji do zachowań przeciwników.

 

 

 

 

Jest wyraźnie napisane po " po bilionach rozdań opracował skuteczną strategię.

 

 

Skuteczną, że tym razem pykło, w pokerze nie ma ogólnej, skutecznej strategii 

 

 

 

i w trakcie tego turnieju dalej doskonalił swoją strategię

I tu chodzi o tę adaptację to poziomu agresji przeciwnika.

 

 

 

 To jest moc algorytmów ewolucyjnych może przeciwnik zmieniać strategię a on i tak wie jak przeciw temu grać bo już ma doświadczenie bilionów partii. I to doświadczenie którego w przeciwieństwie do człowieka nie zapomina.

 

hm..takie pytanie na boku, grałeś trochę poważniej w pokera? Doświadczenie bilionów partii, nie zwiększa szans na wygraną, prawdopodobieństwo wygranej wyliczyć każdy z graczy potrafi wyliczyć. Liczy się tylko szybka ocena, poziomu ryzykanctwa przeciwników.(to skrót myślowy)

 

I teraz nie wiem czy wygrał, własnie przez to, że grał niespotykanie ryzykownie, i ludzie nie zdołali się w tak krótkim czasie dostosować do tego typu przeciwnika, a sami nie potrafili tak szybko go wyczuć. Czy też, szybko rozpracowywał i klasyfikował typy graczy, a oni byli zbyt mało zmienni, tego nie wiemy. Ja obstawiam na ten moment, pierwszy scenariusz, ale nie wiadomo.

Edited by Afordancja

Share this post


Link to post
Share on other sites

 

 

To nie był rodzynek to nie był przypadek mogą zagrać jeszcze raz i i tak ich ogra

A czy są tacy pokerzyści którzy nigdy nie przegrali? Mam na myśli tych co grają w pokera :D

Share this post


Link to post
Share on other sites

Przecież wiadomo, że w takich grach chodzi aby w sumie przez wszystkie partie więcej wygrać niż przegrać. Nie w każdym rozdaniu dostaniesz karty, którymi warto grać.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...