Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów

Rekomendowane odpowiedzi

21 godzin temu, Ergo Sum napisał:

Nie, nie jest to tylko język i luźne błądzenie.

Ano, nie jest.

21 godzin temu, Ergo Sum napisał:

Właśnie ten sam błąd popełniają informatycy i właśnie dokłdnie ten błąd jest podstawą dlaczego  algorytmy "AI" nie są "I".

Tutaj jest gorzej ;) Nawet gdyby wszyscy informatycy rozumieli ludzką psychikę (a myślę, że jakaś część rozumie, przynajmniej trochę), to i tak by nie byli w stanie tego zaprogramować. Programowanie z jakiegoś powodu wymaga uwzględnienia w kodzie wszystkich możliwości, jakie występują w danym zagadnieniu, ilość tych możliwości bardzo szybko rośnie w miarę zagłębiania się w projekt i w pewnym momencie każdy porzucić idealistyczne marzenie o wymodelowaniu w kodzie jakiegoś fragmentu rzeczywistości i przestawić się na dążenie, żeby w ogóle - jakimkolwiek sposobem, byle jak, najmniejszym kosztem - skończyć projekt. Dobry programista to ten, który już na starcie odpuszcza sobie tę pierwszą fazę i cały czas pracuje w drugiej. ;)

Można sobie ew. robić nadzieję, że dzięki sieciom neuronowym, ML itp. uda się osiągnąć coś więcej (bo to są w pewnym sensie programy nie pisane przez ludzi), ale pewności nie ma, a może być i tak, jak uważa Penrose, że sposób działania komputerów jest odmienny od sposobu działania ludzkiego mózgu i to uniemożliwia.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

22 godziny temu, Ergo Sum napisał:

Nie, nie jest to tylko język i luźne błądzenie. Określając tak procesy społeczne czy psychologiczne wykazujesz że tego po prostu nie rozumiesz.

Większość ludzi to rozumie, ale sęk w tym, że trzeba to potem przełożyć na język maszyn, a ponieważ nie ma to często nic wspólnego z logiką, więc ciężko.

Zresztą, kolejna dyskusja o humanistach i ścisłowcach, patrz ostatnia dyskusja w innym wątku.

Rozmawiałem o tym ze swoimi latoroślami, które są takimi hybrydami po trochę i doszliśmy do wniosku, że humaniści wnieśli do naszego życia całkiem sporo. Dość powiedzieć literatura, kultura, sztuka, muzyka, po części architektura. Wspaniałe rzeczy, bez których życie byłoby "inne". Co do języka jednak,

22 godziny temu, Ergo Sum napisał:

Nie, nie jest to tylko język

No właśnie, tylko język czy aż język? Zaczęliśmy się zastanawiać czy bez humanistów ścisłowcy mieliby język? Wyszło nam, że tak, tym językiem byłaby... matematyka. Jeden, wspólny, uniwersalny w całym wszechświecie język. Wyobraźcie sobie, wszyscy ludzie mówiący jednym językiem, jak rozwijałaby się cywilizacja! Kto wie, może nawet już tak było? Wszyscy posługiwali się językiem "matematycznym", cywilizacja rozwijała się prężnie, do tego stopnia, że w końcu zapragnęła sięgnąć gwiazd budując windę kosmiczną w postaci... wieży do samego nieba. Niestety potem jakiś Dziwny Zbieg Okoliczności postanowił ukarać ich za ich pychę i pozbawił większość z nich umiejętności posługiwania się tym językiem, robiąc z nich... humanistów :lol: Tak było ;)

P.S. Nie wiem tylko, czy większej kary nie dostali Ci, którzy nie zostali zmienieni :D

Taki tam żarcik na dobranoc :)

 

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 29.12.2020 o 23:57, Qion napisał:

Jestem ciekaw, czy program wykorzystujący algorytmy AI byłby w stanie pokonać najlepszy obecnie silnik szachowy jakim jest Stockfish.

1) Każdy silnik szachowy jest AI z definicji. Po prostu szachy padły ofiarą zjawiska, że jak już jakaś dziedzina stała się osiągalna dla komputerów to przestaje być AI stając się zwykłym softwarem.
2)

 

W dniu 29.12.2020 o 23:57, Qion napisał:

Dzisiejsze programy szachowe nie wykorzystują algorytmów neuronowych, lecz analizują miliony kombinacji na wiele posunięć do przodu.

Oczywiście że programy szachowe wykorzystują sieci neuronowe. Na poważnie zaczęło się od AlphaZero, potem powstał jego znacznie udoskonalony klon (jest obecnie silniejszy od oryginału) Lila Chess Zero,  a w końcu Stockfish i praktycznie cała licząca się reszta dostała funkcję oceny wykorzystującą bardzo szybkie sieci neuronowe NNUE.
Stockfish jest w stanie analizować za ich pomocą kilkadziesiąt milionów pozycji na sekundę (tak naprawdę kilka milionów sieciami a resztę swoją starą funkcją oceny).
W sumie widać fajną gradacje - człowiek, z najdoskonalszą funkcją oceny, ocenia 1-2 pozycje na sekundę, programy oparte na powolnych sieciach neuronowych oceniają kilkadziesiąt tysięcy tych pozycji korzystając z GPU, a programy wykorzystujące proste sieci neuronowe razem ze standardowymi funkcjami oceny - kilkadziesiąt milionów na sekundę. Mamy gradację 1000 x na każdym stopniu, i obecnie wygląda na to, że jednak bardziej ocenia się oceniać znacznie więcej pozycji niż robić to lepiej. Stockfish najprawdopodobniej jest najbliżej optymalnego podziału pracy.
Gigantyczna sprawność taktyczna jest ważniejsza od perfekcyjnej oceny strategicznej.

W dniu 30.12.2020 o 22:19, darekp napisał:

Można sobie ew. robić nadzieję, że dzięki sieciom neuronowym, ML itp. uda się osiągnąć coś więcej (bo to są w pewnym sensie programy nie pisane przez ludzi), ale pewności nie ma

Raczej nie ma żadnych wątpliwości. Pełna symulacja rozwojowa mózgu ludzkiego i funkcjonowania sieci neuronowej da ludzkie możliwości - to jest pewnik z matematycznego punktu widzenia. Indywidualne różnice po między ludźmi są z kolei na tyle gigantyczne, że wyidealizowana wersja (pod względem struktury, nie ilości neuronów) powinna być równie dobra.

W dniu 30.12.2020 o 00:49, Ergo Sum napisał:

No .. i właśnie to jest doskonały przykład tego że informatycy totalnie nie wiedzą co jest zakresem humanistyki.

No i to jest doskonały przykład na to, że humaniści nie rozumieją, że kiedy używam określenia humanista istotne jest jedynie to, co ja mam mam na myśli w określonym kontekście. Jeśli mówimy o naukach humanistycznych w opozycji do ścisłych, to jedynym istotnym wyróżnikiem jest słaba zdolność do tworzenia dobrych teorii, obowiązuje gigantyczny przerost formy nad treścią w dziedzinie tworzonych abstrakcji. Utrzymują z rzeczywistością kontakt na poziomie surowych danych, a wszystko bardziej zaawansowane opiera się na poznawaniu uwarunkowanych historycznie konwencji, ich adepci zamiast rozumieć fragment rzeczywistości zmuszani są do studiowania samych dyscyplin, które de facto stają się swoim własnym podmiotem badań.
Praktyczna przewaga nauk ścisłych polega na tym, że opierają się na skutecznej falsyfikacji zdań przez co teorie dzielą się lepsze i gorsze a zdania na prawdziwe lub fałszywe. Gdy profesorzy nauk ścisłych zaczynają bredzić wszyscy wiedzą że bredzą, w naukach humanistycznych powstają nowe teorie do poznania. Teorie ścisłe muszą być skuteczne, teorie humanistyczne - modne.

 


 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, peceed napisał:

Pełna symulacja rozwojowa mózgu ludzkiego i funkcjonowania sieci neuronowej da ludzkie możliwości - to jest pewnik z matematycznego punktu widzenia.

Tak, bo to tautologia. Natomiast nie ma chyba na dzisiaj pewności, czy sieci neuronowe i tego typu zabawki wystarczą, żeby stworzyć pełną symulację - Rogera Penrose już przypomniałem, a poza tym np. pamiętam z czasów studenckich (lata 90-te ub. wieku) wykład o sieciach neuronowych pewnego pracownika PAN (z tytułem profesorskim z tego co pamiętam), który się nimi zajmował od dawna i on na koniec wykładu powiedział, że jego zdaniem w praktyce widać, że brakuje jeszcze czegoś, jakiegoś elementu jakościowo innego (lub kilku), że dla niektórych problemów z rozpoznawania obrazów wystarczy 100-200 neuronów, a w mózgu ludzkim jest o wiele więcej. Nie wiem, czy coś zmieniło się od tych czasów, AI w ostatnich latach miało sporo osiągnięć, chyba po prostu pozostaje siedzieć i czekać, co z tego wyniknie:)

Sam nie mam do czynienia z AI w pracy, a w domu jakoś trudno znaleźć czas, żeby się tym pobawić i wyrobić sobie jakieś własne zdanie.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
39 minut temu, darekp napisał:

brakuje jeszcze czegoś, jakiegoś elementu jakościowo innego (lub kilku), że dla niektórych problemów z rozpoznawania obrazów wystarczy 100-200 neuronów, a w mózgu ludzkim jest o wiele więcej.

Wiadomo że do zrozumienia wszystkich funkcji mózgu jeszcze sporo brakuje, ale akurat ta obserwacja jest nieistotna. Mózg zajmuje się znacznie większą ilością problemów niż "niektóre". Nie przejmowałbym się takimi wykładami sprzed ćwierć wieku, postęp jest tak wielki że zmieniła się też nasza percepcja, pewne rzeczy stają się oczywiscie proste, zagadnienia filozoficzne zaczynają być problemami technicznymi. Zwłaszcza komputerowa kreatywność uświadomiła nam, że ta naturalna jest znacznie prostszym zjawiskiem niż się to wydawało.

39 minut temu, darekp napisał:

Rogera Penrose już przypomniałem

Bardzo błądzi, większość jego argumentów została obalona na gruncie logicznym, szczególnie zabawne były wywody o tym, że matematycy ludzcy mają większe możliwości niż komputery. Nic nie wskazuje na to aby mózg był nieobliczalny, ale niekoniecznie znamy wszystkie typy sieci neuronowych. Być może są takie, które pozwalają pojedynczym neuronom wykonywać bardziej złożone obliczenia. Z drugiej strony można dostrzec bardzo analogiczne struktury w mózgu jak wizualizację wag w głębokich sieciach neuronowych wytrenowanych dla obrazów. Zatem istota została uchwycona.

39 minut temu, darekp napisał:

Sam nie mam do czynienia z AI w pracy, a w domu jakoś trudno znaleźć czas, żeby się tym pobawić i wyrobić sobie jakieś własne zdanie.

Inteligencja to emergentne i stosunkowo proste zjawisko - inaczej dobór naturalny by go nie odkrył! Ostatnie lata uświadomiły, że ilość przechodzi w jakość - praktyczne sieci neuronowe mają wagi o rozmiarach setek megabajtów i więcej.Nawet prosta sieć szachowa ma kilkadziesiąt megabajtów. Wykorzystuje się wsadowe przetwarzanie (np. klasyfikacja wielu zdjęć na raz), bo to przesłanie wag do obliczeń jest wąskim gardłem, a nie danych do analizy. W ten sposób widać, że fizyczna reprezentacja sieci jest bardzo wydajna - wagi zostają w miejscu a przesyła się tylko aktualny stan obliczeń.  Jeśli chcemy znaleźć nowe efektywne architektury sieci neuronowych, to kluczem jest analizowanie miniaturowych mózgów owadów - ciężko pobić ich wydajność, a ich zadania jakościowo nie różnią się od tych z bardziej złożonych zwierząt. Neuronowy paradygmat obliczeń jest wydajny nawet na poziomie bramek logicznych i zwykłej elektroniki - w procesorach stosuje się od niedawna predykcję rozgałęzień wykorzystującą perceptrony - całkiem nietrywialne zadanie które musi być wykonane w czasie rzędu pojedynczych taktów procesora.
 

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
49 minut temu, peceed napisał:

Bardzo błądzi, większość jego argumentów została obalona na gruncie logicznym

Czyli IMHO nie została obalona, bo tu pewnie nie chodzi o logikę znaną z matematyki, tylko o różne wywody, które ludzie (mam wrażenie, że częściej panie niż panowie;)) w życiu codziennym lubią opatrywać etykietką "to jest logiczne" ;P

 

49 minut temu, peceed napisał:

szczególnie zabawne były wywody o tym, że matematycy ludzcy mają większe możliwości niż komputery

Mi się wydaje, że w matematyce nadal obowiązuje teza  kogoś (zapomniałem nazwiska), że to co jest łatwe dla człowieka, jest trudne dla maszyny i vice versa. Na dzisiaj chyba nie ma zbyt wielu eleganckich twierdzeń, definicji itp. stworzonych prze maszyny (może to się odmieni w przyszłości, nie zdziwiłbym się, gdyby tak się stało, ale jeszcze nie teraz).

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, darekp napisał:

tylko o różne wywody, które ludzie (mam wrażenie, że częściej panie niż panowie;)) w życiu codziennym lubią opatrywać etykietką "to jest logiczne"

Penrose w swoich wymysłach był wystarczająco precyzyjny aby wskazać na błąd logiczny w rozumowaniu, tego nie można mu odmówić.

4 minuty temu, darekp napisał:

w matematyce nadal obowiązuje teza  kogoś (zapomniałem nazwiska), że to co jest łatwe dla człowieka, jest trudne dla maszyny i vice versa.

Nie ma żadnej teorii matematycznej która miałaby takie twierdzenie :P

Zazwyczaj nikt nie bawił się w tworzenie maszyn które działały gorzej niż człowiek, więc twierdzenie jest bardzo mało odkrywczą konsekwencją tego faktu i okoliczności, że nie wszystkie domeny działalności ludzkiej dawały się łatwo zautomatyzować.
Ograniczając je do świata komputerów wynika to z faktu, że człowiek jest wielką i powolną siecią neuronową, a komputery ekstremalnie szybkimi kalkulatorami.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
38 minut temu, peceed napisał:

Nie ma żadnej teorii matematycznej która miałaby takie twierdzenie :P

OK, źle się wyraziłem, teza, że dla maszyny jest łatwe to co trudne dla człowieka i na odwrót nie jest twierdzeniem matematycznym, tylko obserwacją dotyczącą komputerów w ogóle, ale chyba zrozumiałeś, więc nie rozpisuję się dokładniej :)

 

38 minut temu, peceed napisał:

Penrose w swoich wymysłach był wystarczająco precyzyjny aby wskazać na błąd logiczny w rozumowaniu, tego nie można mu odmówić.

Nie wiem, co masz na myśli, ja mam jakąś skłonność (pewnie jestem w mniejszości) do traktowania logiki jako czegoś bardzo solidnego, poważnego i np. to co jest nazywane logiką przez filozofów (albo ludzi w mowie potocznej) dla mnie wcale nie jest logiką, jest nadużywaniem tego słowa. Tak że proszę o wyjaśnienie, co masz na myśli jeśli chodzi o ew. błędy logiczne Penrose'a lub kogoś innego, bo nie zdołam wykombinować samodzielnie:)

Godzinę temu, peceed napisał:

Inteligencja to emergentne i stosunkowo proste zjawisko

Zawsze z tą emergencją mam problem, jeśli są jakieś sytuacje, że coś nowego jakościowo może powstać z zebrania do kupy dużej ilości prostych składników, to trzeba by je (te sytuacje) dokładnie zbadać, żeby dało się zrozumieć. A może po prostu nie ma takich sytuacji.

Godzinę temu, peceed napisał:

Ostatnie lata uświadomiły, że ilość przechodzi w jakość

Jak wyżej.

Może i tak jest, że Penrose nie ma racji itp. ale jak dla mnie na dzień dzisiejszy brakuje jakiegoś przekonywującego/rozstrzygającego argumentu.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 hours ago, peceed said:

1) Każdy silnik szachowy jest AI z definicji. Po prostu szachy padły ofiarą zjawiska, że jak już jakaś dziedzina stała się osiągalna dla komputerów to przestaje być AI stając się zwykłym softwarem.
2) Oczywiście że programy szachowe wykorzystują sieci neuronowe. Na poważnie zaczęło się od AlphaZero, potem powstał jego znacznie udoskonalony klon (jest obecnie silniejszy od oryginału) Lila Chess Zero,  a w końcu Stockfish i praktycznie cała licząca się reszta dostała funkcję oceny wykorzystującą bardzo szybkie sieci neuronowe NNUE.
Stockfish jest w stanie analizować za ich pomocą kilkadziesiąt milionów pozycji na sekundę (tak naprawdę kilka milionów sieciami a resztę swoją starą funkcją oceny).

Rzeczywiście w ostatniej wersji Stockfish 12 z lipca 2020  zastosowano sieci neuronowe. Chociaż poprzednie wersje wykorzystywały algorytmy heurystyczne, to jednak Stockfish wygrywał większość zawodów silników szachowych przez ostatnią dekadę. Ponadto Stockfish z siecią neuronową może być silniejszy od poprzednich wersji lecz wolniejszy.

What is the algorithm behind Stockfish, the chess engine? - Quora

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Qion napisał:

Rzeczywiście w ostatniej wersji Stockfish 12 z lipca 2020  zastosowano sieci neuronowe.

Była dostępna jako rozszerzenie w wersji 11.

3 godziny temu, Qion napisał:

Chociaż poprzednie wersje wykorzystywały algorytmy heurystyczne, to jednak Stockfish wygrywał większość zawodów silników szachowych przez ostatnią dekadę.

Ale tym właśnie jest sieć neuronowa - heurystyką. Ponieważ nie jesteśmy w stanie miały przeanalizować drzewa gry do końca przez większość czasu, do przybliżonej analizy drzewa gry stosuje się alfa -beta pruning (np. Stockfish) albo monte-carlo (np. Komodo), alfa-beta jest wydajniejszy dla szachów gdy mamy dostatecznie dużą ilość analizowanych pozycji (analiza taktyczna nie ma błędów). W pewnym momencie trzeba posilić się funkcją oceny - czy ta pozycja "na oko" wygląda dobrze. Dla przykładu patrzy się (bez zaawansowanych zabaw z drzewami gry) który ruch daje najlepszą heurystyczną ocenę pozycji po 3 ruchach w przód przy najlepszej możliwej grze przeciwnika.  Funkcje oceny miały postać prostych punktacji za składowe, podstawą jest materiał: - pion to 1 punkt, hetman - 10. I takiej skali używa się cały czas, ze względu na wygodę. Te funkcje przyznawały punkty dodatnie i ujemne za ocenę różnych aspektów pozycji. Oczywiście można w danej pozycji przegrać lub wygrać (-/+ nieskończoność).
Sieć neuronowa robi dokładnie to samo, tylko zamiast korzystać z napisanych przez człowieka algorytmów aproksymuje zbiór uczący złożony z setek tysięcy i milionów partii, a dokładnie dla prawdziwych pozycji osiągniętych podczas partii (to rozsądne ograniczenie zbioru uczącego) liczy się dokładne ewaluacje pozycji wykorzystujące miliony ruchów i ta ocena jest oceną którą sieć neuronowa wykorzystuje do nauki. W przypadku sieci neuronowych alpha-zero i lila-chess-zero podstawą do oceny pozycji była własna sieć neuronowa, na początku nienauczona, czyli starano się uzyskać taką sieć neuronową, której heurystyka  jest najbardziej zgodna z analizą kontynuacji (monte -carlo) uzyskaną za pomocą tej właśnie heurystyki. Czyli na początku trzeba polegać na rezultatach wygrana/przegrana (to jedyna wiedza dostarczana z zewnątrz, więcej niż reklamowane Zero),  to jedyna heurystyka która działa w nienauczonej sieci, a gdy ta osiąga już jakąś sprawność to analiza kontynuacji pozwala na wzmacnianie swojej jakości. Maksimum jest zgodność funkcji neuronowej z analizą alfa-beta korzystającą z tej funkcji neuronowej jako heurystyki. 
Istnieją podejrzenia, że tak uczona sieć utyka w minimum lokalnym i dlatego obecnie próbuje się uczyć Lilę nie na podstawie oceny własnych partii tylko tych z silniejszego Stockfisha (trzeba uczyć się od lepszych od siebie ;) ).
Stockfish korzysta ze sieci neuronowych tylko w sytuacji, kiedy klasyczna funkcja oceny daje bardzo równe wyniki w porównaniu do przeciwnika, ale do ich nauki również wykorzystuje siebie (bo nie ma nic lepszego).

8 godzin temu, darekp napisał:

Zawsze z tą emergencją mam problem, jeśli są jakieś sytuacje, że coś nowego jakościowo może powstać z zebrania do kupy dużej ilości prostych składników, to trzeba by je (te sytuacje) dokładnie zbadać, żeby dało się zrozumieć.

Ważną częścią rozumienia jest akceptacja, że tak po prostu jest. Teraz wiemy że sieci neuronowe działają niezależnie od drobnych detali ich budowy, te okazały się nieważne.

Regularna macierz światłoczuła działa rónie dobrze jak nieregularna siatkówka.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minutes ago, peceed said:

Ale tym właśnie jest sieć neuronowa - heurystyką. Ponieważ nie jesteśmy w stanie miały przeanalizować drzewa gry do końca przez większość czasu, do przybliżonej analizy drzewa gry stosuje się alfa -beta pruning (np. Stockfish) albo monte-carlo (np. Komodo), alfa-beta jest wydajniejszy dla szachów gdy mamy dostatecznie dużą ilość analizowanych pozycji (analiza taktyczna nie ma błędów). W pewnym momencie trzeba posilić się funkcją oceny - czy ta pozycja "na oko" wygląda dobrze. Dla przykładu patrzy się (bez zaawansowanych zabaw z drzewami gry) który ruch daje najlepszą heurystyczną ocenę pozycji po 3 ruchach w przód przy najlepszej możliwej grze przeciwnika.  Funkcje oceny miały postać prostych punktacji za składowe, podstawą jest materiał: - pion to 1 punkt, hetman - 10. I takiej skali używa się cały czas, ze względu na wygodę. Te funkcje przyznawały punkty dodatnie i ujemne za ocenę różnych aspektów pozycji. Oczywiście można w danej pozycji przegrać lub wygrać (-/+ nieskończoność).
Sieć neuronowa robi dokładnie to samo, tylko zamiast korzystać z napisanych przez człowieka algorytmów aproksymuje zbiór uczący złożony z setek tysięcy i milionów partii, a dokładnie dla prawdziwych pozycji osiągniętych podczas partii (to rozsądne ograniczenie zbioru uczącego) liczy się dokładne ewaluacje pozycji wykorzystujące miliony ruchów i ta ocena jest oceną którą sieć neuronowa wykorzystuje do nauki.

Zgoda, heurystyka jest rodzajem algorytmu posiadającymi cechy sztucznej inteligencji, lecz nie jest tym samym co sieć neuronowa. Dopiero w Stockfish 12 została zastosowania

ucząca sieć neuronowa, która umożliwia osiągnięcie przez ten silnik 10x większej liczby zwycięstw niż w przypadku poprzednich wersji, które przecież korzystają z algorytmów heurystycznych, to jednak są mniej "inteligentne".

https://en.wikipedia.org/wiki/Efficiently_updatable_neural_network 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, Qion napisał:

ucząca sieć neuronowa, która umożliwia osiągnięcie przez ten silnik 10x większej liczby zwycięstw niż w przypadku poprzednich wersji, które przecież korzystają z algorytmów heurystycznych, to jednak są mniej "inteligentne".

Lepiej powiedzieć - efektywne. Nie ma problemu, aby sieć neuronowa została podzielona na sekcje które liczą niezależne składowe klasycznej ewaluacji Stockfisha,  ale z punktu widzenia sieci jest to niepotrzebne ograniczenie działania. "Nauczony" algorytm może być efektywniejszy od "zaprojektowanego", ale to ten zaprojektowany liczy się znacnie szybciej bezośrednio na procesorze.
Tak naprawdę to Stockfish 12 korzysta z obu funkcji oceny, jest hybrydowy.
Nie wiem, czy ktoś robił porównanie jakości działania czystej heurystyki neuronowej w porównaniu z klasyczną (strzelam że klasyczna znacznie przegrywa), ale neuronowa przegrywa z hybrydową (bo inaczej nie stosowano by hybrydy).

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...