Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów

Rekomendowane odpowiedzi

Firma DeepMind, której system sztucznej inteligencji zdobył rozgłos pokonując mistrza Go, a niedawno zapowiedział rewolucję na polu nauk biologicznych, poszła o krok dalej. Stworzyła system MuZero, który uczy się zasad gry od podstaw, bez żadnych informacji wstępnych. Celem DeepMind jest spowodowanie, by MuZero uczył się tak, jak robi to dziecko, metodą prób i błędów.

MuZero rozpoczyna naukę reguł gry od spróbowania jakiegoś działania. Później próbuje czegoś innego. Jednocześnie sprawdza, czy jego działanie jest dozwolone i jaki jest jego skutek. Do dalszej pracy wybiera te z działań, które przynoszą najlepszy rezultat. W szachach będzie to doprowadzenie do szach-mata, w Pac-Manie zaś połknięcie kropki. Następnie algorytm tak zmienia swoje działania by pożądane rezultaty osiągnąć najniższym kosztem. Taki sposób nauki, poprzez obserwację, jest idealną metodą w przypadku SI. Chcemy bowiem zadać sztucznej inteligencji pytania i poprosić o rozwiązywanie problemów, których nie można łatwo zdefiniować. Ponadto w świecie rzeczywistym, gdzie nie obowiązują stałe i jasne reguły gry, SI co chwila będzie napotykała na przeszkody, z którymi musi sobie poradzić.

Obecnie MuZero uczy się kompresji wideo. W przypadku AlphaZero nauczenie się tego zadania byłoby bardzo kosztowne, mówią autorzy algorytmu. Już teraz zastanawiają się nad wdrożeniem MuZero do nauczenia się jazdy samochodem. Myślą też o zaprzęgnięciu algorytmu do projektowania białek. Przypomnijmy, że siostrzany algorytm AlphaFold udowodnił ostatnio, że świetnie sobie radzi z zawijaniem białek. MuZero mógłby zaś projektować białka od podstaw. Dzięki temu, mając do dyspozycji np. szczegółową wiedzę o wirusie czy bakterii, którą białko ma niszczyć, byłby w stanie zaprojektować nowe lekarstwa.

MuZero, dzięki jednoczesnemu uczeniu się reguł gry i udoskonalaniu swoich działań pracuje znacznie bardziej ekonomicznie, niż jego poprzednicy stworzeni przez DeepMind. Radzi sobie świetnie nawet wówczas, gdy twórcy celowo ograniczą jego możliwości. Podczas nauki zasad Pac-Mana, gdy na każdy rozważany ruch MuZero mógł przeprowadzić nie więcej niż 7 symulacji skutków swoich działań – co jest liczbą zdecydowanie zbyt małą, by rozważyć wszystkie opcje – algorytm i tak całkiem dobrze sobie poradził.

Twórcy MuZero mówią, że taki system potrzebuje sporych mocy obliczeniowych, by nauczyć się zasad. Gdy jednak już je pozna, podejmowanie kolejnych decyzji wymaga już tak niewielu obliczeń, że całe działania mogą być przeprowadzone na smartfonie. Jednak nawet nauka nie jest bardzo wymagająca. MuZero nauczył się od podstaw zasad Pac-Mana w ciągu 2-3 tygodni, korzystając przy tym z jednego GPU, mówi Julian Schrittwieser, jeden ze współautorów algorytmu.

Jednym z elementów powodujących, że wymagania MuZero są nieduże w porównaniu z innymi systemami jest fakt, iż algorytm bierze pod uwagę tylko elementy istotne w procesie podejmowania decyzji. Wiedza, że parasol ochroni cię przed deszczem jest bardziej użyteczna, niż umiejętność modelowania ruchu kropel wody w powietrzu, czytamy w oświadczeniu DeepMind.

Celem twórców MuZero jest spowodowanie, by ich system potrafił odrzucić wszystko to, co w danym momencie nie jest potrzebne, by skupił się na kwestiach istotnych. Mówią tutaj o dziecku, które po zaledwie kilkukrotnym doświadczeniu jest w stanie generalizować wiedzę na dany temat i połączyć np. kroplę wody z potężnym wodospadem, widząc powiązanie pomiędzy nimi.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Szlag by ich trafił. Wymyślą wszystko przede mną. Człowiek się tu męczy, a Ci "se robią".... ;)

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 24.12.2020 o 12:25, KopalniaWiedzy.pl napisał:

Celem twórców MuZero jest spowodowanie, by ich system potrafił odrzucić wszystko to, co w danym momencie nie jest potrzebne, by skupił się na kwestiach istotnych. Mówią tutaj o dziecku, które po zaledwie kilkukrotnym doświadczeniu jest w stanie generalizować wiedzę na dany temat i połączyć np. kroplę wody z potężnym wodospadem, widząc powiązanie pomiędzy nimi.

Czyli chodzi o efektywne myślenie abstrakcyjne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
On 12/24/2020 at 6:51 PM, radar said:

Szlag by ich trafił. Wymyślą wszystko przede mną. Człowiek się tu męczy, a Ci "se robią".... ;)

Trudno przebić skalę Google. Zatrudniają tylko najlepszych ludzi, a chętnych nie brakuje, bo płacą bardzo dobrze. W Deepmind nad AlphaStar, AI które ograło kilku pro-gamerów w StarCraft 2, pracowało jakieś 80 osób przez kilka lat.

Brałem kiedyś udział w seriach rekrutacyjnych, nie do Google, ale do kilku porównywalnych firm. To jest norma, że ma się 6-10 interview i wałkują z każdego możliwego tematu, a jak którykolwiek z biorących udział ma choćby najmniejsze wątpliwości, to się wylatuje na aut. Sam proces jest jednak bardzo profesjonalny. Jest to męczące, chociaż do zrobienia, nawet jak ktoś ma braki. Trzeba tylko mocno się przyłożyć do roboty na wiele miesięcy, no i profilaktycznie brać prozac w dużych ilościach :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No, wreszcie to o czym piszę od kilku lat, proces samooceniania. Kolejnym krokiem jest dodanie procesu "wyobrażania" sobie - czyli symulacji swoich ruchów. Jeśli to będzie rozwinięte to będzie można mówić o maszynach mających świadomość i inteligencję. Tak naprawdę to jest podejście humanistyczne w programowaniu i wreszcie ktoś to zaczął wdrażać - bo ludzie myślący algorytmami niestety mają małe pojęcie o humanistyce. Myślą że są w stanie wszystko analizować "matematycznie" ale tak nie jest. Potrzebna jest współpraca i wzajemne zaufanie bo humaniści oczywiście nie potrafią myśleć algorytmicznie. W żadnym wypadku nie jest to ujma - tylko specjalizacja. Ale trzeba ją przyjąć i zaakceptować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Ergo Sum napisał:

No, wreszcie ...Kolejnym krokiem jest dodanie procesu "wyobrażania" sobie - ...Tak naprawdę to jest podejście humanistyczne w programowaniu i wreszcie ktoś to zaczął wdrażać - bo ludzie myślący algorytmami niestety mają małe pojęcie o humanistyce.

Niestety, ale nie masz pojęcia o czym mówisz, w kontekście tego artykułu i kierunku prac :)

Godzinę temu, Ergo Sum napisał:

Myślą że są w stanie wszystko analizować "matematycznie" ale tak nie jest.

Tak niestety na razie jest. Nic z rzeczy, które opisujesz powyżej nie byłoby możliwe bez "algorytmów" i matematyki (głównie statystyki). Problemem nie jest to, że programiści nie mają pojęcia o humanistyce, tylko, że nikt na razie nie wie jak "humanistykę wytłumaczyć" maszynom.

10 godzin temu, cyjanobakteria napisał:

Trzeba tylko mocno się przyłożyć do roboty na wiele miesięcy, no i profilaktycznie brać prozac w dużych ilościach

Paaanie, jak ja bym chciał tam pracować to już bym tam pracował, ale wolę jednak pracować na własny rachunek. Problem polega na tym, że jest tam grupa na prawdę inteligentnych ludzi z możliwościami, ale teraz, bez zaglądania do google, wymień mi kilka "czołowych" nazwisk z tej 80 osobowej grupy, które przyczyniły się do sukcesu AlphaStar... albo AlphaGo, czy AlphaZero... hę? Tylko bez oszukiwania ;) Czy może jedyne co wiemy to to, że "google to, google tamto", ewentualnie DeepMind

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

Problemem nie jest to, że programiści nie mają pojęcia o humanistyce, tylko, że nikt na razie nie wie jak "humanistykę wytłumaczyć" maszynom.

No jak to? Przecież już wiemy, że to macierz wag. Zgodnie z prawem przechodzenia ilości w jakość, duża macierz może stać się humanistką i odmówić liczenia całek. Żart ale nie całkiem. Ponieważ nie wiemy jak działa inteligencja próbujemy ja naśladować. Tak długo potrząsamy pudełkiem, aż wzór zacznie mieć sens - dla mnie AI to czyste lenistwo H.S. in statu nascendi :D

Przy okazji: w tej chwili uczę model rozpoznawania numeru detalu na taśmie i muszę powiedzieć, że to Rzymianie mieli rację, nie Arabowie. Cyfry 3, 5, 6,  8, 9 stanowią poważny problem - sztuczna głupota łatwo je ze sobą myli, zwłaszcza gdy brakuje części cyfry, czy kąt patrzenia jest zbyt ostry, lub napis jest rozmazany. Z III, V, VI, VIII, IX nie miałbym takiego problemu. Z dokładnością do odstępów VIII i V III :D 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 26.12.2020 o 13:34, Jajcenty napisał:

Przy okazji: w tej chwili uczę model rozpoznawania numeru detalu na taśmie

I z czego korzystasz? DL? Jakie accuracy na razie? :)

W dniu 26.12.2020 o 13:34, Jajcenty napisał:

zwłaszcza gdy brakuje części cyfry, czy kąt patrzenia jest zbyt ostry, lub napis jest rozmazany.

Wydaje się, że i rzymskie by w takich przypadkach niewiele pomogly. Różnica między VIII i VII nie jest chyba taka znacząca. Może enseble Ci pomoże? Co n głów to nie jedna ;)

 

Edytowane przez radar
  • Dzięki! (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
32 minuty temu, radar napisał:

I z czego korzystasz? DL? Jakie accuracy na razie?

YOLO v4, mAP ~93% ale numer detalu zawiera cyfrę kontrolną więc jest dużo łatwiej i można skonstruować poprawny numer z kliku klatek. Zwykle mam 4-8 klatek z widocznym numerem - coś można z tego 'przez odgaść' wycisnąć. Przy okazji zabawna historia, nie ustawiłem flip=0 i litera M rozpoznawana jest jako 11 - jedynka i jej lustrzane odbicie. Sztuczna inteligencja potrafi być absurdalnie konsekwentna. Włoski strajk, to jej drugie imię :D 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Już jest niby v5 i jakaś implementacja v3. Bawiłem się przez chwilę v4 w czerwcu jak wyszło. Nawet fajnie to chodzi (na moim 1070Ti), ale że pracowałem głównie nad NLP i rozpoznawaniem wzorców to odstawiłem to i potem zapomniałem :) Aż z ciekawości muszę wrócić do tego i potestować więcej. Przyda się do mojego domowego Jarvisa ;)

Na czym to rozpoznajesz na tej taśmie (hardware)?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, radar napisał:

Na czym to rozpoznajesz na tej taśmie (hardware)?

O tu bieda: maszyna chodzi na 16 rdzeniach CPU mam jakieś 800 ms / ramkę czyli 1.2 fps. Słabo, ale klientowi wystarcza.  Do uczenia dostałem 1080ti i też nie ma rewelacji. 30K iteracji trwa ponad 60 godzin, detekcja to około 3fps - strasznie rozczarowujące. Nie wiem na czym ludzie dostają te 30 fpsów, K80? RTX30*?

23 minuty temu, radar napisał:

Już jest niby v5

Wokół v5 są kontrowersje. Generalnie opinie są takie, że to pomigane v3 i nie zasługuje na własny numer główny. Nie miałem czasu się w to wgłębiać. Poczekam aż się wyklaruje.

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
36 minut temu, Jajcenty napisał:

dostałem 1080ti...to około 3fps

To jakoś bardzo mało. Może spróbuj z mniejszym modelem, albo rodzielczość obrazu masz jakąś dużą z jakimś dużym preprocessingiem na początku? Bo 1.2 fps na CPU vs. 3 fps na 1080Ti sugerowałoby, że zadanie się słabo zrównolegla.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
35 minut temu, radar napisał:

albo rodzielczość obrazu masz jakąś dużą

Tak :D 640x640 - mam małe cyferki do rozpoznania, więc niżej nie zejdę. Chwalenie się 30 fps przy 416x416 w dobie powszechności 4K uważam, za przesadzone. ;) Zadanie się świetnie skaluje na rdzenie, 100% na wszystkich rdzeniach - sprawdzone na 32 :D ale najwięcej daje włączenie intelowskiego SSE - to podzieliło czas przez dziesięć. Pierwszy wynik miałem 18 sekund na ramkę :D - wyobraź sobie moje zdumienie jak to zobaczyłem. Zamarłem i na palcach liczyłem ile to jest te 18345.1234 ms.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
40 minut temu, Astro napisał:

Pomyśleć, że jeszcze nie tak dawno ludzie stosując CGA powszechnie się rozumieli... ;)

Kto jak kto, ale Ty chyba najlepiej wiesz jak ważna jest rozdzielczość. Jak cyfra ma 4x4 piksele to jej cechy szczególne są dawno niebyłe. 

 

48 minut temu, Astro napisał:

P.S. 16, 32, 64... Czy na 128 rdzeniach PRAWDA jest bardziej prawdziwsza?

Oj widze na filozofię Cię wzięło. Zasadniczo nie. Wyniki zwykle pojawiają się szybciej, ale w dalszym ciągu na ostatnim neuronie chodzi sigmoid https://en.wikipedia.org/wiki/Sigmoid_function , a to daje odpowiedzi zawsze mniejsze od 1. Dodatkowo model jest deterministyczny. My rzemieślnicy za prawdę uważamy 0.25 - tak mam próg ustawiony w poszukiwaniu cyferek na obrazku. 

54 minuty temu, Astro napisał:

szacun, zwłaszcza jak ma się 16

Klient przeznaczył 16 na projekt. Ja dostałem 32 do innego przedsięwzięcia. W dobie maszyn wirtualnych to jeden ruch myszą dla kumpla od serwerów. Mam nadzieję, że nie zarzucasz mi konfabulacji czy koloryzowania?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Astro napisał:

Drogi Jajcenty, jakbym śmiał? Zwyczajnie zostałem na epoce wyciskania na maksa czegokolwiek z 4x4 piksele. ;)

Kiedyś bawiłem się trochę w https://www.zooniverse.org/projects/sundial-itn/space-fluff/classify i nie uszło mej uwadze jak niewiele pikseli astronomom potrzeba do szczęścia. Niestety w mojej pracy tak się nie da.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Astro napisał:

Wierz mi, że naprawdę bylibyśmy wniebowzięci z większej ilości pikseli, ale się nie da. Fizyka.

E tam, pogadajcie z Muskiem. Postawi wam zwierciadła w punktach Lagrange'a i rozdzielczość skoczy. Tylko pewnie STW i OTW będą mieszać z czasem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 26.12.2020 o 01:40, cyjanobakteria napisał:

no i profilaktycznie brać prozac w dużych ilościach :)

Bardzo głupi pomysł, SSRI na dłuższą metę obniżają zdolności intelektualne, przynajmniej w dawkach terapeutycznych.

W dniu 26.12.2020 o 10:54, Ergo Sum napisał:

bo ludzie myślący algorytmami niestety mają małe pojęcie o humanistyce

Ja bym powiedział że wręcz przeciwnie - ludzie "myślący algorytmami" mają znakomite pojęcie o problemach humanistyki :P
Przede wszystkim - przerost formy nad treścią i zastępowanie myślenia luźnym błądzeniem myśli sterowanym emocjami.

W dniu 26.12.2020 o 10:54, Ergo Sum napisał:

Potrzebna jest współpraca i wzajemne zaufanie bo humaniści oczywiście nie potrafią myśleć algorytmicznie.

Wszyscy myślą algorytmicznie w podobnym stopniu. Ba, to humaniści oczekują "algorytmów na myślenie" do rozwiązywania skomplikowanych zadań ścisłych,  które mogliby zapamiętać i stosować tymczasem właśnie ścisłowcy rozumieją te zagadnienia w pełni intuicyjnie.
P.S. Nie spotkałem się ze ścisłowcami mającymi problemy z posługiwaniem się językiem. Ludzie łatwo zapominają że Mickiewicz był matematykiem.

 


 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, peceed said:

Bardzo głupi pomysł, SSRI na dłuższą metę obniżają zdolności intelektualne, przynajmniej w dawkach terapeutycznych.

Prozac do tego zdaje się miał poważne skutki uboczne, ale to był dowcip ;) Nie jestem lekarzem ani farmaceutą w myśl ustawy o lekarzach i farmaceutach oraz nie biorę odpowiedzialności za niczyją głupotę :) Chodziło mi o to, że takie maratony rekrutacyjne wyczerpują i mogą zdołować.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, peceed napisał:

Nie spotkałem się ze ścisłowcami mającymi problemy z posługiwaniem się językiem.

Hmm... od zawsze jestem wrednie ścisłym ściślakiem. I od zawsze też mam duże problemy z językami. Totalny antytalent. Napisanie kilku zdań to dla mnie coś na pograniczu tortury. Czytam w kilkunastu językach, ale czynnie używać ich nie potrafię, no może z niewielkimi wyjątkami na zasadzie "Kali chcieć jeść" (z polskim też kiepsko, dlatego różne wynalazki, chociaż w tym jest też trochę zabawy). Wzory, schematy, tabele i co tam jeszcze ok., słowa nie. Pod czaszką nie mam słów, tylko jakieś struktury, zależności, które cholernie trudno mi przerobić na słowa, zdania - szczególnie napisane, bo w rozmowie trochę łatwiej, zwłaszcza kiedy na kartce mogę bazgrać jakieś wzory czy schematy :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 minutes ago, Astro said:

Była to rzeka Hudson. Pływały w niej karpie wielkie jak atomowe łodzie podwodne.

Nie przesadzaj z tymi karpiami. Jakbyś napisał, że były wielkie jak 737, to bym jeszcze uwierzył :)

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, ex nihilo napisał:

Pod czaszką nie mam słów, tylko jakieś struktury, zależności, które cholernie trudno mi przerobić na słowa, zdania

Miałem dokładnie tak samo - reprezentacja wiedzy była na pewnym poziomie czysto semantyczna, z tym że nie miałem problemu z opisem wniosków za pomocą słów. Za to u humanistów wszystko zdaje składać się ze słów, do tego stopnia,  że u niektórych synonimy i homonimy są mechanizmami wnioskowania (tzn. przeskoki pomiędzy nimi) :P
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, peceed napisał:

nie miałem problemu z opisem wniosków za pomocą słów

Opis "gołych" wniosków zwykle nie wielkim problemem, gorzej, kiedy te wnioski trzeba uzasadnić, wtedy wychodzi niezgodność struktury myślenia ze strukturą tekstu. Ale w ogóle słowa są dla mnie narzędziem cholernie niewygodnym.
 

10 godzin temu, peceed napisał:

Za to u humanistów wszystko zdaje składać się ze słów, do tego stopnia,  że u niektórych synonimy i homonimy są mechanizmami wnioskowania (tzn. przeskoki pomiędzy nimi)

:D Z humanistami niewiele miałem do czynienia, znacznie więcej z humanistkami. Potwierdzam to, co napisałeś, ale najgorsze jest, że słowa mają diabelską siłę programowania/ograniczania wyobraźni. Dotyczy to zresztą nie tylko humanistów/humanistek, bo nawet w fizyce ten problem też istnieje.

Edytowane przez ex nihilo
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Plus za ostatnie 2 zdania:

14 godzin temu, ex nihilo napisał:

Potwierdzam to, co napisałeś, ale najgorsze jest, że słowa mają diabelską siłę programowania/ograniczania wyobraźni. Dotyczy to zresztą nie tylko humanistów/humanistek, bo nawet w fizyce ten problem też istnieje.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jestem ciekaw, czy program wykorzystujący algorytmy AI byłby w stanie pokonać najlepszy obecnie silnik szachowy jakim jest Stockfish. Nawet mistrz świata Magnus Carlsen nie ma z nim szans na wygranie. Dzisiejsze programy szachowe nie wykorzystują algorytmów neuronowych, lecz analizują miliony kombinacji na wiele posunięć do przodu.  Przyporządkowują każdej odpowiednią ocenę punktową, a następnie dokonują wyboru możliwie najlepszej kontynuacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 28.12.2020 o 16:41, peceed napisał:

Ja bym powiedział że wręcz przeciwnie - ludzie "myślący algorytmami" mają znakomite pojęcie o problemach humanistyki :P
Przede wszystkim - przerost formy nad treścią i zastępowanie myślenia luźnym błądzeniem myśli sterowanym emocjami.

Wszyscy myślą algorytmicznie w podobnym stopniu. Ba, to humaniści oczekują "algorytmów na myślenie" do rozwiązywania skomplikowanych zadań ścisłych,  które mogliby zapamiętać i stosować tymczasem właśnie ścisłowcy rozumieją te zagadnienia w pełni intuicyjnie.
P.S. Nie spotkałem się ze ścisłowcami mającymi problemy z posługiwaniem się językiem. Ludzie łatwo zapominają że Mickiewicz był matematykiem.

No .. i właśnie to jest doskonały przykład tego że informatycy totalnie nie wiedzą co jest zakresem humanistyki. Nie, nie jest to tylko język i luźne błądzenie. Określając tak procesy społeczne czy psychologiczne wykazujesz że tego po prostu nie rozumiesz. Właśnie ten sam błąd popełniają informatycy i właśnie dokłdnie ten błąd jest podstawą dlaczego  algorytmy "AI" nie są "I".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...