Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

SI powinna mieć wbudowaną ograniczoną wiarę we własne możliwości

Rekomendowane odpowiedzi

Wiara we własne możliwości jest cechą zdecydowanie dobrą, o ile wiemy, gdzie są granice i kiedy należy poprosić o pomoc. Eksperci proponują, by mechanizm oceny własnych umiejętności, wiary w siebie, wbudować w maszyny. W obliczu szybkiego rozwoju sztucznej inteligencji pozwoli nam to je lepiej kontrolować.

Zbyt pewna siebie maszyna może sprawić sporo problemów, uważa Dylan Hadfield-Menell z Uniwersytetu Kalifornijskiego w Berkeley. Podaje tutaj przykład serwisów społecznościowych, których algorytmy szybko rozprzestrzeniają nieprawdziwe informacje. Brak im bowiem mechanizmów samokontroli, wystarczy zatem, że algorytm oceni, iż dany tekst będzie interesował użytkowników, by im go wyświetlać. W przypadku sztucznej inteligencji zbytnia wiara we własne siły i możliwości może sprawić nam wiele kłopotów.

Naukowcy z Berkeley stworzyli matematyczny mogel interakcji pomiędzy człowiekiem a maszyną, który nazwali „grą przycisku do wyłączania” (off-switch game). W tej teoretycznej grze robot posiada przycisk, którym można go wyłączyć. Człowiek może nacisnąć go w każdej chwili i zatrzymać maszynę, ale robot ma możliwość unieruchomienia przycisku tak, by człowiek nie był w stanie z niego skorzystać. Roboty ze zbyt dużym zaufaniem do samych siebie nigdy nie pozwolą człowiekowi na skorzystanie z przycisku, gdyż uznają, że wykonują zadanie poprawnie, a ich osąd jest lepszy od osądu człowieka. Z kolei robot ze zbyt małą wiarą w swoje możliwości zawsze pozostawi przycisk aktywnym, nawet, gdy będzie bardzo dobrze wykonywał powierzone zadania.

Hadfield-Menell uważa, że powinniśmy dobrze przemyśleć, ile wiary we własne możliwości wbudujemy w maszyny. Podaje przykład autonomicznego samochodu, który ma zawieźć dziecko do szkoły. Taki samochód, jego zdaniem, nigdy nie powinien pozwolić, by dziecko przejęło nad nim kontrolę. Jednak dorosły powinien mieć taką możliwość.

Wizerunek robota odmawiającego człowiekowi możliwości wyłączenia go może wydawać się bardzo odległą fantazją, jednak – jak zauważa Marta Kwiatkowska z Uniwersytetu w Oksfordzie – już teraz powinniśmy rozważać takie scenariusze. Autonomiczne samochody czy cybernetyczni strażacy będą podejmowali decyzje, od których będzie zależało ludzkie życie. Dlatego, zdaniem Kwiatkowskiej, musimy wbudować w nie zasady etyczne.

Sam Hadfield-Menell chce zbadać, w jaki sposób będą zmieniały się decyzje podejmowane przez roboty, gdy maszyny będą miały dostęp do większej ilości informacji i lepiej będą mogły ocenić swoją użyteczność. Na przykład automat do kawy może uznać wykonywane przez siebie zadania za ważniejsze rano niż wieczorem.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ta SI nie będzie wystarczająco inteligentna, żeby sama ocenić swoje możliwości i zobaczyć, że są ograniczone? ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

To ta SI nie będzie wystarczająco inteligentna, żeby sama ocenić swoje możliwości i zobaczyć, że są ograniczone?

trzeba by zaszczepić świadomość i jaźń takiej maszynie żeby to mogła pojąć. ale dla istnienia SI chyba nie jest to konieczne a dla ludzi byłoby wręcz szkodliwe, więc chyba nikt nad czymś takim nie będzie pracował. no chyba że wyjdzie "niechcący" jak wiele wynalazków w naszych dziejach :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Od dawna powtarzam, że AI potrzebuje etyki. Ale dopiero gdy to napisała jakaś "prof" to uznajecie że to słuszne.Nie piszę tego "no bo tak" lecz jest to wynik wielu obserwacji i przemyśleń, nigdy też nie napisałem że nie jestem "prof." ani "z Uniwersytetu z ....". Jeśli ktoś coś powiedział po raz pierwszy (i zrobił to świadomie i celowo) to on jest autorem kwestii a nie pani prof z Oxfordu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rozważania dla samych rozważań. Piszą o automatach na FB, o kierowaniu samochodów itd. a to są własnie "automaty"(bardzo przydatne zresztą) i nie ma tu nic wspólnego z wiarą we własne możliwości.

 

(mówię o osobach dorosłych itd.)

Jeżeli jest guzik który z założenia ma wyłączyć automat to nie instaluje się żadnego, wyłącznika wyłącznika pod kontrolą AI, bo zwykły błąd na który "automat" nie był przygotowany może wyłączyć możliwość wyłączenia.

 

przykład FB, przepuszczają takie treści na jakie zostały zaprojektowane do promowania, nie mają analizy czy to jest prawdą czy nie, i znów nie ma to nic wspólnego z wiarą we własne możliwości, te automaty nie mają żadnej wiary, robią to co mają robić, można dorobić kolejne automaty filtrujące które mogą zajmować się weryfikacją. to samo z resztą tyczy się autonomicznych samochodów.

 

 

Całe te rozważania mają sens gdy myślimy o ogólnym totalnie niezależnym AI, co nie zmienia faktu, że dalej wyłącznik powinien być po za jej kontrolą. Jednak zanim dojdziemy to mamy bardzo wyspecjalizowane automaty które robią to co mają robić, lepiej lub gorzej, nic więcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość kremien

Hmm moralność i etyka dla SI? Zapewne SI powstała/powstanie najpierw dla wojska (oni zawsze wszystko mają pierwsze). I zapewne wojskowi będą pierwszymi ojcami zbioru zasad etyki dla robotów. Moze i będzie to księga wielkości biblii, ale trzy najważniejsze zasady są oczywiste:

Zasada pierwsza: Bezwzględne posłuszenstwo wobec przywódców armii

Zasada druga: Najpierw strzelać potem myśleć

Zasada trzecia: Liczy się $ i władza, a nie ekonomia i racjonalność podejmowanych działan 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Astro

 

 

Eksperci proponują, by mechanizm oceny własnych umiejętności, wiary w siebie, wbudować w maszyny.

 

Wzorzec, jak sądzę jest już gotowy. Wystarczy "zeskanować" Misiewicza. Trochę się boję (choć uczucia mam ambiwalentne), bo patrzy, że SI tuż, tuż… ;):D

 

 

 

Od dawna powtarzam, że AI potrzebuje etyki.

 

Można prosić o jakąś algorytmikę etyki?

 

 

 

co nie zmienia faktu, że dalej wyłącznik powinien być po za jej kontrolą

 

Brzmi dobrze. Etaty dla LUDZI, którzy będą trzymać łapę nad guzikiem to zawsze jakaś alternatywa pracy. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Brzmi dobrze. Etaty dla LUDZI, którzy będą trzymać łapę nad guzikiem to zawsze jakaś alternatywa pracy.

 

hm..chyba zbyt dosłownie zrozumiałeś ten "guzik", chodziło tylko o ideę, że w ogóle rozważanie sytuacji, że jakieś zaawansowane AI którego działanie może mieć potężne skutki a zarazem może po prostu być wadliwe, nie ma "guzika" za pomocą którego go można wyłączyć, a dodawanie opcji aby to samo AI (które może być wadliwe) miało możliwość aby ten "guzik" wyłączyć jest jak dla mnie po prostu słabe, że w ogóle ktoś to rozważa.

 

 

 

I zapewne wojskowi będą pierwszymi ojcami zbioru zasad etyki dla robotów. Moze i będzie to księga wielkości biblii, ale trzy najważniejsze zasady są oczywiste: Zasada pierwsza: Bezwzględne posłuszenstwo wobec przywódców armii Zasada druga: Najpierw strzelać potem myśleć Zasada trzecia: Liczy się $ i władza, a nie ekonomia i racjonalność podejmowanych działan 

 

Ja tam w przypadku zastosowań wojskowych, nie widzę, żadnej etyki tylko, cele i założenia, i trzeba je po prostu wykonać i te roboty nic nie wiedzą o $ i władzy.  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem raczej nie leży w maszynie z " dużą wiarą we własne możliwości" a w ludzkim upodobaniu do antrpopomofizacji wszystkiego co nas otacza. Automatom wszelkiej maści , z coraz większym upodobnaniem, staramy się nadać cechy imitujące ludzkie zachowanie. Niestety, jeszcze długo, coś co nazywamy SI, będzie tylko namiastką, a traktowanie jej jako istoty posiadającej emocje i uczucia jest błędem. Niezależnie od złożoności algorytmów i zadań do jakich automat został stworzony, nie można doszukiwać się cech typowo ludzkich. Maszyna nie myśli w naszym rozumieniu. Wykonuje tylko algorytmy napisane przez człowieka, lepiej, lub gorzej symulując inteligencję. Nie można więc powierzyć tym algorytmom decyzji o wyłączeniu się. Nawet najlepiej przetestowany program komputerowy nie jest wolny od dziur i błędów. Poza tym może je spowodować choćby nagła zmiana napięcia napięcia, czy inne trudne do przewidzenia czynniki. Naukowcy powinni się więc skupić nie na maszynach wierzących lub niewierzących w cokolwiek, a na zbytniej wierze ich twórców w swoje możliwości. Bo to właśnie jest głównym niebezpieczeństwem zabawy z autonomicznymi systemami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Astro

Całkowicie się zgadzam. Parafrazując (tak z ułomnej już pamięci) Mistrza, to naprawdę zadziwiające jest, że mózg, który wyewoluował głównie ku temu, by sprawnie przeskakiwać z gałęzi na gałąź, dopadać słabszych i uciekać przed silniejszymi rozwiązywał coś takiego jak równania różniczkowe (wiem, nie wszyscy ;)).

Czy to nie radośnie zabawne, że tak uporczywie staramy się budować maszyny, które całkiem już zręcznie naśladują ludzkie kroki, ludzką mimikę twarzy itp.? Nie prościej wziąć psa ze schroniska? :D

 

Myślę, że zwyczajnie boimy się tego co nieludzkie, a czysta INTELIGENCJA nieludzka być musi…

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wbudowanie wiary w SI? :)
Jeśli będzie SI to samo z siebie będzie miało wiarę :)

Ale owszem dostrzegam dalszy kontekst: chodzi o sprawienie aby to była właściwa wiara.

 

 

Wizerunek robota odmawiającego człowiekowi możliwości wyłączenia go może wydawać się bardzo odległą fantazją

Taka seks lalka mówiąca właścicielowi: "nie".
Obawiam się że to już zapewne ktoś zbudował :D


 

 

Nie prościej wziąć psa ze schroniska?

Też o tym pomyślałem: i wszczepić mu w mózg elektrody które sprawią że będzie się słuchał :D


 

 

Hmm moralność i etyka dla SI? Zapewne SI powstała/powstanie najpierw dla wojska (oni zawsze wszystko mają pierwsze)

Tak piszą ci co wojsko znają z bajek ... :D lub czasów dawnego zsw kiedy w kraju nawet mięso było na kartki.

Ale owszem. Pewne wyjątkowe rzeczy w wojsku mają wcześniej. AI do nich nie należy i należeć nie będzie.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Astro

 

 

Też o tym pomyślałem: i wszczepić mu w mózg elektrody które sprawią że będzie się słuchał :D

 

Słuszna uwaga, ale nie pomyślałeś, że warto byś zaczął od własnych dzieci? 500+ zostaje, a ile spokoju w domu. Proponuję dobrodziejstwo cywilizacji jak pilot. Tyłka z fotela ruszać nie trzeba (w końcu tak bogaty repertuar rzeczywiście "publicznej" TV), pasa z portek odwijać również, a jak zbyt głośno, to guziczek na pilocie. Jak nie zadziała, to plusikiem zwiększasz amperaż i po kłopocie. No i wyrosną "na ludzi". :D

 

 

 

Jeśli będzie SI to samo z siebie będzie miało wiarę :)

 

Bzdura. Jeśli sądzisz inaczej, to zacznijmy od czegoś prościutkiego. DEFINICJĘ inteligencji poproszę. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Roboty po pracy będą musiały chodzić do kościoła. Ksiądz już na pewno im wmówi, że są nic nie warte, grzeszne i wymagają dożywotnio konsultacji z przedstawicielami Kościoła. To taka outsource'owana etyka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...