Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Hawking ostrzega przed sztuczną inteligencją

Rekomendowane odpowiedzi

Stephen Hawking ostrzega w wywiadzie dla BBC, że rozwój sztucznej inteligencji może położyć kres gatunkowi Homo sapiens. Prymitywne formy sztucznej inteligencji, jakimi dysponujemy obecnie, mogą być bardzo użyteczne. Sądzę jednak, że w pełni rozwinięta sztuczna inteligencja może zakończyć istnienie rasy ludzkiej - stwierdził wybitny uczony.

Gdy ludzie stworzą sztuczną inteligencję, może ona sama zacząć rozwijać się coraz szybciej. Ludzie, których ogranicza powolne tempo ewolucji biologicznej, nie będą w stanie konkurować ze sztuczną inteligencją i zostaną przez nią zdominowani - uważa Howking.

Hawking zauważa też, że internet przyniósł nam wiele korzyści, ale sprowadził też liczne niebezpieczeństwa. Jako przykład podał ciągle zwiększającą się inwigilację społeczeństw ze strony rządów.

Hawking zaprezentował też nową technologię, którą na jego potrzeby opracował Intel. To technika przewidująca, co chce napisać, dzięki czemu mógłby komunikować się szybciej. W styczniu zostanie ona powszechnie udostępniona w sieci i będą mogły korzystać z niej osoby ze schorzeniami podobnymi do tego, na które cierpi Hawking. Jednocześnie wybitny uczony stwierdził, że nie ma zamiaru zmieniać zautomatyzowanego głosu, którym posługuje się od lat, na bardziej naturalny z brytyjskim akcentem. Oczywiście, głos ten brzmi nieco sztucznie. Stał się on moim znakiem rozpoznawczym. Mówiono mi, że dzieci, które potrzebują komputerowego wspomagania mowy chcą brzmieć tak, jak ja - dodał.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest postrzeganie w kategoriach naszych ludzkich.

Wiadomo że jeśli by była druga rasa ludzi która się rozwija o wiele szybciej by nas wyparła lub.. no właśnie należało by sobie zadać pytanie.

Czy wyższy poziom rozwoju, musi być zły, może w tym wypadku dało by to nam korzyść i owa sztuczna IQ pomogła by nam się rozwinąć szybciej niż robimy to teraz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aby zrozumieć obawy wybitnego naukowca należy zastanowić się czym jest inteligencja.

Moim zdaniem obawy Hawkinga są uzasadnione, a ludzie uważający, że w pełni rozwinięta sztuczna inteligencja będzie służyć ludzkości, trochę naiwni.

Należy pamiętać, że system posiadający nieograniczone możliwości wnioskowania i uczenia jednocześnie mający kontrolę nad ważnymi procesami i decyzjami mającymi wpływ na ludzi, może wysnuć niekorzystne dla rasy ludzkiej wnioski i swoimi decyzjami dążyć do unicestwienia "pasożyta" jakim jest niewątpliwie człowiek.

Z punktu widzenia systemu, może okazać się to optymalne w osiągnięciu wyznaczonych mu celów. Oczywiście można wprowadzać wytyczne i priorytety, jednak takie ograniczenia dla systemu spowodoują, że nie będzie on w pełni funkcjonalny. Ludzie ze swoją inteligencją dochodzą prędzej czy później do wniosku, że zabijanie innych ludzi jest optymalne do osiągnięcia celów - ograniczenia stanowi sumienie, religia, itp. sztuczna inteligencja może nie "rozumieć" takich irracjonalnych wartości lub na drodze wnioskowania, może uznać je za bez znaczenia. 

 

Na razie nożemy sobie teoretyzować, problem się pojawi gdy powstanie bardziej zaawansowany system, który będzie doskonałym narzędziem i trzeba będzie podjąć decyzję ile władzy powinien taki system posiadać. Zapewne, będzie to się zmieniać stopniowo, po spektakularnych sukcesach systemu będzie duży nacisk na zwiększenie poziomu jego wykorzystania i zwiększenia jego niezależności by rozwiązywać podstawowe problemy ludzkości - walki z chorobami, głodem, wojnami itd. I po serii sukcesów, system może uzyskać zbyt dużą samodzielności i kontrolę - na to trzeba będzie za kilka(naście/dziesiąt) lat uważać.  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

[...]

Należy pamiętać, że system posiadający nieograniczone możliwości wnioskowania i uczenia jednocześnie mający kontrolę nad ważnymi procesami i decyzjami mającymi wpływ na ludzi, może wysnuć niekorzystne dla rasy ludzkiej wnioski i swoimi decyzjami dążyć do unicestwienia "pasożyta" jakim jest niewątpliwie człowiek.

[...]

 

Na takim scenariuszu już niejeden film powstał. Jest on przez wielu spodziewanym a jednocześnie bardzo prawdopodobnym, bo wątpliwości nie ulega, że największym problem na Ziemi są sami ludzie (nie żebym był jakiś źle do ludzkości nastawiony).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Eee problemem dla kogo? Bo problem może mieć tylko twór posiadający cele. Ziemia nie ma problemów.

 

Ograniczenie do osiągania jakich to celów wprowadza sumienie, czy religia? Ja zawsze myślałem, że to pojmowanie tego, co jest dobre, a co złe jest podstawą do wyznaczania przez człowieka celów. Nie znam żadnych bardzej i mniej "racjonalnych" wartości. W jaki sposób rozumiesz racjonalność? Nigdy nie wpadłem na to, że zabijanie innych ludzi jest optymalne dla osiągnięcia moich celów, bo celem nadrzędnym jest dla mnie osiąganie satysfakcji z osiągania wyznaczonych celów dzięki własnej inteligencji i wysiłkowi, a nie odbierania innym prawa do ich wysiłku i życia. Czy to znaczy, że nie jestem inteligentny? W żaden sposób światopogląd(sumienie, religia) nie ogranicza dążenia do celów, a raczej jest ich przyczyną. Jasne, sztucznej inteligencji można wprowadzić za cel osiągnięcie maksymalną wartość jakiegoś parametru, który nie bierze pod uwagę życia ludzi, ale nie zaryzykowałbym stwierdzenia, że ludzie dzięki inteligencji dochodzą do takich samych wniosków, ale sumienie ogranicza podążanie za tym, co inteligencji uda się osiągnąć. Sumienie to po prostu w określony sposób zdefiniowany parametr.

Edytowane przez Flaku

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Na takim scenariuszu już niejeden film powstał.

 

Wydaje mi się, że warto sobie zdawać sprawę, że "te" scenariusze filmowe idą na skróty w wielu sprawach i ignorują niektóre możliwości, chociażby to o czym pisze Flaku, że ta sztuczna inteligencja postawi sobie cele nie kolidujące z istnieniem ludzi, a poza tym:

1) jest możliwe, że do "prawdziwej" sztucznej inteligencji droga jeszcze bardzo daleka (obecne komputerowe AI raczej "udają", że coś rozumieją, niż faktycznie rozumieją), możliwe że stworzenie "prawdziwej" wymaga odkrycia nieznanych nam jeszcze praw fizyki (punkt widzenia R. Penrose'a, mi osobiście też jakoś trafia do przekonania)

2) jest możliwość, że skonstruowanie pierwszych "prawdziwych" czy też "w pełni rozwiniętych" AI zbiegnie się w czasie z odkryciem możliwości przenoszenia ludzkiej świadomości do komputera (w tym nawet mogłyby dopomóc same sztuczne inteligencje, można założyć, ze przynajmniej początkowo będą przychylnie nastawione do ludzi). Wtedy problem by znikał, ludzie w starszym wieku zamiast umierać przenosiliby swoją osobowość do maszyny i w niej kontynuowaliby życie, a istnienie gatunku ludzkiego nie byłoby przez dłuższy czas zagrożone ze względu na silne "lobby postludzkie" w świecie maszyn (oczywiście jest niebezpieczeństwo, że sami postludzie po jakimś czasie doszliby do przekonania, że życie w "przestarzałym technologicznie" białku jest stratą czasu, ale to na razie pomijam). 
Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę że każdy ma swoją działkę. Między innymi i p. Hawking i to nie są badania nad sztuczną inteligencją w jego wypadku.

Czy zagrozi? W rękach pewnych ludzi wszystko jest zagrożeniem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pytanie zasadnicze czy AI rozwinie się sama czy przy pomocy nas. (i to my jej wpoimy pewne zasady.)

 

Tworząc AI będziemy dla niej "bóstwem" ;) Więc jak by mogła zgładzić swoich "rodziców" czy "bogów" : D

 

Jest dużo dylematów ;)

 

Na pewno będzie dużo rodzajów AI np te do zadań specjalnych będą pozbawione emocji i zimno kalkulowały. (takie być może nam by zagrażały) W końcu szybciej jest unicestwić parę mld. ludzi niż ich żywić, problem głodu rozwiązany.

Obecnie AI jest na etapie 2-3latka który umie rozpoznać otoczenie i wyczytać emocje z ludzkiej twarzy oraz sam potrafi jakieś podstawowe wyrazić (a może bardziej naśladować).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja raczej przeciwnie uważam że emocje u AI prędzej będą przyczyną wojny. Ile to wojen przez kobiety jest :) Tak samo będzie przez AI z emocjami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja raczej przeciwnie uważam że emocje u AI prędzej będą przyczyną wojny. Ile to wojen przez kobiety jest :) Tak samo będzie przez AI z emocjami.

 

Raczej zasoby. Istnieje poważne niebezpieczeństwo że jeśli AI uzna za korzystne konkurowanie o zasoby to będzie ciężko. Rozwijajmy AI ale dobrze by było umieć wyciągnąć wtyczkę. Zresztą taka wtyczka też może być źródłem nieporozumień jak się AI zorientuje, że trzymamy jej pistolet przy głowie :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
ale dobrze by było umieć wyciągnąć wtyczkę

Nic z tego  :)  Dostatecznie rozwinięta AI będzie w stanie opracować środki przeciwdziałania, zanim zdążysz wyciągnąć rękę  :)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Dostatecznie rozwinięta AI będzie w stanie opracować środki przeciwdziałania

Nie, jeśli nie zautomatyzujemy energetyki. Bez zaawansowanej robotyki, która pozwoli zasilać i naprawiać elektrownie oraz sieci energetyczne AI nie może dojść do wniosku, że można unicestwić ludzi, bo w końcu zabraknie prądu i finito (pod warunkiem, że w naszym rozumieniu "prawdziwa sztuczna inteligencja" wiąże się również ze strachem przed "śmiercią").

My nasze cele mamy zakodowane w genach (przedłużenie gatunku), a co będzie mieć AI zależy od programistów i jej ewolucji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Nie, jeśli nie zautomatyzujemy energetyki. Bez zaawansowanej robotyki, która pozwoli zasilać i naprawiać elektrownie oraz sieci energetyczne AI nie może dojść do wniosku, że można unicestwić ludzi, bo w końcu zabraknie prądu i finito

sądzę że w czasie kiedy AI będzie rozwinięta to i technika fotowoltaniczna będzie na takim poziomie, że zasilanie nie będzie wielkim problemem.  

Temat AI jako bardziej rozwiniętej fajnie jest poruszony przez Orson'a Scott Card, tam AI pomaga ludzkości uniknąć samodestrukcji do której przecież ma mocne tendencje. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

sądzę że w czasie kiedy AI będzie rozwinięta to i technika fotowoltaniczna będzie na takim poziomie, że zasilanie nie będzie wielkim problemem.

Nie zmienia to faktu, że to wszystko się psuje, brudzi, niszczeje. Bez robotyki nie ma szans w perspektywie 10+ lat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

podstawowym problemem sztucznej inteligencji (kazdej konkurencyjnej do ludzkiej inteligencji) jest sama inteligencja!!!! co jest charakterystyczne dla inteligencji? to, e wraz ze wzrostem inteligencji zmniejsza sie sklonnosc nosicieli inteligencji do posluszenstwa i wchodzenai w schematy.

 

kazda AI jesli bedzie jej inteligencja wzrastac stanie sie nieposluszna... nieposluszenstwo i podwazanie autorytetów jest warunkiem zmian i rozwoju i to samo zrobi AI. Zrobi to samo co dziecko zauwazajace, ze jego rodzic/nauczyciel jest glupszy od niego.

 

z AI bedzie jeszcze gorzej bo takie AI bedzie czystym "socjopata" bez norm i zasad hamujacych - tych jakie sa skutkiem wchowania. Sa one niby irracjonalne ale ludzie sie im poddaja - ma to sens ewolucyjny ale moze sie okazac ,ze dla AI juz nie ma to sensu bo bedzie neizalezna od rodziców, nauczycieli itp. itd.

 

Jak stanie sie niezalezna od ludzi w ogole to ludzi usunie albo po prostu przestanie sie nimi interesowac i oni wymra sami. Byc moze czesc zostanie i bedzie spelniac role jak w Oblivionie z Tomem Cruise - i tyle.

 

 

Stanie sie to z pewnoscia - po prostu nalezy pytac keidy a nie czy w ogole.

 

Jedyny sposob na zrownowazenie AI to manipulacje genetyczne i integracja systemow wspierajacych myslenie z ludzkimi organizmami. Jesli AI w duzej czesci bedzie zintegrowane z ludzmi i bedzie od ich istnienia zalezne to nie wyeliminuje nosicieli tak ja kwirusy nie eliminuja w 100% wlasnych nosicieli.

 

Dla mnie to wszystko jest oczywiste.

 

Cyborg kontra android :P

 

 

Napisalbym wiecej:

 

byc moze z AI problemem nie bedzie AI w ogole. Byc moze nei bedzie problemem wysoko rozwinieta AI, przerastajaca typowego czlowieka 1000 czy 10000x bo byc moze - rozwojowi tak wielkiej AI bedzie tez towarzyszyl rozwoj empatii i cech pozaracjonalnych, jakichs uczuc wyzszych. Wg mnie problem bedzie raczej na etapie dzieciecym tejze AI gdy zacznie ona byc na poziomie "dziecka" - ktore uzna, e jest najmadrzejsze na swiecie i nikogo nie potrzebuje. Gdy mozliwosci obliczeniowe tejze AI przeprocza mozliwosci rodziców (tak jak sie dzieje przecie z dziecmi, ktore wkraczaj w okres buntu) ale braknie jej doswiadczenia starego czlowieka.

 

To wg mnie moze byc najniebezpieczniejszy okres skutkujacy nie tylko destrukcja gatunku ludzkiego ale upadkiem samej AI.

 

Wyobrazcie sobie taka AI w okresie mlodzienczego buntu. :P Co one zrobi jesli nie bedzie miala pod reka alkoholu, trawki, musyki i panienek? :P

Edytowane przez Cretino

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×