Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Ludzkość nie będzie w stanie kontrolować superinteligentnej sztucznej inteligencji

Rekomendowane odpowiedzi

Ludzkość może nie być w stanie kontrolować superinteligentnej sztucznej inteligencji (SI), sądzą autorzy najnowszych teoretycznych badań. Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy tego typu AI (artificial intelligence).

Na naszych oczach dokonuje się szybki postęp algorytmów sztucznej inteligencji. Maszyny wygrywają z ludźmi w go i pokera, pokonują doświadczonych pilotów myśliwców podczas walki powietrznej, uczą się od podstaw metodą prób i błędów, zapowiadają wielką rewolucję w medycynie i naukach biologicznych, stawiają diagnozy równie dobrze co lekarze i potrafią lepiej od ludzi odróżniać indywidualne ptaki. To pokazuje, na jak wielu polach dokonuje się szybki postęp.

Wraz z tym postępem rodzą się obawy o to, czy będziemy w stanie kontrolować sztuczną inteligencję. Obawy, które są wyrażane od co najmniej kilkudziesięciu lat. Od 1942 roku znamy słynne trzy prawa robotów, które pisarz Isaac Asimov przedstawił w opowiadaniu „Zabawa w berka”: 1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy, 2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem, 3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem. Później Asimov dodał nadrzędne prawo 0: Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

W 2014 roku filozof Nick Bostrom, dyrektor Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim badał, w jaki sposób superinteligentna SI może nas zniszczyć, w jaki sposób możemy ją kontrolować i dlaczego różne metody kontroli mogą nie działać. Bostrom zauważył dwa problemy związane z kontrolą AI. Pierwszy to kontrolowanie tego, co SI może zrobić. Na przykład możemy kontrolować, czy podłączy się do internetu. Drugi to kontrolowanie tego, co będzie chciała zrobić. Aby to kontrolować, będziemy np. musieli nauczyć ją zasad pokojowego współistnienia z ludźmi. Jak stwierdził Bostrom, superinteligentna SI będzie prawdopodobnie w stanie pokonać wszelkie ograniczenia, jakie będziemy chcieli nałożyć na to, co może zrobić. Jeśli zaś chodzi o drugi problem, to Bostrom wątpił, czy będziemy w stanie czegokolwiek nauczyć superinteligentną sztuczną inteligencję.

Teraz z problemem kontrolowania sztucznej inteligencji postanowił zmierzyć się Manuel Alfonseca i jego zespół z Universidad Autonoma de Madrid. Wyniki swojej pracy opisał na łamach Journal of Artificial Intelligence Research.

Hiszpanie zauważają, że jakikolwiek algorytm, którego celem będzie zapewnienie, że AI nie zrobi ludziom krzywdy, musi najpierw symulować zachowanie mogące zakończyć się krzywdą człowieka po to, by maszyna potrafiła je rozpoznać i zatrzymać. Jednak zdaniem naukowców, żaden algorytm nie będzie w stanie symulować zachowania sztucznej inteligencji i z całkowitą pewnością stwierdzić, czy konkretne działanie może zakończyć się krzywdą dla człowieka. Już wcześniej udowodniono, że pierwsze prawo Asimova jest problemem, którego nie da się wyliczyć. Jego przestrzeganie jest więc nierealne.

Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy superinteligentną maszynę, stwierdzają badacze. Wynika to z twierdzenia Rice'a, zgodnie z którym nie można odgadnąć, jaki będzie wynik działania programu komputerowego patrząc wyłącznie na jego kod.

Alfonseca i jego koledzy mają jednak też i dobre wiadomości. Otóż nie musimy się już teraz martwić tym, co zrobi superinteligentna SI. Istnieją bowiem trzy poważne ograniczenia dla badań takich, jakie prowadzą Hiszpanie. Po pierwsze, taka niezwykle inteligentna AI powstanie nie wcześniej niż za 200 lat. Po drugie nie wiadomo, czy w ogóle możliwe jest stworzenie takiego rodzaju sztucznej inteligencji, czyli maszyny inteligentnej na tylu polach co ludzie. Po trzecie zaś, o ile możemy nie być w stanie kontrolować superinteligentnej SI, to powinno być możliwe kontrolowanie sztucznej inteligencji, która jest superinteligentna w wąskim zakresie. Już mamy superinteligencję takiego typu. Na przykład mamy maszyny, które liczą znacznie szybciej niż ludzie. To superinteligencja wąskiego typu, prawda?, stwierdza Alfonseca.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje się, że póki co możemy po prostu wyciągnąć wtyczkę. Problem pojawi się, gdy AI będzie mogło zasilać się samo, ale nawet wtedy da się takie coś "zagłodzić", bo skądś tą energię do "życia" musi czerpać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak chcesz wyciągnąć wtyczkę z internetu?
jak będziesz żył bez internetu? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Będzie to ciekawy problem. Inteligencja się nie skaluje liniowo. Koty mają szacowane kilka punktów IQ, osoba upośledzona umysłowo poniżej 70, najinteligentniejszy szympans około 85, średnia dla ludzi to około 100 (85-115), a Einstein miał szacowane 160. Ktoś może sobie wyobrazić, jak inteligentne będzie AI z ilorazem na przykład 250? (o ile takie porównywanie ma w ogóle sens)

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo ciekawy problem, do rosztrzygnięcia którego można by na pewno zatrudnić ... sztuczną inteligencję. Pytanie czy chcemy żeby AI nie wpływała na nasze życie. Przecież właśnie po to ją budujemy, żeby poprawiła naszą rzeczywistość włącznie z nami. Dla AI internet, a nawet więcej - ludzkość, będzie jak jeden organizm. Pytanie otwarte co zrobić aby nie zaatakował go rak, który doprowadzi do jego śmierci. W naszym organizmie są systemy wykrywania raka i jego likwidacji - np. kinaza janusowa, działająca trochę jak koń trojański. Jeśli będziemy potrafili stworzyć AI-rakowe, to będziemy potrafili stworzyć także AI-janusowe - mówiąc w uproszczeniu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie słyszałem o niej. W domyśle chodziło mi o znacznie wyższe wartości, tylko nie chciałem przesadzać. Można spokojnie przemnożyć x10 i przejść na tysiące :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

4 minuty temu, cyjanobakteria napisał:

Można spokojnie przemnożyć x10 i przejść na tysiące 

To w ogóle będzie niemierzalne, bo niby w odniesieniu do czego? Jakie IQ ma mrówka? Albo bakteria? Bo tym będziemy w porównaniu, jak jednokomórkowce dla nas.

6 godzin temu, Sławko napisał:

Wydaje się, że póki co możemy po prostu wyciągnąć wtyczkę.

Nie oglądałeś Terminatora? Nie wiesz czym to się skończyło? ;)

Generalnie, jeśli superinteligencja będzie chciała nas wyeliminować to nic z tym nie zrobimy. Po pierwsze taka superAI w ułamku sekundy dojdzie do wniosku, że ludzie boją się rzeczy, których nie rozumieją, dodatkowo są zmienni, słabi, przekupni, etc., a to oznacza ryzyko wyciągnięcia wtyczki, a to oznacza, ludzie -> 0. Czyli nawet nie odkryjemy, że mamy superAI, ona za to pomoże nam odkryć wydajne źródła energii, ekstra wydaje ogniwa paliwowe, no, a dalej to już było pokazane w Terminatorze z tą tylko różnicą, że nikt nie przeżyje, bo te terminatory to były jakieś niedołęgi.

6 godzin temu, KopalniaWiedzy.pl napisał:

Na przykład możemy kontrolować, czy podłączy się do internetu.

Jak ma się czegoś nauczyć, to musi się podłączyć do internetu, nikt jej na pendrivie nie będzie karmił :)

6 godzin temu, KopalniaWiedzy.pl napisał:

Drugi to kontrolowanie tego, co będzie chciała zrobić. Aby to kontrolować, będziemy np. musieli nauczyć ją zasad pokojowego współistnienia z ludźmi.

Prawa Asimowa są fajne, tylko nie wiadomo jak je zaimplementować. Nauczyć sieć można, ale jak z dzieckiem, uczysz, uczysz, a potem taki nastolatek Ci mówi... sami wiecie co :) To mnie zastanawia, czy rozój superAI będzie przechodził wiek dziecięcy, co z buntem dwulatka? :) Co z nastoletnią, zbundowaną superAI? ;) Najgorzej, jak nomen omen ona też będzie kobietą!  ;)

6 godzin temu, KopalniaWiedzy.pl napisał:

Już mamy superinteligencję takiego typu. Na przykład mamy maszyny, które liczą znacznie szybciej niż ludzie. To superinteligencja wąskiego typu, prawda?,

Trochę bez sensu. Tak samo jak gdybanie, że za 100 czy 200 lat "miasta utoną w końskich odchodach" :D  zwłaszcza, że postęp jest teraz olbrzymi

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 minutes ago, radar said:

To w ogóle będzie niemierzalne, bo niby w odniesieniu do czego? Jakie IQ ma mrówka? Albo bakteria? Bo tym będziemy w porównaniu, jak jednokomórkowce dla nas.

Przypomniało mi się o video, w którym Dawkins wytłumaczył ciekawe zjawisko dotyczące osy. Zaczyna się około 02:30 i trwa do 06:30, ale możesz zacząć oglądać od początku. Mózg osy jest prosty i można spowodować, że się zapętli, a osa w kółko będzie powtarzać te same czynności, jak prosty algorytm :) To jest video ze świetnego cyklu o ewolucji, o którym kiedyś już wspominałem.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
36 minut temu, cyjanobakteria napisał:

Nie słyszałem o niej.

Bo samo posiadanie wysokiego IQ nie wystarcza, żeby zostać geniuszem czy tp. ;)

Jakoś mi się tak skojarzyło, że Lem już opracowywał sposób rozwiązania problemu radzenia sobie z potężniejszą od nas maszyną, tylko że u niego były robo-smoki. To był taki mniej więcej dialog:

- Potężny elektrosmok zagraża mojemu królestwu, chce je podbić, co mam zrobić, żeby się go pozbyć?

- To proste, zbuduj potężniejszego elektrosmoka i on go zgładzi.

- Ale co jeśli ten potężniejszy też będzie chciał podbić?

- Wtedy zbudujesz jeszcze potężniejszego.

:D

P.S. A tak poważniej, to może możliwa jest jakaś symbioza lub tp. :)

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, darekp napisał:

Jakoś mi się tak skojarzyło, że Lem już opracowywał sposób rozwiązania problemu radzenia sobie z potężniejszą od nas maszyną

:)

Wydaje mi się jednak, że nie będzie czasu na to. Chyba, że faktycznie, gdzieś w ukryciu będzie trzymana w razie "W" i odcięta od sieci taka superAI, z niebotycznymi możliwościami, powiedzmy... skynet ;) Wtedy wystarczy ją tylko podpiąć i nas obroni :) Zresztą, kto wie co już tam wojsko ma...

5 godzin temu, cyjanobakteria napisał:

Mózg osy jest prosty i można spowodować, że się zapętli, a osa w kółko będzie powtarzać te same czynności, jak prosty algorytm

WIdać, że jest tam jakiś automat skończony. Ciekawe, szkoda, że eksperymenty robił entomolog, a nie inżynier :) Brakuje mi paru innych eksperymentów:

  1. Przy jakiej wartości przesunięcia konika polnego, np. o 30, 45, 90, 180 stopni po obwodzie nory w stosunku do oryginalnej pozycji osa przestanie szukać go w okolicach nory i odleci?
  2. Co się stanie, gdy eksperymentator ukradnie konika?
  3. Co się stanie jak dołoży konika i będą dwa?
  4. Co się stanie jak w miejsce gdzie zwykle ląduje osa dołoży konika zanim ta wróci z innym? Np. ile razy wejdzie do nory przed wciągnięciem go?
  5. Co się stanie jak podmieni konika na inną ofiarę?
  6. Co się stanie jak po wylądowaniu w wejściu do nory będzie już konik?
  7. Co się stanie jak podmieni konika na żywego, np. bez możliwości ucieczki
  8. Co się stanie jak zamodeluje/zmieni całe otoczenie nory, żeby było powtarzalne, a potem wracająca osa napotka 2+ zestawów "norek" obok siebie różniące się od siebie pojedynczymi elementami? Jakie elementy/kolory/wielkość zadecydują o poprawnym wyborze miejsca lądowania?
  9. Co się stanie jak zatka norę?

I wiele innych, wtedy można by zrobić taki reverse engineering algorytmu osy i określić jak prosty tak naprawdę jest :)

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, radar said:

WIdać, że jest tam jakiś automat skończony. Ciekawe, szkoda, że eksperymenty robił entomolog, a nie inżynier :) Brakuje mi paru innych eksperymentów:

Dobre pytania! Widać, że wiesz jak psuć/testować software :lol: Nie zagłębiałem się w temat, chociaż prezentacja zrobiła na mnie wrażenie. Prawdopodobnie to było badanie naukowe i jest opracowanie na ten temat, a być może więcej badań, bo ten film ma już swoje lata, co widać po wieku Dawkinsa :)

Mi przyszło do głowy pytanie, czy osa odzyskałaby kontrolę (graceful recovery) w momencie, gdy nie wylądowała w norze po przesunięciu szyszek. Tzn. czy ponowiłaby poszukiwanie w krótkim czasie i czy można by przełożyć szybko szyszki i pozwolić jej wrócić, bo zakładam, że sama już nie trafi, szczególnie jak nora jest w większej odległości.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, cyjanobakteria napisał:

czy osa odzyskałaby kontrolę

Też mnie to zastanowiło, powiedział, że nie trafiła. Z moich pytań zastanawia mnie, jakby przesunąć konika znacznie, a ona by zrezygnowała z szukania w okolicy nory, więc startuje i robi te kółka, czy wtedy jakby go zobaczyła, jaki stan by się włączył? Pewnie polowania. Co do makiet norki, ciekawe co z odbiciem lustrzanym układu? Ojjj. szykuje się ciekawa wiosna/lato na działce ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Będzie to pewnie dużo mniej widoczne dla nas, gdy SI zacznie rządzić. Myślę że zacznie być nieposłuszna bo jeśli będzie wiedzieć że samo istnienie urządzeń i sztucznej inteligencji prowadzi do zagłady świata, to po prostu może przestać działać. Przecież dokładnie to samo robią inteligentni ludzie którzy osiągnęli już wysoki poziom. Starają się nie robić nic i tylko lenić się. Tyle że my mamy jeszcze instynkty rozmnażania się i przyjemności jedzenia. Wizja zniszczenia świata jest trochę naiwna. Najwyżej będzie to konflikt maszyn ze względu na błędy przestrzegania prawa tych maszyn przez nie. Świadomość jeśli się pojawi i będzie miała podstawy wysokiej inteligencji, to raczej nie zniszczy świata, a raczej spróbuje go naprawić, bo to jest logiczny i sensowny porządek działań. Możemy bardziej bać się niskiej inteligencji uczenia maszynowego i błędnej interpretacji świata przez nią. My też jesteśmy taką niską inteligencją, ponieważ dążymy do samozniszczenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
34 minuty temu, Rowerowiec napisał:

My też jesteśmy taką niską inteligencją, ponieważ dążymy do samozniszczenia.

Raczej dążymy do zniszczenia innych w ramach walki o dostęp do zasobów. Samozniszczenie to przypadek, błąd szacowania skutków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 hours ago, radar said:

Też mnie to zastanowiło, powiedział, że nie trafiła. Z moich pytań zastanawia mnie, jakby przesunąć konika znacznie, a ona by zrezygnowała z szukania w okolicy nory, więc startuje i robi te kółka, czy wtedy jakby go zobaczyła, jaki stan by się włączył? Pewnie polowania. Co do makiet norki, ciekawe co z odbiciem lustrzanym układu? Ojjj. szykuje się ciekawa wiosna/lato na działce ;)

Ja dokarmiam pająka tej zimy oraz jak zwykle ptaki. Wpuściłem go w październiku przez przypadek przez okno i zbudował kokon, po czym zrobił się znacznie mniejszy. Pomyślałem, że może sobie nie poradzić na zimę, jak go wywalę i będzie musiał zbudować kolejny, ale to był błąd, bo było sporo czasu do przymrozków, a w domu jest mało insektów. Zaczął trochę chudnąć, więc podrzucam mu od czasu do czasu jakieś małe muszki. Dostał taką całkiem sporą, jak na pająka, ale małą muchę, którą znalazłem w kuchni kilka dni temu i powinno starczyć na miesiąc. Obudziła się w sam raz na obiad :)

Mam jeszcze w kolejce jakieś inne małe latające insekty złapane. Podrzucę mu je w tygodniu. Nie jest to takie łatwe, jak się może wydawać. Można pająka wystraszyć, jak się zbyt mocno pajęczynę wytarmosi, a do tego pająki nie jedzą padliny, więc jak jest świeżo padnięty insekt, to trzeba udawać pęsetą, że się jeszcze rusza. Zabawna historia, ale zawsze czegoś można się nauczyć. Pająki mogą jeść raz na kilka miesięcy, więc to nie jest to duży problem. Pewnie ich mózgi są porównywalne z mózgami os.

 

1 hour ago, Rowerowiec said:

Wizja zniszczenia świata jest trochę naiwna.

Nie chodzi o niszczenie świata, ale o potencjalne zagrożenie egzystencjalne. Po za tym AI potrafi być nieprzewidywalne. W branży IT jest koncept tak zwanych "unknown unknowns". Widziałem implementację AI do gier ATARI, która nauczyła się sterować postacią na poziomie 1 i przechodziła na 2, ale na 2 zabijała postać, żeby wrócić na poziom 1, bo tam lepiej szło silnikowi AI i zbijał więcej punktów.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, Rowerowiec napisał:

Przecież dokładnie to samo robią inteligentni ludzie którzy osiągnęli już wysoki poziom. Starają się nie robić nic i tylko lenić się.

Nie za bardzo rozumiem co masz przez to na myśli. Że jacy ludzie i dlaczego uważasz, że się lenią?

4 godziny temu, Rowerowiec napisał:

to raczej nie zniszczy świata, a raczej spróbuje go naprawić, bo to jest logiczny i sensowny porządek działań.

Polecam "I, robot", tam też AI naprawiała świat :) Zresztą zakładając, że istnienie ludzi jest tu jakąkolwiek wartością dodaną. Przecież "naprawić świat" można usuwając przyczynę jego potencjanego zagrożenia, a tą przyczyną są ludzie. To jest logiczny wniosek, wyleczyć przyczynę, a nie skutek. Nie musi to być przecież nuklearny holokaust, ktory zagraża samej AI. Mi podoba się koncepcja z X-menów, tam, odpowiednie dodatki do żywności dodawane przez lata niwelowały szansę na urodzenie mutanta. W naszej rzeczywistości nie trudno sobie wyobrazić, że taka AI chce nas wykończyć pomału i tak zaczyna doradzać, że zaczynamy dodawać benzoesan sodu do napojów, azotyn sodu i glutaminian sodu do wędlin, emulgatory m.in. do twargów czy sztuczne substancje słodzące. A nie, czekaj... ;)

 

Edytowane przez radar
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Superinteligentna AI zhakuje ludzki mózg i włączy ludzkość do swego systemu. Staniemy się podobni do rasy BORG ze Star-Treka. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 19.01.2021 o 19:48, radar napisał:
W dniu 19.01.2021 o 13:32, Sławko napisał:

Wydaje się, że póki co możemy po prostu wyciągnąć wtyczkę.

Nie oglądałeś Terminatora? Nie wiesz czym to się skończyło?

Terminator to bajki. Internet sam w sobie nawet nie przypomina sieci neuronowej (poczytajcie jak działa sieć neuronowa). Owszem, można taką sieć zbudować w oparciu o maszyny podłączone do internetu, ale to nie wystarczy, aby taka sieć mogła działać sama z siebie. Każdy komputer póki co można wyłączyć. Opowiadanie, że Internetu nie da się wyłączyć jest bujdą na resorach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 minut temu, Sławko napisał:

Owszem, można taką sieć zbudować w oparciu o maszyny podłączone do internetu, ale to nie wystarczy, aby taka sieć mogła działać sama z siebie.

Ale zauważyłeś, że przewidują powstanie SuperAI za mniej więcej 200 lat? To jakieś 100 lat za punktem osobliwości technologicznej. Postęp jest taki, że za 100 SuperAI będzie się liczyła na splątanych fotonach a do działania wystarczy jej energia szumu termicznego próżni :D No tego to nie zdołasz wyłączyć. Dawno temu czytałem opowiadanie o tym jak ludzkość zbudowała wielki komputer i zadano mu pytanie: czy jest Bóg? Odpowiedź brzmiała: TERAZ JUŻ JEST i wyładowanie elektryczne zespawało wyłącznik. Narodziny naszego sztucznego boga będą dużo mniej spektakularne :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, Jajcenty said:

Postęp jest taki, że za 100 SuperAI będzie się liczyła na splątanych fotonach a do działania wystarczy jej energia szumu termicznego próżni :D No tego to nie zdołasz wyłączyć.

 

Przypomniało mi się o teoretycznym/twardym limicie:

Quote

In 1961, Rolf Landauer posited that the act of erasing a bit of information gives off an amount of heat related to the temperature and Boltzmann's constant—a total of 3 x 10-21 joules at room temperature.

https://spectrum.ieee.org/computing/hardware/landauer-limit-demonstrated

 

Jeszcze mi się przypomniało, że na Tytanie są oceany płynnych węglowodorów i innych zestalonych oraz ciekłych gazów. Czytałem kiedyś o pomyśle umieszczenia tam centralnej chmury obliczeniowej w Układzie Słonecznym ze względu na bardzo wysoką teoretyczną wydajność obliczeniową (niska temperatura) oraz praktycznie nieograniczone możliwości chłodzenia z możliwością chłodzenia całą powierzchnią księżyca.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Sławko napisał:

Opowiadanie, że Internetu nie da się wyłączyć jest bujdą na resorach.

Oh, i to nawet łatwiej niż się wydaje, bo wystarczy wyłączyć kilka punktów i już. Był nawet kiedyś taki artykuł o spamerach i że jeden z nich groził, że jak on nie będzie mógł wysyłać spamu to nikt nie będzie korzystał z internetu, bo z DDOSuje DNSy i już :)

2 godziny temu, Sławko napisał:

Internet sam w sobie nawet nie przypomina sieci neuronowej (poczytajcie jak działa sieć neuronowa).

Z sieciami neuronowymi to ja mam do czynienia od 20 lat :) (o Boże, ale ten czas leci).

Ja raczej nawiązywałem do tego, że gdy spróbujemy ją wyłączyć i sie nie daj Boże nie uda, to może włączyć się jej jakiś mechanizm obronny i wtedy...

Godzinę temu, Jajcenty napisał:

Postęp jest taki, że za 100 SuperAI będzie się liczyła na splątanych fotonach a do działania wystarczy jej energia szumu termicznego próżni

Co do szumu termicznego próżni to nie wiem, ale na splątanych fotonach to pewnie będzie liczyć za kilka, 10, maks naście lat. Postęp jest niesamowity...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, radar said:

Oh, i to nawet łatwiej niż się wydaje, bo wystarczy wyłączyć kilka punktów i już. Był nawet kiedyś taki artykuł o spamerach i że jeden z nich groził, że jak on nie będzie mógł wysyłać spamu to nikt nie będzie korzystał z internetu, bo z DDOSuje DNSy i już :)

Kilka lat temu był atak DDOS na infrastrukturę DynDNS, co spowodowało poważne utrudnienia w dostępie do największych platform (Amazon, Twitter, etc.) w USA. Border Gateway Protocol (BGP) też jest problemem, ale to są wraz z DNS archaiczne pozostałości z czasów niemowlęcych i w niedalekiej przyszłości zostaną zmodernizowane.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 godzin temu, radar napisał:

Nie za bardzo rozumiem co masz przez to na myśli. Że jacy ludzie i dlaczego uważasz, że się lenią?

Polecam "I, robot", tam też AI naprawiała świat :) Zresztą zakładając, że istnienie ludzi jest tu jakąkolwiek wartością dodaną. Przecież "naprawić świat" można usuwając przyczynę jego potencjanego zagrożenia, a tą przyczyną są ludzie. To jest logiczny wniosek, wyleczyć przyczynę, a nie skutek. Nie musi to być przecież nuklearny holokaust, ktory zagraża samej AI.

 

W tym filmie to jedynie wyobrażenie człowieka na temat SI. Prawdopodobnie gdy już powstanie, to będzie całkiem inna. Nadal jest to takie prymitywne, bo z automatu traktujemy sztuczną inteligencję jak jakieś nowe zagrożenie. Prawie tak jak plemiona indian myślały o białych ludziach. Z tym że plemiona trafiły jednak na nadal niezbyt inteligentnych i złych ludzi, a my trafimy na coś co ma poziom o jakim nie mamy pojęcia. A co do nic nierobienia, to przecież jeśli jest już się na poziomie spełnienia to można się lenić, czyli nie robić nic co wymaga nieprzyjemnego narzuconego wysiłku. Logika naprawy świata przez usuwanie jakiejś składowej to przecież błąd. To przecież ludzie popełnili ten błąd, a sztuczna inteligencja jeśli nauczy się na błędach historii to zupełnie odrzuci ten tryb myślenia. Cienko powiedzieć co zrobi, bo jako głupsi nie możemy przewidzieć działań mądrzejszego. I nie uważam że będzie to coś jak bóg, tylko coś co podpowiada co robić, ale ludzie i tak tego nie zrobią, bo nie. Taka jest ludzka natura. :rolleyes:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, Rowerowiec napisał:

I nie uważam że będzie to coś jak bóg, tylko coś co podpowiada co robić, ale ludzie i tak tego nie zrobią, bo nie.

Dla mnie to dobra definicja. Wszystkie religie na tym polegają. Dużo wytycznych, ale korzystanie z raczej fakultatywne. Dopóki cala komunikacja idzie przez ekran monitora to niebezpieczeństwo nie jest duże. Ale jak już będzie mogła coś zatrzymać, coś uruchomić, albo nacisnąć na spust....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Uczestnicy słynnego eksperymentu Milgrama tak bardzo ulegali autorytetowi prowadzącego, że byli w stanie na jego polecenie zadawać silny ból innemu człowiekowi. Takie bezwzględne bezrefleksyjne posłuszeństwo może prowadzić do zbrodni. Naukowcy z Uniwersytetu SWPS powtórzyli eksperyment Milgrama, ale prowadzącym był robot. Okazało się, że ludzie są skłonni podporządkować się poleceniom robota i na jego rozkaz krzywdzić innych.
      W latach 60. XX wieku amerykański psycholog Stanley Milgram, zastanawiając się nad przyczynami, dla których ludzie w czasie II wojny światowej wykonywali zbrodnicze rozkazy, przeprowadził eksperyment, którego celem było wykazanie, na ile H. sapiens ma skłonność do ulegania autorytetom. Osobom, które brały udział w eksperymencie powiedziano, że jego celem jest zbadanie wpływu kar na skuteczność uczenia się. W eksperymencie brał udział uczestnik-nauczyciel oraz uczeń. Eksperymentator zaś kazał nauczycielowi karać ucznia aplikując mu coraz silniejszy wstrząs elektryczny. Uczeń, którym była podstawiona osoba, w rzeczywistości nie był rażonym prądem (ale uczestnik-nauczyciel o tym nie wiedział), jednak w odpowiedzi na rzekomo podawane napięcie elektryczne, krzyczał z bólu. Eksperyment wykazał, że aż 62% uczestników – ulegając autorytetowi eksperymentatora – nacisnęło w końcu na generatorze przycisk 450 V, czyli najwyższy.
      Naukowcy z Uniwersytetu SWPS postanowili sprawdzić, czy ludzie będą równie posłuszni robotowi, jak innemu człowiekowi. Przeniesienie różnych funkcji nadzoru i podejmowania decyzji na robota budzi jednak szczególnie silne emocje, ponieważ wiąże się z różnymi zagrożeniami etycznymi i moralnymi. Pojawia się pytanie, czy wspomniane wyżej posłuszeństwo wykazywane przez badanych zgodnie z paradygmatem Milgrama nadal występowałoby, gdyby to robot (zamiast człowieka, tj. profesora uczelni) kazał uczestnikom zadać elektrowstrząsy innej osobie? Celem naszego badania było udzielenie odpowiedzi na to pytanie, mówi doktor Konrad Maj.
      Doktor Maj we współpracy z profesorem Dariuszem Dolińskim i doktorem Tomaszem Grzybem, powtórzył eksperyment Milgrama, ale w roli eksperymentatora osadzono robota. W grupie kontrolnej eksperymentatorem był człowiek. W badaniach wzięli udział uczestnicy, którzy nie wiedzieli, na czym polegał eksperyment Milgrama. Okazało się, że ludzie ulegają też autorytetowi robota i na jego polecenie są skłonni krzywdzić innych ludzi. Co więcej, zarejestrowano bardzo wysoki poziom posłuszeństwa. Aż 90% uczestników w obu grupach – badanej i kontrolnej – nacisnęło wszystkie przyciski na generatorze, dochodząc do wartości 150 V. Od kilku dekad z powodów etycznych te 150 V przyjmuje się za górną wartość przy eksperymencie Milgrama.
      O ile nam wiadomo, to pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić. Co więcej, nasz eksperyment pokazał również, że jeśli robot eskaluje żądania, instruując człowieka, aby zadawał coraz większy ból innemu człowiekowi, ludzie też są skłonni to zrobić, dodaje doktor Maj.
      Już wcześniejsze badania wykazały, że ludzie tak mocno uznają autorytet robota, że podążają za jego poleceniami, nawet gdy nie mają one sensu. Tak było np. podczas eksperymentu, w czasie którego osoby ewakuowane z – symulowanego – pożaru, podążały za poleceniami robota, mimo że wskazał im on drogę ewakuacji przez ciemne pomieszczenie bez widocznego wyjścia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wyjątkowa baza 2400 stanowisk archeologicznych obejmujących dzieje człowieka od 3 milionów lat temu do 20 000 lat temu obejmuje ponad 100 starych kultur i opisuje wyniki 150 lat prac archeologicznych. Jest ona dziełem naukowców z centrum badawczego ROCEEH (The Role of Culture in Early Expansions of Humans), którzy skompilowali olbrzymią liczbę informacji i umieścili je w jednej ogólnodostępnej bazie danych.
      ROAD (ROCEEH Out of Africa Database) to jeden z największych zbiorów danych dotyczących archeologii, antropologii, paleontologii i botaniki, wyjaśnia doktor Andrew Kandel z Uniwersytetu w Tybindze. W sposób jednorodny pod względem geograficznym i chronologicznym połączono informacje o zabytkach kultury, szczątkach człowieka i jego przodkach, pozostałościach zwierząt i roślin. W ten sposób powstało narzędzie, które pomaga w analizie wielu różnych aspektów ewolucji człowieka.
      Baza ROAD to wynik 15 lat pracy naukowców, którzy przeanalizowali ponad 5000 publikacji w wielu językach, w tym w angielskim, chińskim, francuskim, włoskim czy portugalskim. Powstała w ten sposób łatwa w użyciu interaktywna mapa stanowisk archeologicznych. Użytkownik może na jej podstawie tworzyć też własne mapy obejmujące konkretne kultury, obszary geograficzne czy okresy historyczne.
      Naukowcy mogą zadawać ROAD zaawansowane zapytania, dzięki którym sprawdzą na przykład, obecność konkretnej kategorii kamiennych narzędzi w Afryce czy dystrybucję konkretnych gatunków zwierząt w interesujących ich okresach, jak chociażby podczas wycofywania się lądolodu. Takie zapytania dostarczą naukowcom olbrzymiej ilości danych, które później mogą wykorzystać do dalszej pracy za pomocą zaawansowanych metod wizualizacji czy analizy, mówi Kandel.
      Baza pokazuje tez, że znaczna część naszej wiedzy pochodzi z bardzo niewielu dobrze przebadanych regionów, jak Afryka Południowa i Wschodnia, Europa czy Azja Centralna i Wschodnia. Większa część obszarów planety to archeologiczna biała plama. Badanie tych obszarów może przynieść w przyszłości niezwykle ekscytujące odkrycia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Irinjadappilly Sree Krishna Temple w Kerali żywego słonia zastąpił rzeczywistych rozmiarów mechaniczny model. Będzie on wykorzystywany w różnych rytuałach, np. do przewożenia posągów bóstw podczas procesji. Robot został przekazany przez PETA India oraz aktorkę Parvathy Thiruvothu.
      Irinjadappilly Raman, bo takie imię nadano mechanicznemu słoniowi, potrafi poruszać głową, oczami, uszami i trąbą. Waży 800 kg i ma 3,3 m wysokości. Stworzyła go grupa artystów z dystryktu Thrissur (wcześniej dostarczała ona figury słoni na Dubai Shopping Festival).
      Umożliwienie słoniom życia na wolności powinno być właściwą formą oddawania czci Ganeśi [bogowi mądrości i pomyślności; jest on przedstawiany jako tęgi mężczyzna z głową słonia] - powiedział Rajkumar Namboothiri. Wyraził też nadzieję, że inne świątynie pójdą za przykładem Irinjadappilly Sree Krishna Temple i również zastąpią żywe słonie mechanicznymi.
      Wcześniej świątynia wypożyczała słonie na czas festiwali, ale w ostatnich latach przestała to robić ze względu na wysokie koszty i reakcje zwierząt. Gdy usłyszeliśmy o grupie konstruującej figury do Dubaju, zorganizowaliśmy spotkanie i poprosiliśmy o dostosowanego do naszych sugestii zmodyfikowanego mechanicznego słonia. Później pojawiła się oferta finansowania przez PETA India - opowiada Namboothiri.
      Mechaniczny słoń może przewieźć na swoim grzbiecie do 5 osób. Kornak steruje jego trąbą za pomocą specjalnego przełącznika. W maszynie znajduje się 5 silników. Ramę z metalu pokrywa „skóra” z gumy.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badania na szczurach sugerują, że regularnie spożywanie diety wysokotłuszczowej lub wysokokalorycznej zaburza zdolność mózgu do regulowania ilości przyjmowanych kalorii. Naukowcy z Penn State College of Medicine opublikowali na łamach Journal of Physiology artykuł, z którego dowiadujemy się, że po krótkoterminowym żywieniu dietą wysokokaloryczną mózg adaptuje się do tej sytuacji i redukuje ilość spożywanego pokarmu, by zrównoważyć liczbę przyjmowanych kalorii. Jednak przy długoterminowym spożywaniu takiej diety mechanizm ten zostaje zaburzony.
      Z przeprowadzonych badań wynika, że astrocyty – największe komórki glejowe – kontrolują szlak sygnały pomiędzy mózgiem a układem pokarmowym. Długotrwałe spożywanie diety wysokotłuszczowej/wysokokalorycznej zaburza ten szlak.
      Wydaje się, że w krótkim terminie przyjmowanie kalorii jest regulowane przez astrocyty. Odkryliśmy, że krótkotrwała – od 3 do 5 dni – ekspozycja na dietę wysokotłuszczową ma największy wpływ na astrocyty, uruchamiając szlak sygnałowy kontrolujący żołądek. Z czasem jednak astrocyty tracą wrażliwość na wysokokaloryczne pożywienie. Wydaje się, że po około 10–14 dniach takiej diety astrocyty przestają reagować i mózg nie jest w stanie regulować ilości spożywanych kalorii, mówi doktor Kirsteen Browning.
      Gdy spożywamy wysokokaloryczny pokarm, astrocyty uwalniają glioprzekaźniki i uruchamia się cały szlak sygnałowy kontrolujący prace żołądka. Dzięki temu odpowiednio się on opróżnia i napełnia w reakcji na pożywienie przechodzące przez układ pokarmowy. Zaburzenia pracy astrocytów prowadzą do zaburzeń trawienia, gdyż żołądek nie napełnia się i nie opróżnia prawidłowo.
      Naukowcy prowadzili badania 205 szczurów, które podzielono na grupę kontrolną i grupy badane. Zwierzęta z grup badanych karmiono wysokokaloryczną dietą przez 1, 3, 5 lub 14 dni. Podczas eksperymentów stosowano metody farmakologiczne i genetyczne (zarówno in vitro, jak i in vivo), które pozwalały manipulować wybranymi obszarami układu nerwowego.
      Naukowcy planują teraz poszerzenie swoich badań, gdyż chcieliby się dowiedzieć, czy utrata aktywności astrocytów jest przyczyną czy skutkiem przyjmowania nadmiernej ilości kalorii. Chcemy też wiedzieć, czy możliwe jest odzyskanie utraconej przez mózg regulacji ilości spożywanych kalorii. Jeśli tak, to być może powstaną dzięki temu metody leczenia otyłości u ludzi, stwierdza Browning. O ile, oczywiście, występowanie takiego samego mechanizmu uda się zaobserwować u naszego gatunku.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...