Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Jakie jest prawdopodobieństwo, że obcy NIE istnieją?

Rekomendowane odpowiedzi

Ludzie od dawna zastanawiają się, czy jesteśmy jedynym gatunkiem we wszechświecie, który stworzył cywilizację techniczną. Przed 50 laty Frank Drake zaproponował równanie, mające pomóc określić, ile cywilizacji technologicznych istnieje w naszej Galaktyce.

Niemożność odpowiedzi na pytanie, czy kiedykolwiek we wszechświecie istniała zaawansowana cywilizacja wynika z trzech wielkich niewiadomych w równaniu Drake'a. Od dłuższego czasu wiemy, ile mniej więcej istnieje gwiazd. Nie wiedzieliśmy jednak, ile z tych gwiazd posiada planety, na których potencjalnie może istnieć życie, jak często życie może wyewoluować do formy inteligentnej oraz jak długo może istnieć cywilizacja zanim ulegnie zagładzie - mówi profesor Adam Frank z University of Rochester. Jednak teraz, dzięki Teleskopowi Keplera, wiemy, że co piąta gwiazda ma planetę w ekosferze, czyli znajdującą się w takie odległości od gwiazdy, że mogą istnieć tam warunki potrzebne do powstania i utrzymania życia. Jedna z trzech wielkich niewiadomych nie jest już problemem - mówi Frank. Naukowiec dodaje jednak, że wciąż nie mamy pojęcia, jak długo cywilizacja może istnieć. Sam fakt, że ludzie posługują się technologią od mniej więcej 10 000 lat nie mówi nam kompletnie nic na temat tego, czy inne społeczności są w stanie przetrwać tak długo, czy dłużej - stwierdza. Frank wraz z Woodruffem Sullivanem z University of Washington postanowili nieco inaczej spojrzeć na równanie Drake'a, by wyeliminować z niego jak największą część niepewności.

Zamiast pytać jak wiele cywilizacji może istnieć obecnie, zapytaliśmy czy jesteśmy jedynym gatunkiem, jaki kiedykolwiek rozwinął cywilizację techniczną. Ta zmiana podejścia eliminuje niepewność dotyczącą czasu istnienia cywilizacji i pozwala nam na skupieniu się na kwestii 'archeologii kosmicznej' - jak często w historii wszechświata życie mogło wyewoluować do formy zaawansowanej - mówi Sullivan. Obaj uczeni postanowili wyliczyć nie prawdopodobieństwo powstania zaawansowanych form życia, ale prawdopodobieństwo, że one nie powstaną. Wyliczyli też prawdopodobieństwo, że homo sapiens jako jedyni stworzyli zaawansowaną cywilizację oraz że już wcześniej takie cywilizacje powstawały. Oczywiście nie mamy pojęcia, jakie jest prawdopodobieństwo, że na danej planecie nadającej się do zamieszkania powstanie zaawansowany technologicznie gatunek - mówi Frank. Jednak za pomocą naszej metody możemy dokładnie obliczyć, jak niskie jest prawdopodobieństwo, że jesteśmy jedyną cywilizacją w historii wszechświata. Nazywamy to granicą pesymizmu. Jeśli rzeczywiste prawdopodobieństwo jest większe niż granica pesymizmu, wówczas zaawansowane cywilizacje prawdopodobnie powstawały już wcześniej.

Frank i Sullivan zaproponowali wzór, w którym liczba egzoplanet w ekosferze (Nast) wynika z ogólnej liczby gwiazd (N*), odsetka gwiazd posiadających planety (fp) oraz średniej liczby planet w ekosferze tych gwiazd (np). Wychodząc od takich obliczeń uczeni zaproponowali "archeologiczną formę" równania Drake'a: A=Nast*fbt, w którym ostania część, fbt, to prawdopodobieństwo pojawienia się technologicznie zaawansowanego gatunku na planecie. W ten sposób można wyliczać prawdopodobieństwo istnienia innych cywilizacji dla wybranego obszaru, czy będzie to wszechświat czy Droga Mleczna.

Sullivan i Frank wzięli pod uwagę to, co wiemy o egzoplanetach oraz liczbę gwiazd szacowaną na 2x1022. Na tej podstawie stwierdzili, że ludzkość jako jedyna stworzyła zaawansowaną cywilizację tylko wówczas, jeśli prawdopodobieństwo powstania cywilizacji na zdatnej do zamieszkania egzoplanecie jest mniejsza niż 10-22. To niezwykle małe prawdopodobieństwo. Dla mnie oznacza to, że prawdopodobnie we wszechświecie wcześniej wyewoluowały inteligentne gatunki korzystające z technologii.
Jeśli nawet we wszechświecie istniały bądź będą istniały zaawansowane cywilizacje, to spotkanie z którąś z nich jest mało prawdopodobne. Wszechświat ma ponad 13 miliardów lat. Jeśli nawet w Drodze Mlecznej powstały tysiące cywilizacji i każda z nich istniała tak długo, jak cywilizacja człowieka - około 10 000 lat - to wszystkie one już prawdopodobnie wyginęły. A inne nie wyewoluują zanim my wyginiemy. Jeśli mielibyśmy spotkać inną zaawansowaną technologicznie cywilizację, to musiałaby ona istnieć znacznie dłużej niż nasza własna cywilizacja - mówi Sullivan. Biorąc pod uwagę olbrzymie odległości pomiędzy gwiazdami oraz stałą prędkość światła, nigdy możemy nie mieć szansy na kontakt z inną cywilizacją. Jeśli cywilizacja taka znajduje się w odległości 20 000 lat świetlnych, to każda wymiana kontaktów trwałaby 40 000 lat - dodaje Frank.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cóż, chwilami myślę że to przykłady z podstawówki :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam nieodparte wrażenie że podchodzenie do tego problemu jest niezwykle dziecinne. Nie mniej jednak, jeśli stwierdzenia te są prawdą - powinniśmy przestać liczyć na "kontakt" a zacząć myśleć o "posłuchaniu" innych cywilizacji. Z kolei należy się spodziewać, że rozwój techniki pozwoli w niedługim już czasie znacznie zwielokrotnić długość życia ludzkie kontrolując chemię człowieka na poziomie molekularnym, co spowoduje że problem odległości przestanie mieć aż takie znaczenie. Jedyną rzeczą nad którą powinniśmy się skupić to próba określenia co może doprowadzić do zagłady cywilizacji. W miarę rozwoju techniki coraz łatwiej jest coś wyprodukować. Łatwiej więc będzie wyprodukować też coś co zniszczy cywilizację lub po prostu popełnić błąd. Jeśli jeden człowiek, będzie mógł "za dotknięciem guzika" uruchomić produkcję całego kraju, to również tak samo łatwo będzie mu cały kraj przez przypadek zniszczyć. Podobnie rzecz ma się z użyciem zaawansowanej inteligencji. Jeśli chcemy aby była ona przydatna musi kiedyś przejąć nad nami kontrolę i uzyskać świadomość i wieloniezależność. W tym przypadku jedyną naszą szansą jest połączyć się z tą sztuczną inteligencją rozszerzając naszą świadomość, zmieniając całkowicie takie pojęcia jak np. "przestrzeń naszego ciała" - stają się np. mózgami w chmurze o wielu rozproszonych super-kończyna i super-zmysłach. Przestaniemy zajmować konkretne miejsce i konkretny czas. Zakładając taki rozwój cywilizacji kosmicznych powinniśmy poszukiwać wielkich klastrów świadomości. Może to być to co ukrywa się naszym narzędziom jako "ciemna materia" i "ciemna energia" pozornie łamiąc prawa fizyki. Szukamy więc po prostu nie tam gdzie trzeba.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mam wrażenie, że autorzy popełniają błąd w założeniach. wydaj mi się, że jutro też będzie dzień, i ludzkość jeszcze trochę poużywa życia. więc skąd to założenie MAX 10k lat dla cywilizacji naszej i pokrewnych? z drugiej strony sugerują że ewolucja/rozwój to jakaś gładka funkcja liniowa, a tak raczej nie jest. jest duża przypadkowość od której wszystko zależy. wystarczy że zmieni się trochę klimat gdy jeszcze nie ma wynalezionego ognia i odzienia i już na starcie jest koniec. sami zresztą jesteśmy nadal na takim niskim poziomie rozwoju, wystarczy większy głaz spadający z nieba i w proch się obróci nowy "ifon 6s" i wszelkie nasze cudowne artefakty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czas życia cywilizacji jest niezwykle skomplikowaną kwestią - w tym momencie np. jedna niewłaściwa osoba za arsenałem jądrowym może bardzo szybko zakończyć sprawę (Trump?) ...

http://nuclearfiles.org/menu/key-issues/nuclear-weapons/issues/accidents/20-mishaps-maybe-caused-nuclear-war.htm

Ale zakładając że rzeczywiście jest pełno innych cywilizacji, pewnie niektórym udało się przejść przez nasz obecny krytyczny punkt - rozprzestrzeniając się poza jedną planetę - uodparniając na głupią zagładę.

 

Pytanie czy takie cywilizacje też w pewnym momencie się kończą?

Nauka wydaje się być skończona - w pewnym momencie pewnie taka cywilizacja zacznie ją wysycać, osiągnie wszystko co mogłaby osiągnąć, jednostki stracą motywację - pozostałby tylko czysty hedonizm.

Pytanie czy taki marazm mógłby prowadzić cywilizację do umyślnego odejścia?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Czas życia cywilizacji jest niezwykle skomplikowaną kwestią - w tym momencie np. jedna niewłaściwa osoba za arsenałem jądrowym może bardzo szybko zakończyć sprawę (Trump?) ...

Tak, tak skomplikowaną że nie znaną. Nie ma w tym czasie nic skomplikowanego - po prostu jest nieznany i pewnie charakteryzuje się dużą zmiennością dla różnych przypadków.

I dlaczego Trump?? Był Stalin, był Chruszczow - ale nie - Trump brzmi groźniej :lol: prawie jak trup.

Superwulkany, supernowe, meteoryty, może wirus?

 

 

Nauka wydaje się być skończona

W praktycznym sensie tak. Ale wszechświat jest niemal nieskończony - motywacja to zdobywanie kolejnych planet i surowców i mnożenie się :D

Nie dla każdego to motywacja? To ewolucja sprawi że przeżyją głównie ci dla których to jest motywacja :D

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Problem autodestrukcji cywilizacji w dużym uproszczeniu pokazuje eksperyment Calhouna: https://en.wikipedia.org/wiki/Behavioral_sink

W przypadku cywilizacji w której automatyczne statki mogą podbijać, eksplorować nowe planety ... jednostki wiedzą że nic istotnego w życiu nie osiągną, nic nie jest od nich wymagane, kompletny brak motywacji ... to jest bardzo skomplikowana kwestia psychologiczno-socjologiczna czy taka cywilizacja będzie chciała utrzymywać taki stan przez kolejne tysiąclecia ... w nieskończoność ...?

 

ps. http://www.motherjones.com/mojo/2016/03/donald-trump-nuclear-weapons-europe

Edytowane przez Jarek Duda

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
jednostki wiedzą że nic istotnego w życiu nie osiągną, nic nie jest od nich wymagane, kompletny brak motywacji ...

 

Tylko że nie ma pewności, że kiedykolwiek uda się dojść do takiego stanu, być może jest tak, że zawsze są jakieś cele/wyzwania do osiągnięcia. Do tej pory IMHO raczej zawsze coś było.

EDIT: Po pierwsze pewnie dałoby się wyznaczyć jakieś "zajęcia" dla ludzkości na najbliższe powiedzmy 100-200 lat w oparciu o to co wiemy obecnie (np. wysłanie gdzieś przy pomocy laserów tych maleńkich sond wielkości telefonu komórkowego, o których niedawno była mowa na KW, rozwiązanie problemu AI, znalezienie alternatywy dla paliw kopalnych), po drugie możemy zestawić nasz sposób życia z ludźmi z epoki kamiennej (jeszcze żyją współcześnie - jacyś Indianie znad Amazonki czy tp.) i zobaczyć, że w wielu sprawach raczej nie tyle rozwiązaliśmy problemy w ciągu tych tysięcy lat, co tylko przesunęliśmy granice - nie znamy sposobu uleczenia wszystkich chorób, ale możemy leczyć więcej, nie rozwiązaliśmy wszystkich problemów komunikacyjnych, chociaż mamy środki transportu dużo efektywniejsze niż własne nogi itd. itp.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Problem autodestrukcji cywilizacji w dużym uproszczeniu pokazuje eksperyment Calhouna: https://en.wikipedia.org/wiki/Behavioral_sink

 

Bardzo ciekawy eksperyment!

Tylko wnioski nie te.:)

Widzę zasadniczy błąd w jego projekcie ( albo jego projekcji jako końca cywilizacji ;) ) który mógł doprowadzić właśnie do takiej degeneracji populacji: do rozmnażania wykorzystano tylko 4 samice i 4 samce. Toż to klasyczny chów wsobny prowadzący do wzrostu homozygotyczności, której konsekwencją jest właśnie depresja inbredowa czyli dokładnie takie abberacje jak u szczurów Calhouna.

Kolokwializując, prozaiczny brak dopływu świeżej krwii.

Edytowane przez TrzyGrosze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Pytanie też czy to można nazwać cywilizacją :D

 

 

W przypadku cywilizacji w której automatyczne statki mogą podbijać, eksplorować nowe planety

W przypadku takiej cywilizacji naturalny wydaje się rozpad na wiele cywilizacji.
Ciężko mówić o cywilizacji gdy brak silnego kontaktu. A tu komunikacja raczej słaba będzie - więc nastąpi rozpad na mniejsze. Ale to nie jest to samo co zagłada.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem z komunikacją będzie pod warunkiem, że nic nie może przekroczyć prędkości światła :)  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Tylko że nie ma pewności, że kiedykolwiek uda się dojść do takiego stanu, być może jest tak, że zawsze są jakieś cele/wyzwania do osiągnięcia.

Podczas gdy nasza cywilizacja ma rzędu 10000 lat, co jest ok. jednej milionowej wieku wszechświata, rozwój technologii przyśpiesza coraz szybciej aż do osobliwości ( https://en.wikipedia.org/wiki/Technological_singularity ), prawdopodobnie w tym stuleciu skonstruujemy AI - która wtedy błyskawicznie nas wyprzedzi - nieograniczona biologią i objętością czaszki ... wypierając nas w dosłownie każdej dziedzinie.

W końcu nam ludziom zostanie tylko czysty hedonizm, cele/wyzwania będziemy mogli spełniać tylko w grach komputerowych ... AI będzie się coraz szybciej rozwijać, wysycając naukę w ciągu stulecia czy tysiąclecia ... też zadając pytanie o cel tego wszystkiego ... co dalej? Zapełnić wszechświat swoim marazmem? Kolejne tysiąclecia?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Heh, ludzie nie mogą przewidzieć jaki będzie kurs złota jutro. A są w stanie przewidzieć że dojdziemy do osobliwości technologicznej? :D

Błyskawicznie wyprzedzi nas niby w czym? W ilości zjedzonych lodów?

Tak, nawet przy wysyceniu technologicznym jeśli c jest barierą to zdobywanie wszechświata to proces dążący do nieskończoności. A zawsze jak jeden  będzie miał 1 mld planet to drugi człowiek powie: chcę mieć 1000 000 001 planet :D albo chcę mu odebrać 1 planetę. Tak czy inaczej jest co robić.

Na razie stan wiedzy wskazuje na to że c jest barierą, ergo, zgodnie z obecnym stanem wiedzy, zawsze będzie co robić.

A że niektórzy popadną w marazm? I? Geny przekażą ci co w marazm nie popadną :D

Dopóki chociaż jedna użyteczna planeta we Wszechświecie będzie niczyja to pozostaną wyzwania.

A jak będzie czyjaś? To będzie wyzwanie żeby ją odbić :D

Jaki może cała ludzkość popaść w hedonizm jak ludzie pomiędzy sobą konkurują? Ci co popadną stracą to co mają na rzecz tych co nie popadną.

Nawet gdybyśmy zdobyli każdy fragment Wszechświata (co nie nastąpi) to zawsze jeden człowiek będzie chciał mieć więcej niż inny człowiek i to popchnie go do czynu. Bo rzeczy zdobywa się przeważnie nie dla ludzkości ale przeważnie dla siebie.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

prawdopodobnie w tym stuleciu skonstruujemy AI - która wtedy błyskawicznie nas wyprzedzi - nieograniczona biologią i objętością czaszki ..

Ech, to prawdopodobieństwo, bardzo chciałbym mieć umiejętność przewidywania, co w przyszłości prawdopodobnie nastąpi. Wykorzystałbym na giełdzie albo czymś takim ;)

 

 

 

udziom zostanie tylko czysty hedonizm, cele/wyzwania będziemy mogli spełniać tylko w grach komputerowych ...

Nawet jeśli, no to co. mnie to w jakimś sensie urządza. Wystarczy mi kilka gier o nazwach takich jak C++, C#, F# itd. (pewnie jeszcze parę powstanie), do tego sieciówka o nazwie Kopalnia Wiedzy i jeszcze jakieś wędrówki po górach (a więc jednak nie tylko gry komputerowe). Jeśli ta AI zatroszczy się o mój "wikt i opierunek", to będę miał bardzo dużo czasu, żeby się realizować ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jeśli AI będzie Cię próbowała wykończyć to na pewno nie popadniesz w hedonizm :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli będzie tak potężna jak to wynikałoby ze wzrostu wykładniczego, to ona bez trudu przekona mnie, że najlepszą dla mnie opcją jest pobiec do najbliższego sklepu z militariami, kupić sobie miecz samurajski i popełnić seppuku;) I ja wtedy z radością pobiegnę i to zrobię, nie mając żadnych wątpliwości, że to jest rzeczywiście hiper-super wybór;) Jedyny problem w tym, że w przyrodzie jakoś nic nie chce w nieskończoność rosnąć wykładniczo (z czego oczywiście zresztą nie wynika, że wzrost zatrzyma się przed dojściem do AI, ale mimo wszystko jest to jedna z możliwości, z powodu których opcja "prawdopodobna" niekoniecznie musi zajść;)).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

thinkim, komputery nie są ograniczone biologią (jak wolne połączenia nerwowe) ani objętością czaszki - jest teoretyczna możliwość skonstruowania czegoś znacznie potężniejszego, nie zoptymalizowanego do produkcji jak największej ilości potomków, nie ograniczone materiałem który możemy zjeść. Jak nie za sto lat, to za tysiąc - jeśli przeżyjemy to kiedyś ten moment nastąpi - jeszcze bardziej przyśpieszając rozwój ... a co będzie tysiąc lat później?

Dajesz podbicie wszystkich planet jako cel ... ale po co? Człowiekowi w grze komputerowej daje to satysfakcję, pozwala zaspokoić zwierzęce emocjonalne potrzeby sprzed milionów lat ...ale dlaczego taka motywacja miałaby kierować czystą inteligencję?

 

Darekp, mówisz że pozwoliłoby Ci to skupić się na programowaniu - jest tak ponieważ wiesz że możesz napisać coś wartościowego, np. w ostatnich 2 latach są gigantyczne postępy w kompresji danych (jak https://github.com/Cyan4973/zstd/blob/master/images/DCspeed5.png ) ... ale co jeśli nie będziesz miał żadnych złudzeń że możesz jeszcze coś wnieść? Z jednej strony Twój rok pracy AI będzie robił w sekundę, z drugiej wszystkie techniki będą już znane ...

Tak jest z każdą dziedziną, łącznie z automatycznym generowanie sztuki czy nauką ...

W końcu komputer będzie w stanie wszystko za nas zrobić - i to znacznie szybciej i lepiej - skąd będziemy wtedy czerpać motywację?

Sens życia?

Edytowane przez Jarek Duda

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jarek Duda napisał:

"Człowiekowi w grze komputerowej daje to satysfakcję, pozwala zaspokoić zwierzęce emocjonalne potrzeby sprzed milionów lat ...ale dlaczego taka motywacja miałaby kierować czystą inteligencję?"

 

A co to jest czysta inteligencja?

I czy można w ogóle mówić o inteligencji bez "oprogramowania" motywacyjnego ( czyli emocjonalnego)?

I trzecie pytanie: co w takim razie kierowałoby czystą inteligencję?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
jest tak ponieważ wiesz że możesz napisać coś wartościowego

No, niekoniecznie, po co alpiniści wspinają się na góry, skoro można tam dolecieć helikopterem? I wszystkie najwyższe szczyty zostały już dawno przez kogoś przynajmniej raz (a w praktyce z reguły wiele razy) zdobyte? Czasem jest tak, że ktoś coś robi dla własnej satysfakcji.

P.S. Ja tam zresztą raczej nie wiem, że mogę "napisać coś wartościowego", a nawet wiem, że konkurencja w tej dziedzinie jest ogromna, ja nie mam jakichś tam super nadzwyczajnych uzdolnień, więc szanse, że napiszę coś wartościowego są prawie żadne. 

 

 

 

skąd będziemy wtedy czerpać motywację? Sens życia?

 

Na to już odpowiedział Glaude powyżej. Uważasz, że powstanie AI spowoduje całkowite wywrócenie do góry nogami wszystkiego, zanegowanie naszych "zwierzęcych instynktów" a równocześnie się odwołujesz do "zwierzęcej" w gruncie rzeczy potrzeby motywacji/sensu życia. Zapętlenie  ;)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

glaude,

Pierwotnie jakieś antropocentryczne "prawa robotyki", w których wraz z rozwojem głębokości analizy łańcuchów przyczynowo-skutkowych dojdzie do sprzeczności, konieczności przebudowania (niezabicie Hitlera) - ochrony człowieka jako całej cywilizacji ...

Co będzie dalej - przez kolejne tysiąclecia? Pierwsza przebudowa motywacji uwolni możliwość kolejnych - na podstawie głębszej analizy ciągów przyczynowo-skutkowych ... szukania sensu ... którego może nie być ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

czysta inteligencja to chyba ucieleśnienie boga. nie mnoży się bo po co?, nie jeździ rowerem bo też nie przystoi, nic nowego nie wymyśla bo już wszystko wymyślił, palcem nawet nie rusza bo już wszystko zrobił i osiągnął. taki stan to konsternacja jak po wejściu na mount everest, świadomość że już wyżej nie da się wejść.

na szczęście ludzie to dalej tylko zwierzęta którym wydaje się że są paniskami tego grajdołu. a fakt jest taki że codziennie rządzą nami głównie instynkty, jak jest trochę wolnego czasu to kora coś ciekawego wymyśli albo np. będzie rozwodzić się o metodzie jedzenia bezy.wystarczy trochę zakłócić nasze sielankowe środowisko żeby wyszło nasze prawdziwe "ja". wystarczy że wystarczająco spadnie poziom glukozy we krwi w związku z głodem i pan w krawacie który słabnie na widok rozdeptanej muchy bez wahania zabije przedstawiciela własnego gatunku aby przetrwać.... tak więc dalej jesteśmy częścią ewolucji, a ewolucja działa "na pałę" a tam gdzie coś się uda to rozwija ten kierunek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Dajesz podbicie wszystkich planet jako cel ... ale po co?

Dla mnie powód chęci podbijania planet jest oczywisty. Jeśli w naszą planetę za powiedzmy 15 lat walnie olbrzymi "kamyk" i będzie to jedyna planeta na której istnieje rodzaj ludzki... dlatego trzeba się rozprzestrzeniać. Tym bardziej, że nawet jeśli w nas nic nie walnie, to za kilka miliardów lat Słońce ma się wypalić, więc odpowiednio wcześniej warto znaleźć nowe lokum. Nie dla satysfakcji (jak w grach), ale dla chęci przeżycia.

 

 

 

W końcu komputer będzie w stanie wszystko za nas zrobić - i to znacznie szybciej i lepiej - skąd będziemy wtedy czerpać motywację? Sens życia?

Bez względu na to jak szybko i w jakim kierunku nastąpi postęp moim głównym celem jest zdobycie 2 hektarów ziemi pod dom i działkę, gdzie będę spełniać się jako ogrodnik.

Wtedy komputer będzie mi potrzebny tylko do wyszukiwania info. na temat uprawy, bo siedzenie na kopalniwiedzy będzie mniej interesujące. A AI może się wtedy rozwijać jak szybko chce, będę miał to gdzieś. :) Ja znalazłem swoją motywację, a Wy? :P

Edytowane przez Superman

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Dajesz podbicie wszystkich planet jako cel ... ale po co?

A po co dziś ludzie chcą mieć więcej? Czemu jest nie ważne. Ważne jest że tak się zawsze działo, że ludzie chcieli mieć więcej i więcej. A jak ktoś miał dużo to ktoś inny chciał mieć więcej.

I wystarczy tylko jeden taki człowiek co chce więcej żeby wpłynąć na innych i zmienić ich losy. Im więcej będzie chciał tym bardziej wpłynie.

Sugerujesz że już nigdy nie narodzi się człowiek który będzie chciał więcej? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja nie piszę ogólnie, tylko poruszam kwestię indywidialnie. Sory, ze tego nie dodałem.

Jako maszyna "myśląca" (inteligentna) kazda, która jest autonomiczna, bedzie musiała mieć jakiś program(y) motywacyjne. Inaczej nie będzie podejmować samodzielnie działań, rozwiązywać zadań, konstrułować projekty. Będzie to robić, gdy my jej to zlecimy- czyli wprowadzimy dane. A w tym wypadku to trochę bardziej skomplikowana motyka.

Jeśli maszyna ma nas zwalczyć inteligencją,musi mieć nie tylko większą szybkość przetwarzania danych ale i świadomość. Bez motywacji nie ma świadomości. A bez świadomości nie ma intencjonalności działań- jest tylko prosta reakcja na zmiany otoczenia, które maszyna zauważa.

 

I tu kolejny warunek- maszyna musi mieć sensory otoczenia (oczy uszy itp.) oraz siebie (czucie). Oczywiście to implikuje posiadanie odpowiednich programów obrabiających dane spływające z tych sensorów i kasujące "szum".

To tak z grubsza. I nie pytaj mnie jak to zrobić, bo jestem tumanem informatycznym. Mam kłopoty z obsługą smartfona na poziomie podstawowym :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

A do kogo ten post? Bo trochę nie rozumiem.

 

Jeśli maszyna ma nas zwalczyć inteligencją,musi mieć nie tylko większą szybkość przetwarzania danych ale i świadomość

Nie byłbym tego taki pewny.

A nie może być przypadek że obca cywilizacja konstruuje robota i daje mu program: zabij wszystkich ludzi? :D

Ale ogólnie, może to być błąd nawet oprogramowania.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...