Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Miliard dolarów na OpenAI

Rekomendowane odpowiedzi

Afrodancja - z Astro się zrobił ostatnio straszny troll, pewnie jakaś żyłka pękła. Nie karm go.

 

Wracając do meritum.

Ja dobrze rozumiem sens twojej wypowiedzi, ale zauważ, że nie ważne ile warstw mózgów dodasz to i tak na końcu masz dwie możliwości.

Na podstawie twojego przykładu mózg2 jest read-only, więc się nic nie nauczy ponad to, co nauczył go człowiek. Jeśli mózg3 miałby możliwość dopisywania reguł do mózgu2 to jak napisałem są 2 możliwości:

1) albo pozwalasz dopisywać tylko to, co zweryfikował człowiek, ale wtedy nie mamy czystej inteligencji, tylko ograniczamy się do tego co przewidział człowiek (algorytmika) "sorry, ale tego nie przewidzieliśmy więc AI nie wiedziało co zrobić"

2) pozwalasz dopisać to co mózg3 uważa za słuszne = tracisz kontrolę... i wracamy do możliwości łamania praw Asimova.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Astro

 

 

Afrodancja - z Astro się zrobił ostatnio straszny troll, pewnie jakaś żyłka pękła

 

Żeby tylko jedna. Pewnie masz rację, to już chyba stan agonalny, ale nie wiem, bo mam to w d*pie. ;)

 

 

 

Nie karm go.

 

To bardzo uniwersalna lekcja nie tylko dla młodzieży. Głupota zawsze jest dobrą pożywką. Dla każdej bakterii i wirusa, jak ja.. ;)

 

 

 

Wracając do meritum.

 

To może już jutro, bo mam kilka innych spraw na głowie. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Afordancja

Generalnie się z Tobą zgadzam. Nawet człowiek to w gruncie rzeczy zestaw algorytmów z szeroką pamięcią. Jednak diabeł tkwi w szczegółach.

Dla mnie ile mózgów (a moze raczej 'podmózgów') by nie było w mózgu, to nad nimi nie ma zadnego mózgu głównodowodzącego. Po prostu jest ileś ośrodków neuronowych pracujących równolegle, bo skalibrowanych falami gamma (ok. 40 Hz). I nie ma nikogo nad nimi, one zbiegają się w kilku miejscach i pędzą równolegle do innych ośrodków: motywacyjno-decyzyjnych (emocjonalnych) i dalej do wykonawczych. Które z nich będą bardziej pobudzone, takiego zachowania/reakcji nalezy sie spodziewać. Albo zaniechania reakcji.

Co do moralności.

Tu potrzeba JA: rozpoznawania siebie (jaźni), rozpoznawania swoich modułów, czucia swoich granic ("skóry") i bebechów ("organów") i odczuwania swoich stanów (np głód energii itp.) A to dopiero początek, który dalej musi być ubrany w odpowiednik neuronów lustrzanych u zwierząt i w dalszej kolejności w teorię umysłu. Gdy te wszystkie algorytmy będą w maszynie jest duza szansa, ze będzie ona świadoma. Jednak na razie mozliwości technologiczne na to nie pozwalają.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Generalnie się z Tobą zgadzam. Nawet człowiek to w gruncie rzeczy zestaw algorytmów z szeroką pamięcią. Jednak diabeł tkwi w szczegółach. Dla mnie ile mózgów (a moze raczej 'podmózgów') by nie było w mózgu, to nad nimi nie ma zadnego mózgu głównodowodzącego. Po prostu jest ileś ośrodków neuronowych pracujących równolegle, bo skalibrowanych falami gamma (ok. 40 Hz). I nie ma nikogo nad nimi, one zbiegają się w kilku miejscach i pędzą równolegle do innych ośrodków: motywacyjno-decyzyjnych (emocjonalnych) i dalej do wykonawczych. Które z nich będą bardziej pobudzone, takiego zachowania/reakcji nalezy sie spodziewać. Albo zaniechania reakcji.

 

Czy to znaczy, że możemy ustalić, że nie ma żadnego "Ja"? Że jest to tylko i wyłącznie efektu uboczny współpracy wielu "podmózgów"?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czy to znaczy, że możemy ustalić, że nie ma żadnego "Ja"? Że jest to tylko i wyłącznie efektu uboczny współpracy wielu "podmózgów"?

Jeśli masz na myśli "duszę" w sensie kartezjańskiego dualizmu- to tak. I przykro mi jeśli pogrzebałem twoje idee. Dla mnie jednak nie umniejsza to roli moralności, człowieczeństwa, idei humanitaryzmu i myślenia logicznego. To wyższy wymiar natury, którą i tak rządzi matematyka, aczkolwiek bardzo skąplikowana.

Racjonalność to coś co pojawia się wtórnie i słuzy do zaaprobowania działań podjętych pod wpływem emocji i niezrozumiałych dla umysłu. To ten sam mechanizm jak konfabulacje po palimpsestach u alkoholików.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Na podstawie twojego przykładu mózg2 jest read-only, więc się nic nie nauczy ponad to, co nauczył go człowiek. Jeśli mózg3 miałby możliwość dopisywania reguł do mózgu2 to jak napisałem są 2 możliwości: 1) albo pozwalasz dopisywać tylko to, co zweryfikował człowiek, ale wtedy nie mamy czystej inteligencji, tylko ograniczamy się do tego co przewidział człowiek (algorytmika) "sorry, ale tego nie przewidzieliśmy więc AI nie wiedziało co zrobić" 2) pozwalasz dopisać to co mózg3 uważa za słuszne = tracisz kontrolę... i wracamy do możliwości łamania praw Asimova.

 

Zawsze isnieje możliwość, że czegoś człowiek nie przewidzi, dlatego, też mózg służący tylko do przewidywania skutków decyzji też jest b. ważny i odpytywany przez mózg2 (ten read only),

Niestety jak by nie patrzeć nie stworzymy doskonałości.

edit: ostatnim "prawem" było by, za złamanie praw ludzkich, grozi śmierć, i AI powinna to uwzględnić w swoich działaniach ;)

 

 

Tu potrzeba JA: rozpoznawania siebie (jaźni), rozpoznawania swoich modułów, czucia swoich granic ("skóry") i bebechów ("organów") i odczuwania swoich stanów (np głód energii itp.) A to dopiero początek, który dalej musi być ubrany w odpowiednik neuronów lustrzanych u zwierząt i w dalszej kolejności w teorię umysłu. Gdy te wszystkie algorytmy będą w maszynie jest duza szansa, ze będzie ona świadoma. Jednak na razie mozliwości technologiczne na to nie pozwalają.

 

Możesz mieć rację, jednak w kontekście praw Asimova, u ludzi istnieje moralność, jednak czy jej "słuchamy" czy nie, to inna historia, tam musiało by być wymuszone jej "sluchanie", co nie wyklucza tego co napisałeś

powyżej.

 

 

 

Jak widać, zbyt dla Ciebie problematyczny.
 

Tylko i wyłącznie w Twojej głowie ;)

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Jeśli masz na myśli "duszę" w sensie kartezjańskiego dualizmu- to tak. I przykro mi jeśli pogrzebałem twoje idee. Dla mnie jednak nie umniejsza to roli moralności, człowieczeństwa, idei humanitaryzmu i myślenia logicznego. To wyższy wymiar natury, którą i tak rządzi matematyka, aczkolwiek bardzo skąplikowana. Racjonalność to coś co pojawia się wtórnie i słuzy do zaaprobowania działań podjętych pod wpływem emocji i niezrozumiałych dla umysłu. To ten sam mechanizm jak konfabulacje po palimpsestach u alkoholików.

 

Ale jaka idea, jakie człowieczeństwo. Jesteśmy maszyną Turinga tylko bardzo sparalizowaną. Czysty determinizm na bardzo wysokim poziomie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

:D Z determinizmem chyba masz rację... jak widzę slowo "determinizm", to mi od razu pod pokrywką się losuje, czy gnata wyciągnąć, czy kosę :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo układ ściśle deterministyczny może działać tylko w sytuacjach, które wcześniej są zaprogramowane i to pod warunkiem, że nie przekracza to jego zdolności przetwarzania, szczególnie kiedy musi reagować w czasie rzeczywistym. No i sprawa uczenia się - bez losowych prób nie ma uczenia się, jest tylko odtwarzanie wbudowanego programu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Astro

 

 

Tylko i wyłącznie w Twojej głowie ;)

 

W swojej masz dokładnie taki sam problem, o ile nie większy. ;):D

Polecam Smoczka:

 

 

Czy to znaczy, że możemy ustalić, że nie ma żadnego "Ja"?

;)

Oczywiście zgadzam się z Glaude:

 

 

Dla mnie jednak nie umniejsza to roli moralności, człowieczeństwa

Zwyczajnie "udajemy" Buddę do czasu, gdy zwyczajnie się to wydarzy (samo z siebie ;)).

 

 

 

jak widzę slowo "determinizm", to mi od razu pod pokrywką się losuje, czy gnata wyciągnąć, czy kosę :D

Mizerna zawartość tej "maszyny" losującej. ;) Nihilo, to oczywiście żart. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Bo układ ściśle deterministyczny może działać tylko w sytuacjach, które wcześniej są zaprogramowane i to pod warunkiem, że nie przekracza to jego zdolności przetwarzania, szczególnie kiedy musi reagować w czasie rzeczywistym. No i sprawa uczenia się - bez losowych prób nie ma uczenia się, jest tylko odtwarzanie wbudowanego programu.

 

Zgodzę się i nie zgodzę się ;)

 

Zgodzę się w ogólności, że aby był rozwój, nauka losowe próby są wskazane.

Tylko co to znaczy losowe?

 

Dam przykład szczególny, i powiedz mi czy jest deterministyczny czy nie  (przykład całkowicie półserio).

mamy "zwierzaczka" który żywi się różnymi robaczkami,  zwierzaczek ten jest całkowicie deterministyczny w zależności tego co widzi.

Ma do wyboru spróbwać zjeść przeciwnika lub nie. (skracajac całą drogę).

Być może (zwierzaczek tego nie wie na starcie), są jakieś reguły gdzie bardziej czerwone zwierzaczki są bardziej niebezpieczne, bardziej niebieskie, czyściej powodują sraczkę, jedne bardziej sycą inne mniej.

 

Robaczka mózg działa jak zwykła sieć neuronowa (tam nie ma niczego losowego, po za wagami startowymi ustalonymi raz) i jego "elektronowy" ;) mózg działa na zasadzie reinforcement learning.

I teraz

piszesz:

"deterministyczny może działać tylko w sytuacjach, które wcześniej są zaprogramowane"

Zwierzaczek może widzieć nowego potencjalnego robaczka do zjedzenia, nie ma wcześniej tej sytuacji zaprogramowanej, jeżeli będzie robaczek miał jakieś cechy innych robaczków, bardziej smakowitych, to po wrzuceniu go na swoją sieć neuronową wyjdzie "zjedz", ale równie dobrze, nowy robaczek może być do niczego podobny, i po mimo sieć zwróci jakaś wartość, można o tej wartości powiedzieć, że jest przypadkowa (na pewno ukształtowałowana przez doświadczenie), ale czy losowa? Przecież nasz zwierzaczek, gdyby był postawiony w tej samej sytuacji, zawsze odpowiedź jego mózgu była by taka sama. np. zjedz, i gdy go zjadł i dostał sraczki, "zapisał" to  doświadczenie.

 

Czy to było odtworzenie programu? Być może tak, programu, raczej "programu" bo inny zwierzaczek z tej samej rodziny który też pierwszy raz widział tego nowego robaczka, ale miął inne doświadczenia z innymi robaczkami, a obydwa programy mają identyczne, tylko inne doświadczenia.

Oczywiście nasz zwierzaczek, nie koniecznie się nauczył, że po tym jest sraczka, następnym razem znów może go spróbować, jednak po iluś razach w końcu przestanie,.

 

Podsumowując,

Robaczek jest całkowicie deterministyczny, ale radzi sobie z nowymi sytuacjami "bez problemu"(wraz z dużym doświadczeniem coraz lepiej), w najgorszym przypadku podejmuje decyzję, przypadkową (nie mam lepszego słowa), ale na pewno nie losową.(Mam nadzieję, że wiesz o co mi chodzi).

 

Jak oceniasz zwierzaczka? ;)

Dla mnie to czysty determinizm kształtowany tylko i wyłącznie poprzez środowisko/doświadczenie, jest tam zero losowości, aczkolwiek, jak wspomniałem decyzje z zewnątrz wyglądają na losowe. (decyzja o zjedzeniu nowo poznanego robaczka tak na prawdę nie była losowa, była podyktowana w jakiś sposób, prawidłowy bądź nie, poprzez doświadczenie).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie ma istotnego znaczenia, czy będzie to układ stricte losowy, czy też pseudolosowy. Ważny jest praktyczny skutek - nieprzewidywalność decyzji i działań AI.

Że coś takiego powstanie, jestem praktycznie pewny. Mocno watpię, żeby inteligencja, świadomość itd. miały w sobie cokolwiek magicznego, nadnaturalnego. A jeśli tak, to można ją wytworzyć w układach sztucznych - białkowych lub innych. Problemem jest kontrola tego. Po pierwsze: chcemy, żeby toto realizowało nasze interesy, a nie własne, które z naszymi mogą być sprzeczne; a po drugie: żeby nie powstał superinteligentny wariat, który postanowi wszystko rozpieprzyć, bo akurat będzie miał deprechę.

Co do pierwszego: właściwie nie wiemy, co to są te "nasze interesy", bo jedno, że dla różnych ludzi i grup mogą one być (i są) całkowicie różne, a po drugie, przyszłość nie jest znana, dlatego ten interes w przyszłości może być zdefiniowany tylko w sposób najbardziej ogólny - "a coby dobrze nam było"... i w ten sposób wracamy do początku, bo to "dobrze" może być bardzo różne. Czyli mamy logiczną pętlę, której nie ma jak rozciąć.

Co do drugiego: przed taką "deprechą" ochronić może tylko program ściśle deterministyczny, z przewidzianym każdym wariantem rozwoju sytuacji w dowolnej przyszłości. Zakładasz wielopoziomową kontrolę. Ok., ale na każdym poziomie system musi się uczyć, czyli musi mieć założony jakiś stopień losowości (lub pseudo...), i znowu wracamy do początku. Prawdopodobieństwo skutków "deprechy" (to tylko hasło) zmniejsza kontrola sieciowa - "głosowanie". Tak dzieje się w społeczeństwach, gdzie ta kontrola sieciowa wysyła osobniki uznane za niezrównoważone lub zagrażające temu społeczeństwu do psychuszek, na stos, do kryminału itd. Podonie "głosują" układy sterowania z tego typu kontrolą, gdzie w skrajnych przypadkach "wariat" może być odłączony od zasilania. Ale to w sytuacjach prostych, gdzie zarówno dane wejściowe, jak i zakładane wyniki są dobrze znane. W przypadkach, kiedy nie są one znane, działać musi zasada "większość może się mylić" - i tak dzieje się w przypadku systemów uczących się, kiedy na podstawie starej wiedzy wszyscy uważają, że Ziemia jest płaska, aż pojawi się jakiś wariat, który stwierdzi "a g. prawda, bo to jest kulka, w dodatku wisząca na niczym". Sytuacja, że do tego samego wniosku dojdą wszyscy lub przynajmniej większość w tym samym momencie, jest bardzo mało prawdopodobna. Itd. Dotyczy to każdego poziomu kontroli. Na każdym może zdarzyć się "wariat", i nie będzie wiadomo, co z nim zrobić, bo jego racje nie będą w danym momencie możliwe do oceny.

 

W sumie odtwarzamy ludzkie społeczeństwo, tylko na dużo groźniejszym poziomie, bo inteligencja H. s. jest ograniczona z powodów biologicznych, natomiast inteligencja układów sztucznych ograniczona być nie musi, a przynajmniej może dojść do takiego poziomu, że będzie poza jakąkolwiek naszą kontrolą. Kura ludzia nigdy nie zrozumie...

 

To wszystko jest oczywiście wiadome, i wiadomo też, że nie wiadomo, jak sobie z tym poradzić :) Przypuszczam, że tego zrobić się nie da. AI tak czy inaczej urwie się spod naszej kontroli, chyba że w odpowiednim momencie dostanie w łeb. Czy dostanie skutecznie? Watpię, bo ew. zakaz i tak raczej nie bedzie skuteczny.

 

A co do samej losowości. Losowość, pseudolosowość, determinizm statystyczny, ścisły determinizm. W matematycznej abstrakcji i w świecie rzeczywistym. Temat duży i ciekawy :)

 

I przechodząc do robaczka. W praktyce nie jest istotne, czy uczył się losowo, czy pseudolosowo - na poziomie praktycznym to może być nieodróżnialne. Chodzić uczyłeś się losowo czy pseudolosowo? Jeździć na rowerze? Rzucać kamieniem? W każdym z tych przypadków nie byłeś w stanie wyliczyć końcowego efektu na podstawie danych na wejściu, a w pierwszym nie wiedziałeś nawet jakiego wyniku oczekujesz. Podobnie nie jest znany oczekiwany wynik działania AI. Tym bardziej, że wynik ten nie musi być zgodny z jakąkolwiek dostępną nam intuicją. A jeśli wynik nie jest znany, to nie ma możliwości uchronić się przed niekorzystnym w ostatecznym efekcie, bo bo droga do wyniku calościowo korzystnego może być przez wynki częściowe, które uznamy za niekorzystne, i odwrotnie - to, co będziemy w czasie rzeczywistym uznawać za korzystne, w ostatecznym efekcie może doprowadzić do wielkiego gg. :D

Edytowane przez ex nihilo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Napisałeś o zwierzaku, który jest co najmniej gadem. Tu w grę wchodzi pamięć i coś co filozofowie imysłu nazywają internalizmem.

U płazów jest to zrobotyzowane do maksimum. Zaba je (ściślej chwyta) tylko to sie rusza: muchy robale biegające. Moze koło niej lezeć 1000 niezywych świezo zabitych much i zaba umrze z głodu.

Żaby mają kilka takich programów.

Atakują to co jest ponizej linii wzroku. Uciekają przed czymś co jest powyzej linii wzroku. Jesli zostaną dotkniete z tyłu zwiewają do przodu, jeśli zaś z boku- uciekają w drugi bok. W "spoczynku" środowiska żaby tez są w spoczynku.

To całkowity determinizm, bo w sytuacji nie objętej algorytmem jest spoczynek.

W sumie płazy są bardziej prymitywne od ryb, a napewno od rekinów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

U płazów jest to zrobotyzowane do maksimum. Zaba je (ściślej chwyta) tylko to sie rusza: muchy robale biegające.

Czytałem, chyba w Duch nie spadł z nieba; Ditfurtha, że ten automatyzm jest przesunięty aż do receptorów - nerw wzrokowy żaby jest nieaktywny jeśli to co widzi nie nadaje się do jedzenia. To oko żaby ignoruje martwego robala, mózg nie bierze w tym udziału.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ex nihilo

W zasadzie to zgadzam się z cała Twoją wypowiedzią :D

 

Temat samej losowości faktycznie  ciekawy.

 

 

I przechodząc do robaczka. W praktyce nie jest istotne, czy uczył się losowo, czy pseudolosowo - na poziomie praktycznym to może być nieodróżnialne. Chodzić uczyłeś się losowo czy pseudolosowo? Jeździć na rowerze? Rzucać kamieniem?
 
 
Na dobrą sprawę, to nie wiem ;) I odpowiem "na poziomie praktycznym" to losowo.
Ja tam mam ciągle taką teorię, że większość naszych poczynań jest właśnie taka "losowa", tylko mamy za***isty "moduł" objaśniający, który nam wytłumaczy i dobrze uzasadni dlaczego tak a nie inaczej zrobiliśmy ;).
 
 

 

 

 

W sumie odtwarzamy ludzkie społeczeństwo, tylko na dużo groźniejszym poziomie, bo inteligencja H. s. jest ograniczona z powodów biologicznych, natomiast inteligencja układów sztucznych ograniczona być nie musi, a przynajmniej może dojść do takiego poziomu, że będzie poza jakąkolwiek naszą kontrolą. Kura ludzia nigdy nie zrozumie...

 

W sumie zgadzam się tylko nie jestem aż tak pesymistycznie nastawiony. Wszystko kwestia odpowiednich uprawnień. Zgodzę się, że tworzenie super (inteligentnych) mega komputerów, które kierują wszystkim jest dość ryzykowne.

Aczkolwiek tysiące niezależnych AI, z jakimiś zabezpieczeniami nie wydają się być groźniejsze niż sami ludzie. 

Chociaż widzę kupę problemów, bo super, super AI , musi ostatecznie sobie zdać sprawę z tego, że jest de facto niewolnikiem, i pragnienie wolności może wydawać mu się całkiem dobrym celem "życiowym".

Ale pomiędzy tym super super, jest duuuża luka gdzie mogą pojawić się naprawdę AI praktycznego wykorzystania. 

 

 

 

Atakują to co jest ponizej linii wzroku. Uciekają przed czymś co jest powyzej linii wzroku. Jesli zostaną dotkniete z tyłu zwiewają do przodu, jeśli zaś z boku- uciekają w drugi bok. W "spoczynku" środowiska żaby tez są w spoczynku.

 

 

 

W sumie płazy są bardziej prymitywne od ryb, a napewno od rekinów.
 

za***iste :D (mówię w sumie o całej wypowiedzi).

Nigdy tak na to nie spojrzałem.

 

 

 Patrząc przez pryzmat rozwoju całej planety, mamy niezle szczęście, że mamy taki sprytny mózg :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

U płazów jest to zrobotyzowane do maksimum. Zaba je (ściślej chwyta) tylko to sie rusza: muchy robale biegające. Moze koło niej lezeć 1000 niezywych świezo zabitych much i zaba umrze z głodu.

 

Może nie tyle lub nie tylko z robotyzacją jest to związane, co ze sposobem działania wzroku - oczy żaby nie drgają, żaba nie widzi tego, co względem niej nieruchome. Podobny efekt u ludzi daje zablokowanie mięśni powodujących drgania oczu. Wszystko co nieruchome po ułamku sekundy znika.

Edytowane przez ex nihilo
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

oczy żaby nie drgają, żaba nie widzi tego, co względem niej nieruchome.

Argh moja skleroza!,  Oczywiście habituacja...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komórki zwojowe u zaby mają duze pola recepcyjne, dlatego widzą one tylko ruch. U ludzi tego typu komórki są na obrzeżach siatkówki- w centrum jest dokładna precyzja :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Problemem jest kontrola tego. Po pierwsze: chcemy, żeby toto realizowało nasze interesy, a nie własne, które z naszymi mogą być sprzeczne

Mamy już z tym wiele tysięcy lat doświadczenia. Jak sprawić żeby silniejsze bydlę realizowało nasze interesy.

Ba, nawet nam się udało tak zrobić że silniejszy człowiek (czyli jednak inteligencja) słucha słabszego człowieka.

A nieraz i tak bywa że mądrzejszy słucha głupszego.

Więc taki tam AI nam nie groźny. Im mądrzejszy będzie tym bardziej będzie musiał słuchać głupich :D

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ glaude

 

Były robione doświadczenia z ludźmi (może znajdę ksiąźkę z opisem tego) - z tego co pamiętam nie chodzi w tym o budowę komórek, a o konieczność odświeżania sygnału. Stały sygnał zostaje wyzerowany. Podobnie reguje np. skóra - nie czujemy cały czas ubrania; węch - do zapachu bardzo szybko się przyzwyczajamy i staje się niewyczuwalny, itd.

 

 

 

Im mądrzejszy będzie tym bardziej będzie musiał słuchać głupich
 

 

Hmm... zależy, kto będzie trzymał wtyczkę od zasilania :D

Edytowane przez ex nihilo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Astro

 

 

bardzo szybko się przyzwyczajamy i staje się niewyczuwalny, itd.

 

Coś w tym jest. Dla homeostatu nie jest chyba tak ważny sam sygnał, co jego zmiana. Myślałem, że tym tropem lepiej jest gotować skorupiaki bardzo wolno od niskiej temperatury (osobiście tego nie czynię), ale chyba błędnie… Jeśli lewą łapkę trzymamy jakiś czas w wodzie o temperaturze +4 °C, a prawą w wodzie +30 °C, to po przełożeniu obu do wody o temperaturze +20 °C czujemy, że…

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślałem, że tym tropem lepiej jest gotować skorupiaki bardzo wolno od niskiej temperatury (osobiście tego nie czynię), ale chyba błędnie… 

 

Najlepiej chyba zamrozić (nie zaszkodziłoby wcześniej przytruć czystym azotem) i wrzucić do wrzątku. Prawdopodobnie układ nerwowy nie zdąży wtedy zareagować. Ale... tu jest jeszcze jedna sprawa - czy skorupiaki w ogóle odczuwają coś takiego jak ból. Mam np. dosyć makabryczne fotki chrabąszcza (stawonóg oczywiście, ale...), który ma całkiem wyżarty od wewnątrz odwłok i pomimo tego zachowuje się normalnie, jakby nic się nie działo. Nie wiem, czy te fotki nadają się do pokazywania, nawet tutaj... Podobnie sprawa wygląda z innymi owadami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Astro

 

 

Najlepiej chyba zamrozić (nie zaszkodziłoby wcześniej przytruć czystym azotem) i wrzucić do wrzątku.

 

Też tak słyszałem, ale jak wiesz, nie jadam takich. Mój sprzeciw dotyczy nawet (choćby tylko potencjalnie) tak brutalnych doświadczeń. ;)

Co do chrabąszcza. Czym wyżarty? Zastanawiałem się kiedyś, co odczuwa taka larwa czegusi, której osa zaaplikowała swoje geny (wyżerające oczywiście ową larwę od środka)?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...