Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Groteskowy rozumiem twój sceptycyzm, jednak chyba za bardzo rozbierasz to za bardzo na części, napisałem przed chwilą bardzo długi post, ale tak naprawdę, to też chyba to za bardzo rozdrobniłem. Brzytwą Ockhama należy się kierować, aby szukać jak najprostszych rozwiązań, ale wcale to nie oznacza że najmniej skomplikowane są poprawne.

Skupiałeś się na różnicach w budowie, no dobra, ale jak byśmy potrzebowali kopii mózgu to byśmy się skupili na biochemii i zaczęli starać się go kopiować. Ale do !@#$%^ nie potrzebujemy.

Potrzebujemy czegoś co jest w stanie się dynamicznie uczyć i rozwiązywać problemy. To o czym ty piszesz to są elementy które wymusiła natura w toku ewolucji, zróżnicowanie komórek pod względem zadań tak żeby jak najlepiej spełniały swoją rolę, oszczędzanie energii poprzez kreowanie pewnych stanów za pomocą reakcji chemicznych (impuls elektryczny trzeba generować bardzo często aby utrzymał się pewien stan, gdy tymczasem taką endorfinę puścisz raz i masz spokój na dłuższy okres czasu relatywnie do efektu jaki daje pojedyńczy impuls elektryczny, jest to z pewnością o wiele bardziej ekonomiczne od ciągłego pykania prądem )

Maszyna jest również o wiele trwalsza od normalnego mózgu, wolniej się starzeje i nie musi się przejmować utrzymywaniem cały czas jak najniższego poziomu aktywności, regulowaniem szerokości naczyń w poszczególnych częściach mózgu. No i nie zapominajmy o najważniejszym, sztuczna sieć neuronowa nie będzie miała do ogarnięcia kilku biliardów komórek.

Te wszystkie fajne elementy które tak pasjonują neurologów dla sztucznego mózgu przestają istnieć, a dlaczego? Bo jest sztuczny!!! Oczywiste no nie? To dlaczego komplikować rzeczy proste? Na przekór zasadzie na którą się sam powoływałeś, wychodzi się od prostego modelu który się rozbudowywuje, a nie od skomplikowanego który się upraszcza.

 

Poza tym nie rozumiem implikacji, ja jestem świadomy, ale kot nie, ponieważ ja nie widzę jego świadomości? Co to jest jakaś plakietką którą nosi się przypiętą do klaty? Czy rodzaj aury? Implikacja nie poprawna ;) Poza tym granica pomiędzy świadomością, a jej brakiem jest płynna i jest zależna od tego jak my ją zdefiniujemy. To nie jest jakaś uniwersalna wartość, to jest abstrakcyjne pojęcie które my stworzyliśmy, nie posiadającego żadnego wymiernego określenia w rzeczywistości.

Kolejna błędna implikacja, ja nie rozumiem na czym to dokładnie to wszystko polega, to znaczy że nikt dokładnie nie wie. Kto miał jakąkolwiek styczność ze światkiem naukowym, to wie, że czasami najlepsze wyniki chowa się głęboko, tak aby konkurencja nie wywąchała. Nie rzadko się czasami w ogóle nigdy nie publikuje aby nikt nie był w stanie poza nami powtórzyć danego eksperymentu, albo stworzyć jakiejś substancji.

Teksty popularnonaukowe mają nie wiele wspólnego z pracami naukowymi, a droga pomiędzy tekstem popularnonaukowym a odkryciem jest długa. Tak kilkuletnia. Jak teraz IBM się pochwalił symulacją, to znaczy że minęło od pierwszego uruchomienia takiej sieci pewnie z dwa lata, jak nie lepiej.

Inna sprawa, że do opisu układu wcale nie potrzeba mieć wszystkich danych, w większości wystarczają jedynie dane dotyczące punktów węzłowych, sporadycznie uzupełniane innymi danymi, zwłaszcza że pełen model biochemiczny nie jest nam do niczego potrzebny tak naprawdę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Brzytwą Ockhama należy się kierować, aby szukać jak najprostszych rozwiązań, ale wcale to nie oznacza że najmniej skomplikowane są poprawne.

 

Oczywiście, że tego nie oznacza. Napisałem gdzieś inaczej? Nie zmienia to faktu, że naukowe nastawienie wymaga, ażeby nie sugerować bardziej skomplikowanych rozwiązań, kiedy nie zbadało się prostszych. W tym wypadku najprostsza odpowiedź narzuca się sama: sieć neuronowa, tak samo jak zwykły program komputerowy, nie posiada świadomości i rozumienia, lecz czysto formalnie operuje na symbolach. Żeby twierdzić inaczej trzeba mieć jakieś dodatkowe podstawy.

 

Mógłbyś powiedzieć - i chyba to w dalszym ciągu swojej wypowiedzi sugerujesz - że w takim razie należy na początku badać najprostsze drogi, które mogłyby wieść do powstania sztucznej świadomości. Jestem jak najbardziej "za" - mówiłem już, że nie jestem w żadnym wypadku przeciwny takim badaniom.

 

Nie można jednak zapominać, że mamy przesłanki, które każą wątpić, że sieć neuronowa może wytworzyć świadomość. Z sieciami neuronowymi tylko i wyłącznie dlatego wiązano nadzieje na stworzenie AI, iż miały one odpowiadać oddziaływaniom w mózgu. Z czasem jednak okazało się, że model jakim jest sieć neuronowa w żadnym wypadku nie może być uznany, za adekwatny model mózgu. Wnioski wyciągnij sam. Fascynaci AI są tutaj ofiarą czasowego porządku debaty - sieci neuronowe się utarły jako objawienie, mimo, iż nadzieje z jakich wypływały, okazały się złudne.

 

Potrzebujemy czegoś co jest w stanie się dynamicznie uczyć i rozwiązywać problemy.

 

I od dawna już takie twory mamy. Dyskusja idzie o świadomość i myślenie. Uczeń, który metodą prób i błędów dochodzi do metody rozwiązywania pewnych problemów matematycznych również się nauczył ich rozwiązywania. Niemniej nie można powiedzieć, że te problemy rozumie.

 

To o czym ty piszesz to są elementy które wymusiła natura w toku ewolucji, zróżnicowanie komórek pod względem zadań tak żeby jak najlepiej spełniały swoją rolę, oszczędzanie energii poprzez kreowanie pewnych stanów za pomocą reakcji chemicznych (impuls elektryczny trzeba generować bardzo często aby utrzymał się pewien stan, gdy tymczasem taką endorfinę puścisz raz i masz spokój na dłuższy okres czasu relatywnie do efektu jaki daje pojedyńczy impuls elektryczny, jest to z pewnością o wiele bardziej ekonomiczne od ciągłego pykania prądem )

 

A skąd te uporczywe założenie, że sama struktura synaptyczna odpowiada za rozumienie i - dalej - świadomość. Skąd ten nieodparty błąd myślowy? Bo sieci neuronowe są cool?

 

Jedną z odpowiedzi na eksperyment myślowy Chińskiego Pokoju (odpowiedzią dość fantastyczną) było stwierdzenie, że istotna jest szybkość: gdyby Searle siedzący w pokoju manipulował tymi symbolami dostatecznie szybko, to dokonałoby się przejście fazowe ze stanów formalnych operacji, do stanów mentalnych. Fantastyka, ale podsuwająca ciekawe myśli. Co jeśli - czysto fantastycznie rozumując - świadomość rodzi się nie na poziomie przebiegu impulsów przez sieć neuronów, ale na poziomie wyższym. Np. gdyby impulsowi przypisać pewną bezwładność, albo powodowanie jakiegoś fizycznie uzasadnionego echa, których zderzenia kreują nowy poziom operacji (który zwraca dane, lub nie, do wyczulonych nań neuronów)?

 

Do czego zmierzam? Do prostego pytania - czy krzemowy impuls elektryczny z konieczności musi, w swojej fizycznej naturze, umożliwiać powstanie echa analogicznego do owej hipotezy z mózgu naturalnego? Nie! Wnioski wyciągnij sam. Ja tylko zaznaczę, że już od dekad wiadomo, że za działanie mózgu odpowiada znacznie więcej, niż tylko formalne powiązania neuronów. I tak podział na struktury, jak sama materia z jakiej sieć neuronalna jest zbudowana i tysiące innych rzeczy mogą być warunkami koniecznymi dla zaistnienia rozumienia i świadomości.

 

Te wszystkie fajne elementy które tak pasjonują neurologów dla sztucznego mózgu przestają istnieć, a dlaczego? Bo jest sztuczny!!!

 

Przestają istnieć tylko w hipotezie speców od AI. Równie dobrze taki "mózg" nie tyle będzie "sztuczny", co nie będzie nigdy w pełnym tego słowa znaczeniu "mózgiem", bo immunologicznie odporny na bakcyla świadomości.

 

Oczywiste no nie? To dlaczego komplikować rzeczy proste? Na przekór zasadzie na którą się sam powoływałeś, wychodzi się od prostego modelu który się rozbudowywuje, a nie od skomplikowanego który się upraszcza.

 

Poza tym nie rozumiem implikacji, ja jestem świadomy, ale kot nie, ponieważ ja nie widzę jego świadomości?

 

Ja też nie rozumiem. I dlatego jej nie użyłem.

 

Poza tym granica pomiędzy świadomością, a jej brakiem jest płynna i jest zależna od tego jak my ją zdefiniujemy. To nie jest jakaś uniwersalna wartość, to jest abstrakcyjne pojęcie które my stworzyliśmy, nie posiadającego żadnego wymiernego określenia w rzeczywistości.

 

Tak jest tylko dlatego, że my niczego nie wiemy o świadomości. Wielu tak to boli, że się ratują jakimiś absurdalnymi redukcjami, byle dalej "wierzyć" w AI.

 

Kto miał jakąkolwiek styczność ze światkiem naukowym, to wie, że czasami najlepsze wyniki chowa się głęboko, tak aby konkurencja nie wywąchała. Nie rzadko się czasami w ogóle nigdy nie publikuje aby nikt nie był w stanie poza nami powtórzyć danego eksperymentu, albo stworzyć jakiejś substancji.

 

W porządku - zamknijmy więc to forum. I tak nie wiadomo, czy nowy Einstein nie podważył wszystkiego co wiemy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na koniec: uwierzę w możliwość przyszłej świadomości sieci neuronowych wtedy, kiedy ich natura nie będzie polegała na karmieniu ich danymi i oczekiwaniu jak w odpowiedzi na sygnał zwrotny te wagi będą się porządkowały względem danych w oparciu o przewidziane przez człowieka algorytmy (dla mnie to zwyczajna matematyka metody prób i błędów; nic więcej), ale kiedy sieć neuronowa po prostu i zwyczajnie stwierdzi - bez żadnych pobudzeń z wejścia, że jeśli A to B i sama z siebie zacznie badać "czy-A"  ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Same sieci neuronowe może nie, bo i inne jest ich zastosowanie, choć w połączeniu ze sprzężeniem zwrotnym, logiką rozmytą i rachunkiem predykatów/gramatyką formalną, to kto wie...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tylko do jednego fragmentu spróbuję się tutaj ustosunkować (rozbijając go jednak na dwa), by moje posty nie były zbyt długie:

 

Moim zdaniem w tym miejscu nie dokonujesz koniecznej - bo zakładanej przez ten eksperyment myślowy - abstrakcji.

 

Dobrze - zabrnijmy sobie zatem w abstrakcję taką:

Załóżmy, że jesteśmy w stanie skopiować mózg ludzki doskonale - do tego stopnia, że sami o sobie nie wiemy, czy jesteśmy kopią, czy oryginałem, lecz oczywiście niewiedza ta nam nie przeszkadza, bo to dla nas bez różnicy. Wyobraźmy sobie, że otwiera się przed nami ekscytująca perspektywa "wycieczki" do innego ramienia Galaktyki, lecz trzeba by poddać się nie hibernacji nawet, a takiemu właśnie "zbackupowaniu", a później odtworzeniu, po drugiej już stronie.

Ktoś chętny?...

 

Można się żachnąć, że powyższe paradoksy wynikają z błędnego założenia, co z kolei dowodzi tego, że nie będziemy mogli mózgu skopiować - może i tak jest, ale z drugiej strony skoro z założenia algorytmizacji języka wynika, że z dwóch zachowujących się równoważnie bytów jeden tylko posiada rozum, to... - więcej, myślę, na ten temat mówić nie potrzeba.

 

Nie jest istotne, czy algorytmizacja języka jest trudna czy łatwa. Jeśli jest możliwa - a skoro wierzysz w AI oparte o coś innego, niż komputery kwantowe, to zakładasz, że jest możliwa - to można ją rozpisać na papierze.

 

Algorytm, przede wszystkim, wcale nie musi być deterministyczny. Co więcej, dla tych samych danych wejściowych może dawać różne - a wręcz i sprzeczne - odpowiedzi; na koniec: być może istnieć będą takie dane wejściowe, dla których się on nawet nie zatrzyma.

I dwie rzeczy w charakterze podsumowania: algorytm kwantowy też daje się zapisać na papierze oraz: sieci neuronowe i algorytmy genetyczne są przykładami układów, o których ewolucji - mimo iż mamy pełny opis działania - nie potrafimy przewidzieć.

To zatem, że uda się działanie ludzkiego mózgu dostatecznie dobrze zasymulować innymi środkami, nie będzie oznaczać, że mamy w ów aparat pełen wgląd i zrozumienie reguł, jakie nim powodują.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tego posta napisałem zaraz po Groteskowym, ale niestety nie miałem czasu już go skończyć, a jednak chciałbym może bardziej wyklarować o co mi chodziło.

Potraktujmy mózg i sieci neuronowe jako maszynkę do obróbki danych, mózgi małe i proste są w stanie rozwiązywać proste problemy, bardziej skomplikowane są w stanie rozwiązywać trudniejsze problemy. Tak je traktujemy, ponieważ tym właśnie są, dostają dane wejścia i wysyłają dane wyjścia.

Tutaj mam nadzieje się zgadzamy.

Na pewnym etapie rozwoju możliwości przerabiania danych pojawia się możliwość zauważenia własnego istnienia.

Sieci neuronowe gdy będą w stanie przerobić odpowiednią ilość danych będę mogły sobie zdać sprawę z własnego istnienia. Nie muszą, ale jeżeli im stworzymy do tego odpowiednie warunki, to będą miały taką możliwość. Posiadanie możliwości przerobowych nie implikuje bezpośrednio posiadania świadomości, a jedynie daje możliwość jej posiadania.

Zarówno aktualne istniejące mózgi jak i przyszłe wykorzystywanie praktycznie sieci neuronowe będą posiadały pewien model rzeczywistości.

Jedną z odpowiedzi na eksperyment myślowy Chińskiego Pokoju (odpowiedzią dość fantastyczną) było stwierdzenie, że istotna jest szybkość: gdyby Searle siedzący w pokoju manipulował tymi symbolami dostatecznie szybko, to dokonałoby się przejście fazowe ze stanów formalnych operacji, do stanów mentalnych.

I to jest najbardziej prawdopodobne rozwiązanie, liczy się szybkość, dla pewności należy również założyć że czynności dokonywane muszą posiadać odpowiedni stopień komplikacji, aby były to warunki wystarczające do zaistnienia świadomości.

 

Mózgi żywych istot same tworzą sobie model rzeczywistości na podstawie bodźców które dostarcza im środowisko. Na pewnym etapie rozwoju tego modelu pojawia się konieczność uwzględnienia własnego istnienia, model może dostarczyć bardziej dokładnego opisu "Ja" lub mniej dokładnego, zależnie od stopnia jego zaawansowania i rozbudowania.

Pojęcie świadomości nie jest w żadnej mierze miarodajne, jest to ocena subiektywna, tak samo jak coś jest lekko słodkie <=> bardzo słodkie. Więc jako takie nie może być podstawą obiektywnej oceny zdolności jakiegokolwiek układu.

Równie dobrze jako przejaw świadomości możemy uznać sam fakt uznawania własnego istnienia, co powoduje że musimy uznać większość zwierząt jako świadome. Lub też jakieś inne wyższe funkcje, planowanie własnych działań w długoterminowym odcinku czasu, lub też na przykład poczucie upływającego czasu, czy cokolwiek innego co uznamy arbitralnie za przejaw świadomości. Chodzi o to że "świadomość" należy po prostu wywalić ze słownika pojęć używanych przy AI, skupmy się na czymś miarodajnym,  na przykład test Turinga, coś co się da jednoznacznie określić.

Owszem mózg jest skomplikowanym organem, działa on wykorzystując wiele mechanizmów, prawdopodobnie nie wszystkie poznamy kiedykolwiek. Z racji tego, że wiele przemian zachodzących ogólnie w naszym ciele jesteśmy jedynie w stanie analizować na podstawie pośrednich oznaczeń, co tak naprawdę nigdy nam nie da możliwości zajrzenia jak to się naprawdę dzieje. Jesteśmy jedynie w stanie stworzyć pewien model działania mózgu tak samo jak stworzyliśmy modele mechaniki które tak naprawdę nie odzwierciedlają świata, ale jedynie pozwalają policzyć niektóre rzeczy na sucho z pewnym przybliżeniem. Możemy niestety być jedynie bliżej lub dalej od prawdy. Pytaniem jest czy potrzebujemy super dokładny model, z jasno określonymi wszystkimi mechanizmami, czy też lepsze będzie prosty model, który sam "dociągnie" do stanu równowagi.

Obróbka danych przez mózg następuje poprzez różne przemiany chemiczne i przesyłanie w jakiś sposób impulsów elektrycznych. Jeżeli przyjmiemy że świadomość to echo, szum to dlaczego jest ona uporządkowana, skoro to zakłócenie, to dlaczego wykazuje ona podobny charakter u 6 miliardów osobników?

To czego się uczepiłeś, to znaczy tego rozpraszania poza synapsami, może być równie dobrze kolejnym sposobem komunikacji pomiędzy neuronami. Może również służyć do pobudzania sąsiadów do życia, czy też może na przykład służyć kompensowaniu jakiś mikro napięć, to że z takich szumów się rodzi świadomość jest nikłe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ktoś chętny?...

 

Wystarczy poczytać Lema, ażeby stracić wszelką chęć na takie eksperymenty. Jest to z grubsza analogiczne do owego słynnego gdybania co by było gdyby: jesteś A, umierasz, na nieskończenie mały odcinek czasu przed utratą przytomności twoja świadomość zostaje przeniesiona do komputera, a następnie natychmiast przetransferowana do kopii twojego ciała. Czy zadowala Cię taka nieśmiertelność? To teraz wyobraź sobie, że oto okazuje się, że istnieje jednak lek i zostajesz odratowany.

 

[...]ale z drugiej strony skoro z założenia algorytmizacji języka wynika, że z dwóch zachowujących się równoważnie bytów jeden tylko posiada rozum, to... - więcej, myślę, na ten temat mówić nie potrzeba.

 

Nie wynika. Problem Chińskiego Pokoju to nie dowód, lecz dobre ujęcie całej masy wątpliwości związanych z AI.

 

Program szachowy wygrywający z mistrzem świata nie zachowuje się równoważnie? Zachowuje. Myśli? Nie. I nie ma tutaj nic do rzeczy fakt, że język, a gra w szachy, to zupełnie różne czynności i program szachowy po prostu ma w bazie pamięci miliony możliwych rozwinięć rozgrywki i liczy prawdopodobieństwa. To samo bowiem może równie dobrze robić sieć neuronowa potrafiąca uprawiać pogawędki. Sedno jest takie, że z samych przejawów nie da się wnioskować o istocie, a osobiście nie widzę żadnych powodów, ażeby sieci neuronowe uważać za cokolwiek innego, niż zwykłe algorytmy, poza faktem, iż sieci te starają się naśladować mózg. W związku z tym trzeba się zapytać czy robią to dobrze. Otóż powszechnie się obecnie uważa, że póki co - nie.

 

 

Algorytm, przede wszystkim, wcale nie musi być deterministyczny. Co więcej, dla tych samych danych wejściowych może dawać różne - a wręcz i sprzeczne - odpowiedzi; na koniec: być może istnieć będą takie dane wejściowe, dla których się on nawet nie zatrzyma.

 

Sprzeczne wyniki w systemie 0/1 można otrzymać przy użyciu jednej zmiennej losowej i zróżnicowania zwracanej wartości np. względem podzielności przez 2. Żeby najzwyczajniejszy algorytm się nie zatrzymał, wystarczy się machnąć w warunku wyjścia z rekurencji.

 

Tylko czy to oznacza, że nie możemy - jak Searle w swoim pokoju - przeprowadzić serii działań wymaganych przez algorytm języka? Wątpliwe. Poprawny algorytm języka musi się kończyć. Natomiast zmienne losowe można symulować chociażby nawet kostką. Czas wykonywania operacji w tym eksperymencie myślowym nie gra roli. Istotne jest to, że mimo tego, że zwracamy zawsze sensowne wyjście dla danego wejścia, to cały proces jaki za tym stoi jest bezmyślnym manipulowaniem znakami w czasie.

 

 

I dwie rzeczy w charakterze podsumowania: algorytm kwantowy też daje się zapisać na papierze

 

Niemniej jednak - o ile jestem dobrze poinformowany - nie możemy go wykonać bez komputera kwantowego. Zwykła sieć neuronowa może być natomiast zmieniona w serię operacji, nie ma tutaj mowy o żadnej realnej równoległości. Może to w niej szukać "jaźni"?

 

sieci neuronowe i algorytmy genetyczne są przykładami układów, o których ewolucji - mimo iż mamy pełny opis działania - nie potrafimy przewidzieć.

 

Podobnie jak wyniku wspomnianej funkcji z jedną zmienną losową i jednym warunkiem. Nie świadczy to ani o jakiejś tajemnej mądrości tych sieci, ani o tym, że nie możemy ich matematycznego mechanizmu zrozumieć. To czego nie możemy zrozumieć - zakładając, że jest to w ogóle możliwe - to jak ze zwykłych formalnych, krokowych operacji ma się niby rodzić jaźń.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Na pewnym etapie rozwoju możliwości przerabiania danych pojawia się możliwość zauważenia własnego istnienia.

Sieci neuronowe gdy będą w stanie przerobić odpowiednią ilość danych będę mogły sobie zdać sprawę z własnego istnienia. Nie muszą, ale jeżeli im stworzymy do tego odpowiednie warunki, to będą miały taką możliwość. Posiadanie możliwości przerobowych nie implikuje bezpośrednio posiadania świadomości, a jedynie daje możliwość jej posiadania.

 

Jedno ale - cały powyższy akapit to pobożne życzenia. Nie wiemy czy tak jest. Nie wiemy czy ilość przechodzi w jakość. Nie wiemy czy sieć neuronowa w ogóle może uświadomić sobie swoje istnienie.

 

I to jest najbardziej prawdopodobne rozwiązanie, liczy się szybkość, dla pewności należy również założyć że czynności dokonywane muszą posiadać odpowiedni stopień komplikacji, aby były to warunki wystarczające do zaistnienia świadomości.

 

Najprostsze pytanie: co ma do rzeczy szybkość, jeśli algorytm działający na zwykłym komputerze w danym momencie czasu jest w jakimś stanie S i tylko i wyłącznie w tym stanie? Co za różnica, czy przejdzie ze stanu S do stanu S' za milionową część sekundy, czy za tysiąc lat?

 

 

Pojęcie świadomości nie jest w żadnej mierze miarodajne, jest to ocena subiektywna, tak samo jak coś jest lekko słodkie <=> bardzo słodkie.

 

Jak już mówiłem - tak jest tylko dlatego, że my niemal nic z tego nie rozumiemy.

 

Więc jako takie nie może być podstawą obiektywnej oceny zdolności jakiegokolwiek układu.

 

Zakładając, że nigdy nie uda się nam pojąć "myśli".

 

Równie dobrze jako przejaw świadomości możemy uznać sam fakt uznawania własnego istnienia, co powoduje że musimy uznać większość zwierząt jako świadome.

 

Olbrzymiej większości zwierząt właśnie NIE przypisuje się tej cechy. Świadomość (ludzką) można zresztą względnie ściśle zdefiniować: świadomość występuje wtedy kiedy nie tylko jesteś w stanie myśleć rzecz, ale i myśleć, że myślisz rzecz i samemu sobie przypisywać tę zdolność. Myślisz rzecz np. trenując się w arcade'owej gierce (jak Galaxy): im mniej myślisz o tym, że myślisz, a bardziej stajesz się algorytmem najskuteczniejszej odpowiedzi na obecny stan gry, tym bardziej myślisz rzecz. Po prostu: automatyzm versus nadrzędna kontrola, która przypisuje sobie poczucie "ja".

 

Chodzi o to że "świadomość" należy po prostu wywalić ze słownika pojęć używanych przy AI, skupmy się na czymś miarodajnym,  na przykład test Turinga, coś co się da jednoznacznie określić.

 

I co niczego nie przesądza, ale może być jedyną opcją na jaką nas kiedykolwiek będzie stać.

 

Pytaniem jest czy potrzebujemy super dokładny model, z jasno określonymi wszystkimi mechanizmami, czy też lepsze będzie prosty model, który sam "dociągnie" do stanu równowagi.

 

Pytaniem jest też - czy on może do takiego stanu dociągnąć.

 

Jeżeli przyjmiemy że świadomość to echo, szum to dlaczego jest ona uporządkowana, skoro to zakłócenie, to dlaczego wykazuje ona podobny charakter u 6 miliardów osobników?

 

Echo, szum, to była tylko hipoteza, która miała pokazać, że istnieje możliwość, że materia z jakiej mózg jest zbudowany, a nie jedynie same formalne powiązania sygnału, może być niezbędna dla zaistnienia świadomości.

 

Echo możesz sobie wyobrazić jako jakiś fizyczny pogłos nad siecią powiązań synaptycznych, który wynikając z tych powiązań (zbiór P w momencie T) tworzy sieć wyższego rzędu (P' w czasie T') działająca już na innych zasadach (np. jak zderzenia fal na wodzie po wrzuceniu garści kamieni) i w czasie T'' przez wyspecjalizowane neurony jest tłumaczony na jakieś dodatkowe dane wejścia do sieci synaptycznej. Między T, a T'' sieć powiązań synaptycznych cały czas działa itp.

 

To oczywiście bajka. Chodzi o to, że nie wiemy, czy nie istnieją jakieś nieznane poziomy oddziaływań w mózgu (np. poziom kwantowy), które przecież mogą być niezbędne dla zaistnienia świadomości. Poziomy te mogą być zaś zależne od materii z jakiej zbudowana jest sieć powiązań, tym czasem w sieciach neuronowych zakłada się, że istotne są same te powiązania, ich formalny obraz. Gdyby tak w istocie było - to nie mój pomysł, ale moim zdaniem trafne spostrzeżenie - to można by sobie wyobrazić inteligencję zbudowaną z odpowiednio skonstruowanej sieci hydraulicznej.

 

 

To czego się uczepiłeś, to znaczy tego rozpraszania poza synapsami, może być równie dobrze kolejnym sposobem komunikacji pomiędzy neuronami. Może również służyć do pobudzania sąsiadów do życia, czy też może na przykład służyć kompensowaniu jakiś mikro napięć, to że z takich szumów się rodzi świadomość jest nikłe.

 

Nie pisałem, że z tego się rodzi świadomość, ale że może to być jeden z niezbędnych elementów układanki (i tak może być również wtedy, kiedy za świadomość odpowiadałyby same formalne związki, gdyż jak sam piszesz, to może być nowa forma przekazywania sygnału). Odkrycie jest bardzo świeże, nie uwzględnione w modelach sieci neuronowych. Chodzi mi o to, jak niewiele jeszcze wiemy, a jakie się ochocze zapowiedzi wygłasza.

 

Zauważ, że sieć neuronowa - owszem - ewoluuje, ale w ustalonym modelu. Ewoluuje oznacza tu tylko, że "uczy się". Jest "mózgiem", który na pewnych ustalonych zasadach przyswaja dane. Tak jak człowiek uczy się przy użyciu wytyczonych granic własnego mózgu. Żeby zmienił się model konieczna zaś jest ewolucja sieci neuronowych (ewolucja mózgów). Nie zmienisz modelu działania własnego mózgu samym myśleniem.

 

Stąd - jeśli błędny jest model sieci neuronowej ie. nie zawiera on elementu niezbędnego do uzyskania świadomości, to choćby ta sieć miała największą możliwą moc obliczeniową i uczyła się do końca czasu, nigdy tej świadomości nie uzyska. To jest ewentualność o której cały czas mówię. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Koty to jedne z najpopularniejszych zwierząt domowych, towarzyszą ludziom od tysięcy lat, wydawałoby się więc, że powinniśmy wiedzieć o nich wszystko. Jednak dopiero teraz naukowcy dowiedzieli się, jak koty... mruczą. Dotychczas sposób wydawania tego dźwięku stanowił zagadkę, gdyż zwierzęta o krótkich strunach głosowych rzadko wydają niskie dźwięki. Tymczasem u kotów niskie mruczenie (w zakresie 20-30 Hz) jest czymś powszechnym. Okazało się, że posiadają one w krtani inne struktury, umożliwiające mruczenie.
      Rodzaj dźwięku, do wydawania którego zdolne jest zwierzę, zwykle zależy od rozmiarów strun głosowych. Zwykle im większe zwierzę, tym dłuższe struny głosowe, a co za tym idzie – możliwość wydawania niższych dźwięków. Kot domowy należy do niewielkich zwierząt, ma więc krótkie struny głosowe. Za ich pomocą wydaje wysokie dźwięki, miauczenie czy skrzeczenie. Jednak potrafi też nisko mruczeć.
      Obowiązująca obecnie hipoteza – zwana hipotezą AMC – mówiła, że zdolność kotów do mruczenia jest całkowicie uzależniona od „aktywnego kurczenia mięśni”. Christian T. Herbst z Uniwersytetu Wiedeńskiego i jego koledzy z Austrii, Szwajcarii i Czech postanowili przetestować tę hipotezę. Przeprowadzili więc sekcję tchawic ośmiu kotów domowych, które zostały uśpione z powodu różnych chorób. Odkryli, że z tchawicy można uzyskać niski dźwięk, gdy przechodzi przez nią powietrze, zatem skurcze mięśni nie są tutaj potrzebne. Naukowcy zauważyli, że powstanie niskich dźwięków (25-30 Hz) jest możliwe dzięki obecności tkanki łącznej w kocich strunach głosowych. Tkanka ta była znana już wcześniej, ale dotychczas nikt nie łączył jej z mruczeniem. Herbst nie wyklucza jednak, że skurcze mięśni są potrzebne do wzmocnienia pomruku.
      Teraz, skoro już dowiedzieliśmy się, jak koty mruczą, do rozwiązania zostaje zagadka, po co to robią.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Mózg chroniony jest przez czaszkę, opony mózgowo-rdzeniowe i barierę krew-mózg. Dlatego leczenie chorób go dotykających – jak udary czy choroba Alzheimera – nie jest łatwe. Jakiś czas temu naukowcy odkryli szlaki umożliwiające przemieszczanie się komórek układ odpornościowego ze szpiku kości czaszki do mózgu. Niemieccy naukowcy zauważyli, że komórki te przedostają się poza oponę twardą. Zaczęli więc zastanawiać się, czy kości czaszki zawierają jakieś szczególne komórki i molekuły, wyspecjalizowane do interakcji z mózgiem. Okazało się, że tak.
      Badania prowadził zespół profesora Alego Ertürka z Helmholtz Zentrum München we współpracy z naukowcami z Uniwersytetu Ludwika i Maksymiliana w Monachium oraz Uniwersytetu Technicznego w Monachium. Analizy RNA i białek zarówno w kościach mysich, jak i ludzkich, wykazały, że rzeczywiście kości czaszki są pod tym względem wyjątkowe. Zawierają unikatową populację neutrofili, odgrywających szczególną rolę w odpowiedzi immunologicznej. Odkrycie to ma olbrzymie znaczenie, gdyż wskazuje, że istnieje złożony system interakcji pomiędzy czaszką a mózgiem, mówi doktorant Ilgin Kolabas z Helmholtz München.
      To otwiera przed nami olbrzymie możliwości diagnostyczne i terapeutyczne, potencjalnie może zrewolucjonizować naszą wiedzę o chorobach neurologicznych. Ten przełom może doprowadzić do opracowania bardziej efektywnych sposobów monitorowania takich schorzeń jak udar czy choroba Alzheimer i, potencjalnie, pomóc w zapobieżeniu im poprzez wczesne wykrycie ich objawów, dodaje profesor Ertürk.
      Co więcej, badania techniką pozytonowej tomografii emisyjnej (PET) ujawniły, że sygnały z czaszki odpowiadają sygnałom z mózgu, a zmiany tych sygnałów odpowiadają postępom choroby Alzhaimera i udaru. To wskazuje na możliwość monitorowania stanu pacjenta za pomocą skanowania powierzchni jego głowy.
      Członkowie zespołu badawczego przewidują, że w przyszłości ich odkrycie przełoży się na opracowanie metod łatwego monitorowania stanu zdrowia mózgu oraz postępów chorób neurologicznych za pomocą prostych przenośnych urządzeń. Nie można wykluczyć, że dzięki niemu opracowane zostaną efektywne metody ich leczenia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na łamach Human Brain Mapping ukazał się artykuł, którego autorzy informują o zauważeniu międzypłciowych różnic w budowie mózgu u 5-letnich dzieci. Różnice zaobserwowane w istocie białej uwidaczniają różnice w rozwoju obu płci. Wyraźnie widoczny jest dymorfizm płciowy, a już w 5-letnim mózgu widać znaczne różnice w wielu regionach mózgu. Uzyskane wyniki zgadzają się z wynikami wcześniejszych badań, które wskazywały na szybszy rozwój mózgu kobiet.
      Podczas badań naukowcy wykorzystali technikę MRI obrazowania tensora dyfuzji. Polega ona na wykrywaniu mikroskopijnych ruchów dyfuzyjnych cząsteczek wody w przestrzeni zewnątrzkomórkowej tkanek. Jednym z głównych parametrów ocenianych tą metodą jest frakcjonowana anizotropia (FA). Jako, że tkanka nerwowa ośrodkowego układu nerwowego ma uporządkowaną budowę, oceniając współczynnik FA można zauważyć różnice w budowę istoty białej.
      Uczeni z Uniwersytetu w Turku porównali tą metodą budowę istoty białej u 166 zdrowych niemowląt w wieku 2–5 tygodni oraz 144 zdrowych dzieci w wieku od 5,1 do 5,8 lat. O ile u niemowląt nie zauważono istotnych statystycznie różnic pomiędzy płciami, to już u 5-latków wyraźnie widoczne były różnice międzypłciowe. U dziewczynek wartości FA dla całej istoty białej były wyższe we wszystkich regionach mózgu. Szczególnie zaś duża różnica występowała dla tylnych i bocznych obszarów oraz dla prawej półkuli.
      W naszej próbce typowo rozwijających się zdrowych 5-latków odkryliśmy szeroko zakrojone różnice międzypłciowe we frakcjonowanej anizotropii istoty białej. Dziewczynki miały wyższą wartość FA we wszystkich obszarach, a różnice te były istotne. [...] W naszych badaniach uwidoczniliśmy znacząco większe różnice niż wcześniej opisywane. Uzyskane przez nas wyniki pokazują dymorfizm płciowy w strukturze rozwijającego się 5-letniego mózgu, z wyraźnie wykrywalnymi zmianami w wielu regionach, czytamy na łamach Human Brain Mapping.
      Autorzy przypuszczają, że różnice te mogą wynikać z różnej dynamiki rozwoju mózgu u obu płci. Przypominają też, że z innych badań wynika, iż w późniejszym wieku dynamika ta jest wyższa u chłopców, przez co z wiekiem różnice się minimalizują. To zaś może wyjaśniać, dlaczego autorzy niektórych badań nie zauważali różnic w próbkach starszych osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Z pisma Intelligence dowiadujemy się, że po raz pierwszy od niemal 100 lat ma miejsce spadek średniej liczby punktów uzyskiwanych w testach IQ przez mieszkańców USA. Naukowcy z Northwestern University i University of Oregon postanowili uzupełnić obecną w amerykańskiej nauce lukę dotyczącą badań nad tzw. efektem Flynna za ostatnie dekady. Efekt Flynna wziął nazwę od nowozelandzkiego naukowca, który w 1984 roku – analizując wyniki testów na inteligencję z 14 krajów zachodnich – zauważył, że od początku XX wieku mamy do czynienia ze stałym wzrostem liczby uzyskiwanych punktów.
      Efekt Flynna oznacza, że jeśli np. weźmiemy grupę przedstawicieli pokolenia Baby Boomers (urodzonych w latach 1946–1964) i sprawdzimy wyniki ich testów na inteligencję, gdy mieli 20 lat, to okaże się, że uzyskali oni niższe wyniki niż 20-latkowie z pokolenia Milenialsów (ur. 1981–1996). Prowadzone w ostatnich latach badania efektu Flynna wykazały, że na terenie Europy poziom inteligencji, wyrażony za pomocą testów IQ, w najlepszym wypadku nie rośnie, a nawet spada. Teraz okazało się, że podobne zjawisko występuje również w USA.
      Badacze z Northwestern i Oregonu wzięli pod uwagę wyniki online'owych testów na inteligencję przeprowadzonych w latach 2006–2018 na próbce 394 378 dorosłych. Zauważyli, że dochodzi do odwrócenia efektu Flynna czyli spadku liczby uzyskiwanych punktów, a największy jest on w grupie osób w wieku 18–22 lat oraz w grupie osób słabiej wykształconych.
      Niektóre umiejętności, dotyczące np. orientacji przestrzennej, wzrosły, jednak zarówno wskaźniki ogólne jak i dla poszczególnych rodzajów inteligencji – w tym inteligencja werbalna czy umiejętność rozwiązywania problemów matematycznych – uległy pogorszeniu. Naukowcy nie sprawdzali, skąd bierze się ten spadek. Nie wykluczają jednak, że przynajmniej w pewnej mierze są za to odpowiedzialne zmiany w systemie edukacji. Jako, że wyniki uzyskane przez najmłodszych uczestników badań były niższe niezależnie od poziomu wykształcenia, może to wskazywać, że albo doszło do obniżenia poziomu nauczania albo/i zmieniło się postrzeganie wartości pewnych zdolności umysłowych, czytamy w opublikowanym artykule.
      Nie można wykluczyć, że wzrost inteligencji przez ostatnich 100 lat powiązany był z rozwojem tych umiejętności, które były cenione przez społeczeństwo. Biorąc to pod uwagę, można argumentować, że umiejętności niewerbalne badane za pomocą matryc, serii liczb czy wnioskowanie werbalne są obecnie mniej cenione, niż w czasach, gdy Flynn dokonał swojego spostrzeżenia, stwierdzają autorzy badań. Dodają przy tym, że wyniki tych badań i różnice w uzyskiwanej punktacji, efekt Flynna i jego odwrócenie nie oznaczają rzeczywistych wzrostów czy spadków poziomu inteligencji.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...