Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Groteskowy rozumiem twój sceptycyzm, jednak chyba za bardzo rozbierasz to za bardzo na części, napisałem przed chwilą bardzo długi post, ale tak naprawdę, to też chyba to za bardzo rozdrobniłem. Brzytwą Ockhama należy się kierować, aby szukać jak najprostszych rozwiązań, ale wcale to nie oznacza że najmniej skomplikowane są poprawne.

Skupiałeś się na różnicach w budowie, no dobra, ale jak byśmy potrzebowali kopii mózgu to byśmy się skupili na biochemii i zaczęli starać się go kopiować. Ale do !@#$%^ nie potrzebujemy.

Potrzebujemy czegoś co jest w stanie się dynamicznie uczyć i rozwiązywać problemy. To o czym ty piszesz to są elementy które wymusiła natura w toku ewolucji, zróżnicowanie komórek pod względem zadań tak żeby jak najlepiej spełniały swoją rolę, oszczędzanie energii poprzez kreowanie pewnych stanów za pomocą reakcji chemicznych (impuls elektryczny trzeba generować bardzo często aby utrzymał się pewien stan, gdy tymczasem taką endorfinę puścisz raz i masz spokój na dłuższy okres czasu relatywnie do efektu jaki daje pojedyńczy impuls elektryczny, jest to z pewnością o wiele bardziej ekonomiczne od ciągłego pykania prądem )

Maszyna jest również o wiele trwalsza od normalnego mózgu, wolniej się starzeje i nie musi się przejmować utrzymywaniem cały czas jak najniższego poziomu aktywności, regulowaniem szerokości naczyń w poszczególnych częściach mózgu. No i nie zapominajmy o najważniejszym, sztuczna sieć neuronowa nie będzie miała do ogarnięcia kilku biliardów komórek.

Te wszystkie fajne elementy które tak pasjonują neurologów dla sztucznego mózgu przestają istnieć, a dlaczego? Bo jest sztuczny!!! Oczywiste no nie? To dlaczego komplikować rzeczy proste? Na przekór zasadzie na którą się sam powoływałeś, wychodzi się od prostego modelu który się rozbudowywuje, a nie od skomplikowanego który się upraszcza.

 

Poza tym nie rozumiem implikacji, ja jestem świadomy, ale kot nie, ponieważ ja nie widzę jego świadomości? Co to jest jakaś plakietką którą nosi się przypiętą do klaty? Czy rodzaj aury? Implikacja nie poprawna ;) Poza tym granica pomiędzy świadomością, a jej brakiem jest płynna i jest zależna od tego jak my ją zdefiniujemy. To nie jest jakaś uniwersalna wartość, to jest abstrakcyjne pojęcie które my stworzyliśmy, nie posiadającego żadnego wymiernego określenia w rzeczywistości.

Kolejna błędna implikacja, ja nie rozumiem na czym to dokładnie to wszystko polega, to znaczy że nikt dokładnie nie wie. Kto miał jakąkolwiek styczność ze światkiem naukowym, to wie, że czasami najlepsze wyniki chowa się głęboko, tak aby konkurencja nie wywąchała. Nie rzadko się czasami w ogóle nigdy nie publikuje aby nikt nie był w stanie poza nami powtórzyć danego eksperymentu, albo stworzyć jakiejś substancji.

Teksty popularnonaukowe mają nie wiele wspólnego z pracami naukowymi, a droga pomiędzy tekstem popularnonaukowym a odkryciem jest długa. Tak kilkuletnia. Jak teraz IBM się pochwalił symulacją, to znaczy że minęło od pierwszego uruchomienia takiej sieci pewnie z dwa lata, jak nie lepiej.

Inna sprawa, że do opisu układu wcale nie potrzeba mieć wszystkich danych, w większości wystarczają jedynie dane dotyczące punktów węzłowych, sporadycznie uzupełniane innymi danymi, zwłaszcza że pełen model biochemiczny nie jest nam do niczego potrzebny tak naprawdę.

Share this post


Link to post
Share on other sites

Brzytwą Ockhama należy się kierować, aby szukać jak najprostszych rozwiązań, ale wcale to nie oznacza że najmniej skomplikowane są poprawne.

 

Oczywiście, że tego nie oznacza. Napisałem gdzieś inaczej? Nie zmienia to faktu, że naukowe nastawienie wymaga, ażeby nie sugerować bardziej skomplikowanych rozwiązań, kiedy nie zbadało się prostszych. W tym wypadku najprostsza odpowiedź narzuca się sama: sieć neuronowa, tak samo jak zwykły program komputerowy, nie posiada świadomości i rozumienia, lecz czysto formalnie operuje na symbolach. Żeby twierdzić inaczej trzeba mieć jakieś dodatkowe podstawy.

 

Mógłbyś powiedzieć - i chyba to w dalszym ciągu swojej wypowiedzi sugerujesz - że w takim razie należy na początku badać najprostsze drogi, które mogłyby wieść do powstania sztucznej świadomości. Jestem jak najbardziej "za" - mówiłem już, że nie jestem w żadnym wypadku przeciwny takim badaniom.

 

Nie można jednak zapominać, że mamy przesłanki, które każą wątpić, że sieć neuronowa może wytworzyć świadomość. Z sieciami neuronowymi tylko i wyłącznie dlatego wiązano nadzieje na stworzenie AI, iż miały one odpowiadać oddziaływaniom w mózgu. Z czasem jednak okazało się, że model jakim jest sieć neuronowa w żadnym wypadku nie może być uznany, za adekwatny model mózgu. Wnioski wyciągnij sam. Fascynaci AI są tutaj ofiarą czasowego porządku debaty - sieci neuronowe się utarły jako objawienie, mimo, iż nadzieje z jakich wypływały, okazały się złudne.

 

Potrzebujemy czegoś co jest w stanie się dynamicznie uczyć i rozwiązywać problemy.

 

I od dawna już takie twory mamy. Dyskusja idzie o świadomość i myślenie. Uczeń, który metodą prób i błędów dochodzi do metody rozwiązywania pewnych problemów matematycznych również się nauczył ich rozwiązywania. Niemniej nie można powiedzieć, że te problemy rozumie.

 

To o czym ty piszesz to są elementy które wymusiła natura w toku ewolucji, zróżnicowanie komórek pod względem zadań tak żeby jak najlepiej spełniały swoją rolę, oszczędzanie energii poprzez kreowanie pewnych stanów za pomocą reakcji chemicznych (impuls elektryczny trzeba generować bardzo często aby utrzymał się pewien stan, gdy tymczasem taką endorfinę puścisz raz i masz spokój na dłuższy okres czasu relatywnie do efektu jaki daje pojedyńczy impuls elektryczny, jest to z pewnością o wiele bardziej ekonomiczne od ciągłego pykania prądem )

 

A skąd te uporczywe założenie, że sama struktura synaptyczna odpowiada za rozumienie i - dalej - świadomość. Skąd ten nieodparty błąd myślowy? Bo sieci neuronowe są cool?

 

Jedną z odpowiedzi na eksperyment myślowy Chińskiego Pokoju (odpowiedzią dość fantastyczną) było stwierdzenie, że istotna jest szybkość: gdyby Searle siedzący w pokoju manipulował tymi symbolami dostatecznie szybko, to dokonałoby się przejście fazowe ze stanów formalnych operacji, do stanów mentalnych. Fantastyka, ale podsuwająca ciekawe myśli. Co jeśli - czysto fantastycznie rozumując - świadomość rodzi się nie na poziomie przebiegu impulsów przez sieć neuronów, ale na poziomie wyższym. Np. gdyby impulsowi przypisać pewną bezwładność, albo powodowanie jakiegoś fizycznie uzasadnionego echa, których zderzenia kreują nowy poziom operacji (który zwraca dane, lub nie, do wyczulonych nań neuronów)?

 

Do czego zmierzam? Do prostego pytania - czy krzemowy impuls elektryczny z konieczności musi, w swojej fizycznej naturze, umożliwiać powstanie echa analogicznego do owej hipotezy z mózgu naturalnego? Nie! Wnioski wyciągnij sam. Ja tylko zaznaczę, że już od dekad wiadomo, że za działanie mózgu odpowiada znacznie więcej, niż tylko formalne powiązania neuronów. I tak podział na struktury, jak sama materia z jakiej sieć neuronalna jest zbudowana i tysiące innych rzeczy mogą być warunkami koniecznymi dla zaistnienia rozumienia i świadomości.

 

Te wszystkie fajne elementy które tak pasjonują neurologów dla sztucznego mózgu przestają istnieć, a dlaczego? Bo jest sztuczny!!!

 

Przestają istnieć tylko w hipotezie speców od AI. Równie dobrze taki "mózg" nie tyle będzie "sztuczny", co nie będzie nigdy w pełnym tego słowa znaczeniu "mózgiem", bo immunologicznie odporny na bakcyla świadomości.

 

Oczywiste no nie? To dlaczego komplikować rzeczy proste? Na przekór zasadzie na którą się sam powoływałeś, wychodzi się od prostego modelu który się rozbudowywuje, a nie od skomplikowanego który się upraszcza.

 

Poza tym nie rozumiem implikacji, ja jestem świadomy, ale kot nie, ponieważ ja nie widzę jego świadomości?

 

Ja też nie rozumiem. I dlatego jej nie użyłem.

 

Poza tym granica pomiędzy świadomością, a jej brakiem jest płynna i jest zależna od tego jak my ją zdefiniujemy. To nie jest jakaś uniwersalna wartość, to jest abstrakcyjne pojęcie które my stworzyliśmy, nie posiadającego żadnego wymiernego określenia w rzeczywistości.

 

Tak jest tylko dlatego, że my niczego nie wiemy o świadomości. Wielu tak to boli, że się ratują jakimiś absurdalnymi redukcjami, byle dalej "wierzyć" w AI.

 

Kto miał jakąkolwiek styczność ze światkiem naukowym, to wie, że czasami najlepsze wyniki chowa się głęboko, tak aby konkurencja nie wywąchała. Nie rzadko się czasami w ogóle nigdy nie publikuje aby nikt nie był w stanie poza nami powtórzyć danego eksperymentu, albo stworzyć jakiejś substancji.

 

W porządku - zamknijmy więc to forum. I tak nie wiadomo, czy nowy Einstein nie podważył wszystkiego co wiemy.

Share this post


Link to post
Share on other sites

Na koniec: uwierzę w możliwość przyszłej świadomości sieci neuronowych wtedy, kiedy ich natura nie będzie polegała na karmieniu ich danymi i oczekiwaniu jak w odpowiedzi na sygnał zwrotny te wagi będą się porządkowały względem danych w oparciu o przewidziane przez człowieka algorytmy (dla mnie to zwyczajna matematyka metody prób i błędów; nic więcej), ale kiedy sieć neuronowa po prostu i zwyczajnie stwierdzi - bez żadnych pobudzeń z wejścia, że jeśli A to B i sama z siebie zacznie badać "czy-A"  ;)

Share this post


Link to post
Share on other sites

Same sieci neuronowe może nie, bo i inne jest ich zastosowanie, choć w połączeniu ze sprzężeniem zwrotnym, logiką rozmytą i rachunkiem predykatów/gramatyką formalną, to kto wie...

Share this post


Link to post
Share on other sites

Ja tylko do jednego fragmentu spróbuję się tutaj ustosunkować (rozbijając go jednak na dwa), by moje posty nie były zbyt długie:

 

Moim zdaniem w tym miejscu nie dokonujesz koniecznej - bo zakładanej przez ten eksperyment myślowy - abstrakcji.

 

Dobrze - zabrnijmy sobie zatem w abstrakcję taką:

Załóżmy, że jesteśmy w stanie skopiować mózg ludzki doskonale - do tego stopnia, że sami o sobie nie wiemy, czy jesteśmy kopią, czy oryginałem, lecz oczywiście niewiedza ta nam nie przeszkadza, bo to dla nas bez różnicy. Wyobraźmy sobie, że otwiera się przed nami ekscytująca perspektywa "wycieczki" do innego ramienia Galaktyki, lecz trzeba by poddać się nie hibernacji nawet, a takiemu właśnie "zbackupowaniu", a później odtworzeniu, po drugiej już stronie.

Ktoś chętny?...

 

Można się żachnąć, że powyższe paradoksy wynikają z błędnego założenia, co z kolei dowodzi tego, że nie będziemy mogli mózgu skopiować - może i tak jest, ale z drugiej strony skoro z założenia algorytmizacji języka wynika, że z dwóch zachowujących się równoważnie bytów jeden tylko posiada rozum, to... - więcej, myślę, na ten temat mówić nie potrzeba.

 

Nie jest istotne, czy algorytmizacja języka jest trudna czy łatwa. Jeśli jest możliwa - a skoro wierzysz w AI oparte o coś innego, niż komputery kwantowe, to zakładasz, że jest możliwa - to można ją rozpisać na papierze.

 

Algorytm, przede wszystkim, wcale nie musi być deterministyczny. Co więcej, dla tych samych danych wejściowych może dawać różne - a wręcz i sprzeczne - odpowiedzi; na koniec: być może istnieć będą takie dane wejściowe, dla których się on nawet nie zatrzyma.

I dwie rzeczy w charakterze podsumowania: algorytm kwantowy też daje się zapisać na papierze oraz: sieci neuronowe i algorytmy genetyczne są przykładami układów, o których ewolucji - mimo iż mamy pełny opis działania - nie potrafimy przewidzieć.

To zatem, że uda się działanie ludzkiego mózgu dostatecznie dobrze zasymulować innymi środkami, nie będzie oznaczać, że mamy w ów aparat pełen wgląd i zrozumienie reguł, jakie nim powodują.

Share this post


Link to post
Share on other sites

Tego posta napisałem zaraz po Groteskowym, ale niestety nie miałem czasu już go skończyć, a jednak chciałbym może bardziej wyklarować o co mi chodziło.

Potraktujmy mózg i sieci neuronowe jako maszynkę do obróbki danych, mózgi małe i proste są w stanie rozwiązywać proste problemy, bardziej skomplikowane są w stanie rozwiązywać trudniejsze problemy. Tak je traktujemy, ponieważ tym właśnie są, dostają dane wejścia i wysyłają dane wyjścia.

Tutaj mam nadzieje się zgadzamy.

Na pewnym etapie rozwoju możliwości przerabiania danych pojawia się możliwość zauważenia własnego istnienia.

Sieci neuronowe gdy będą w stanie przerobić odpowiednią ilość danych będę mogły sobie zdać sprawę z własnego istnienia. Nie muszą, ale jeżeli im stworzymy do tego odpowiednie warunki, to będą miały taką możliwość. Posiadanie możliwości przerobowych nie implikuje bezpośrednio posiadania świadomości, a jedynie daje możliwość jej posiadania.

Zarówno aktualne istniejące mózgi jak i przyszłe wykorzystywanie praktycznie sieci neuronowe będą posiadały pewien model rzeczywistości.

Jedną z odpowiedzi na eksperyment myślowy Chińskiego Pokoju (odpowiedzią dość fantastyczną) było stwierdzenie, że istotna jest szybkość: gdyby Searle siedzący w pokoju manipulował tymi symbolami dostatecznie szybko, to dokonałoby się przejście fazowe ze stanów formalnych operacji, do stanów mentalnych.

I to jest najbardziej prawdopodobne rozwiązanie, liczy się szybkość, dla pewności należy również założyć że czynności dokonywane muszą posiadać odpowiedni stopień komplikacji, aby były to warunki wystarczające do zaistnienia świadomości.

 

Mózgi żywych istot same tworzą sobie model rzeczywistości na podstawie bodźców które dostarcza im środowisko. Na pewnym etapie rozwoju tego modelu pojawia się konieczność uwzględnienia własnego istnienia, model może dostarczyć bardziej dokładnego opisu "Ja" lub mniej dokładnego, zależnie od stopnia jego zaawansowania i rozbudowania.

Pojęcie świadomości nie jest w żadnej mierze miarodajne, jest to ocena subiektywna, tak samo jak coś jest lekko słodkie <=> bardzo słodkie. Więc jako takie nie może być podstawą obiektywnej oceny zdolności jakiegokolwiek układu.

Równie dobrze jako przejaw świadomości możemy uznać sam fakt uznawania własnego istnienia, co powoduje że musimy uznać większość zwierząt jako świadome. Lub też jakieś inne wyższe funkcje, planowanie własnych działań w długoterminowym odcinku czasu, lub też na przykład poczucie upływającego czasu, czy cokolwiek innego co uznamy arbitralnie za przejaw świadomości. Chodzi o to że "świadomość" należy po prostu wywalić ze słownika pojęć używanych przy AI, skupmy się na czymś miarodajnym,  na przykład test Turinga, coś co się da jednoznacznie określić.

Owszem mózg jest skomplikowanym organem, działa on wykorzystując wiele mechanizmów, prawdopodobnie nie wszystkie poznamy kiedykolwiek. Z racji tego, że wiele przemian zachodzących ogólnie w naszym ciele jesteśmy jedynie w stanie analizować na podstawie pośrednich oznaczeń, co tak naprawdę nigdy nam nie da możliwości zajrzenia jak to się naprawdę dzieje. Jesteśmy jedynie w stanie stworzyć pewien model działania mózgu tak samo jak stworzyliśmy modele mechaniki które tak naprawdę nie odzwierciedlają świata, ale jedynie pozwalają policzyć niektóre rzeczy na sucho z pewnym przybliżeniem. Możemy niestety być jedynie bliżej lub dalej od prawdy. Pytaniem jest czy potrzebujemy super dokładny model, z jasno określonymi wszystkimi mechanizmami, czy też lepsze będzie prosty model, który sam "dociągnie" do stanu równowagi.

Obróbka danych przez mózg następuje poprzez różne przemiany chemiczne i przesyłanie w jakiś sposób impulsów elektrycznych. Jeżeli przyjmiemy że świadomość to echo, szum to dlaczego jest ona uporządkowana, skoro to zakłócenie, to dlaczego wykazuje ona podobny charakter u 6 miliardów osobników?

To czego się uczepiłeś, to znaczy tego rozpraszania poza synapsami, może być równie dobrze kolejnym sposobem komunikacji pomiędzy neuronami. Może również służyć do pobudzania sąsiadów do życia, czy też może na przykład służyć kompensowaniu jakiś mikro napięć, to że z takich szumów się rodzi świadomość jest nikłe.

Share this post


Link to post
Share on other sites

Ktoś chętny?...

 

Wystarczy poczytać Lema, ażeby stracić wszelką chęć na takie eksperymenty. Jest to z grubsza analogiczne do owego słynnego gdybania co by było gdyby: jesteś A, umierasz, na nieskończenie mały odcinek czasu przed utratą przytomności twoja świadomość zostaje przeniesiona do komputera, a następnie natychmiast przetransferowana do kopii twojego ciała. Czy zadowala Cię taka nieśmiertelność? To teraz wyobraź sobie, że oto okazuje się, że istnieje jednak lek i zostajesz odratowany.

 

[...]ale z drugiej strony skoro z założenia algorytmizacji języka wynika, że z dwóch zachowujących się równoważnie bytów jeden tylko posiada rozum, to... - więcej, myślę, na ten temat mówić nie potrzeba.

 

Nie wynika. Problem Chińskiego Pokoju to nie dowód, lecz dobre ujęcie całej masy wątpliwości związanych z AI.

 

Program szachowy wygrywający z mistrzem świata nie zachowuje się równoważnie? Zachowuje. Myśli? Nie. I nie ma tutaj nic do rzeczy fakt, że język, a gra w szachy, to zupełnie różne czynności i program szachowy po prostu ma w bazie pamięci miliony możliwych rozwinięć rozgrywki i liczy prawdopodobieństwa. To samo bowiem może równie dobrze robić sieć neuronowa potrafiąca uprawiać pogawędki. Sedno jest takie, że z samych przejawów nie da się wnioskować o istocie, a osobiście nie widzę żadnych powodów, ażeby sieci neuronowe uważać za cokolwiek innego, niż zwykłe algorytmy, poza faktem, iż sieci te starają się naśladować mózg. W związku z tym trzeba się zapytać czy robią to dobrze. Otóż powszechnie się obecnie uważa, że póki co - nie.

 

 

Algorytm, przede wszystkim, wcale nie musi być deterministyczny. Co więcej, dla tych samych danych wejściowych może dawać różne - a wręcz i sprzeczne - odpowiedzi; na koniec: być może istnieć będą takie dane wejściowe, dla których się on nawet nie zatrzyma.

 

Sprzeczne wyniki w systemie 0/1 można otrzymać przy użyciu jednej zmiennej losowej i zróżnicowania zwracanej wartości np. względem podzielności przez 2. Żeby najzwyczajniejszy algorytm się nie zatrzymał, wystarczy się machnąć w warunku wyjścia z rekurencji.

 

Tylko czy to oznacza, że nie możemy - jak Searle w swoim pokoju - przeprowadzić serii działań wymaganych przez algorytm języka? Wątpliwe. Poprawny algorytm języka musi się kończyć. Natomiast zmienne losowe można symulować chociażby nawet kostką. Czas wykonywania operacji w tym eksperymencie myślowym nie gra roli. Istotne jest to, że mimo tego, że zwracamy zawsze sensowne wyjście dla danego wejścia, to cały proces jaki za tym stoi jest bezmyślnym manipulowaniem znakami w czasie.

 

 

I dwie rzeczy w charakterze podsumowania: algorytm kwantowy też daje się zapisać na papierze

 

Niemniej jednak - o ile jestem dobrze poinformowany - nie możemy go wykonać bez komputera kwantowego. Zwykła sieć neuronowa może być natomiast zmieniona w serię operacji, nie ma tutaj mowy o żadnej realnej równoległości. Może to w niej szukać "jaźni"?

 

sieci neuronowe i algorytmy genetyczne są przykładami układów, o których ewolucji - mimo iż mamy pełny opis działania - nie potrafimy przewidzieć.

 

Podobnie jak wyniku wspomnianej funkcji z jedną zmienną losową i jednym warunkiem. Nie świadczy to ani o jakiejś tajemnej mądrości tych sieci, ani o tym, że nie możemy ich matematycznego mechanizmu zrozumieć. To czego nie możemy zrozumieć - zakładając, że jest to w ogóle możliwe - to jak ze zwykłych formalnych, krokowych operacji ma się niby rodzić jaźń.

Share this post


Link to post
Share on other sites

 

Na pewnym etapie rozwoju możliwości przerabiania danych pojawia się możliwość zauważenia własnego istnienia.

Sieci neuronowe gdy będą w stanie przerobić odpowiednią ilość danych będę mogły sobie zdać sprawę z własnego istnienia. Nie muszą, ale jeżeli im stworzymy do tego odpowiednie warunki, to będą miały taką możliwość. Posiadanie możliwości przerobowych nie implikuje bezpośrednio posiadania świadomości, a jedynie daje możliwość jej posiadania.

 

Jedno ale - cały powyższy akapit to pobożne życzenia. Nie wiemy czy tak jest. Nie wiemy czy ilość przechodzi w jakość. Nie wiemy czy sieć neuronowa w ogóle może uświadomić sobie swoje istnienie.

 

I to jest najbardziej prawdopodobne rozwiązanie, liczy się szybkość, dla pewności należy również założyć że czynności dokonywane muszą posiadać odpowiedni stopień komplikacji, aby były to warunki wystarczające do zaistnienia świadomości.

 

Najprostsze pytanie: co ma do rzeczy szybkość, jeśli algorytm działający na zwykłym komputerze w danym momencie czasu jest w jakimś stanie S i tylko i wyłącznie w tym stanie? Co za różnica, czy przejdzie ze stanu S do stanu S' za milionową część sekundy, czy za tysiąc lat?

 

 

Pojęcie świadomości nie jest w żadnej mierze miarodajne, jest to ocena subiektywna, tak samo jak coś jest lekko słodkie <=> bardzo słodkie.

 

Jak już mówiłem - tak jest tylko dlatego, że my niemal nic z tego nie rozumiemy.

 

Więc jako takie nie może być podstawą obiektywnej oceny zdolności jakiegokolwiek układu.

 

Zakładając, że nigdy nie uda się nam pojąć "myśli".

 

Równie dobrze jako przejaw świadomości możemy uznać sam fakt uznawania własnego istnienia, co powoduje że musimy uznać większość zwierząt jako świadome.

 

Olbrzymiej większości zwierząt właśnie NIE przypisuje się tej cechy. Świadomość (ludzką) można zresztą względnie ściśle zdefiniować: świadomość występuje wtedy kiedy nie tylko jesteś w stanie myśleć rzecz, ale i myśleć, że myślisz rzecz i samemu sobie przypisywać tę zdolność. Myślisz rzecz np. trenując się w arcade'owej gierce (jak Galaxy): im mniej myślisz o tym, że myślisz, a bardziej stajesz się algorytmem najskuteczniejszej odpowiedzi na obecny stan gry, tym bardziej myślisz rzecz. Po prostu: automatyzm versus nadrzędna kontrola, która przypisuje sobie poczucie "ja".

 

Chodzi o to że "świadomość" należy po prostu wywalić ze słownika pojęć używanych przy AI, skupmy się na czymś miarodajnym,  na przykład test Turinga, coś co się da jednoznacznie określić.

 

I co niczego nie przesądza, ale może być jedyną opcją na jaką nas kiedykolwiek będzie stać.

 

Pytaniem jest czy potrzebujemy super dokładny model, z jasno określonymi wszystkimi mechanizmami, czy też lepsze będzie prosty model, który sam "dociągnie" do stanu równowagi.

 

Pytaniem jest też - czy on może do takiego stanu dociągnąć.

 

Jeżeli przyjmiemy że świadomość to echo, szum to dlaczego jest ona uporządkowana, skoro to zakłócenie, to dlaczego wykazuje ona podobny charakter u 6 miliardów osobników?

 

Echo, szum, to była tylko hipoteza, która miała pokazać, że istnieje możliwość, że materia z jakiej mózg jest zbudowany, a nie jedynie same formalne powiązania sygnału, może być niezbędna dla zaistnienia świadomości.

 

Echo możesz sobie wyobrazić jako jakiś fizyczny pogłos nad siecią powiązań synaptycznych, który wynikając z tych powiązań (zbiór P w momencie T) tworzy sieć wyższego rzędu (P' w czasie T') działająca już na innych zasadach (np. jak zderzenia fal na wodzie po wrzuceniu garści kamieni) i w czasie T'' przez wyspecjalizowane neurony jest tłumaczony na jakieś dodatkowe dane wejścia do sieci synaptycznej. Między T, a T'' sieć powiązań synaptycznych cały czas działa itp.

 

To oczywiście bajka. Chodzi o to, że nie wiemy, czy nie istnieją jakieś nieznane poziomy oddziaływań w mózgu (np. poziom kwantowy), które przecież mogą być niezbędne dla zaistnienia świadomości. Poziomy te mogą być zaś zależne od materii z jakiej zbudowana jest sieć powiązań, tym czasem w sieciach neuronowych zakłada się, że istotne są same te powiązania, ich formalny obraz. Gdyby tak w istocie było - to nie mój pomysł, ale moim zdaniem trafne spostrzeżenie - to można by sobie wyobrazić inteligencję zbudowaną z odpowiednio skonstruowanej sieci hydraulicznej.

 

 

To czego się uczepiłeś, to znaczy tego rozpraszania poza synapsami, może być równie dobrze kolejnym sposobem komunikacji pomiędzy neuronami. Może również służyć do pobudzania sąsiadów do życia, czy też może na przykład służyć kompensowaniu jakiś mikro napięć, to że z takich szumów się rodzi świadomość jest nikłe.

 

Nie pisałem, że z tego się rodzi świadomość, ale że może to być jeden z niezbędnych elementów układanki (i tak może być również wtedy, kiedy za świadomość odpowiadałyby same formalne związki, gdyż jak sam piszesz, to może być nowa forma przekazywania sygnału). Odkrycie jest bardzo świeże, nie uwzględnione w modelach sieci neuronowych. Chodzi mi o to, jak niewiele jeszcze wiemy, a jakie się ochocze zapowiedzi wygłasza.

 

Zauważ, że sieć neuronowa - owszem - ewoluuje, ale w ustalonym modelu. Ewoluuje oznacza tu tylko, że "uczy się". Jest "mózgiem", który na pewnych ustalonych zasadach przyswaja dane. Tak jak człowiek uczy się przy użyciu wytyczonych granic własnego mózgu. Żeby zmienił się model konieczna zaś jest ewolucja sieci neuronowych (ewolucja mózgów). Nie zmienisz modelu działania własnego mózgu samym myśleniem.

 

Stąd - jeśli błędny jest model sieci neuronowej ie. nie zawiera on elementu niezbędnego do uzyskania świadomości, to choćby ta sieć miała największą możliwą moc obliczeniową i uczyła się do końca czasu, nigdy tej świadomości nie uzyska. To jest ewentualność o której cały czas mówię. 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Francuscy lekarze ze zdumieniem dowiedzieli się, że 44-letni normalnie funkcjonujący mężczyzna niemal nie ma... mózgu. Obrazowanie medyczne wykazało, że czaszkę prawie całkowicie wypełniał płyn mózgowo-rdzeniowy.
      W czaszce zdrowego człowieka znajdują się cztery niewielkie komory, wypełnione płynem. U Francuza były one tak powiększone, że prawie nie było miejsca na mózg. Została mu tylko cienka warstwa komórek mózgowych.
      Ma żonę, czworo dzieci i pracuje jako urzędnik państwowy – napisali lekarze w piśmie do specjalistycznego pisma medycznego „Lancet”.
      Mężczyzna trafił do szpitala, gdyż skarżył się na bóle nogi. Lekarze, którzy czytali jego kartę choroby, dowiedzieli się, że jako dziecko miał on założony dren, który odprowadzał z czaszki nadmiar płynu i dren ten został usunięty gdy mężczyzna miał 14 lat.
      Lekarze najpierw przeprowadzili tomografię komputerową, a następnie rezonans magnetyczny. Byli zdumieni tym, co zobaczyli. Najbardziej zdumiewa mnie to, jak tak niewielki mózg poradził sobie z czynnościami życiowymi. On nie powinien żyć – mówi doktor Max Muenke, specjalista ds. uszkodzeń mózgu w Narodowym Instytucie Badań Ludzkiego Genomu.
      U mężczyzny przeprowadzono testy na inteligencję, które wykazały IQ na poziomie 75 punktów. To mniej niż średnie 100 punktów, jednak nie można mężczyzny uznać za upośledzonego.
      Jeśli jakiś proces zachodzi bardzo powoli, prawdopodobnie przez dziesięciolecia, różne części mózgu moją przejąć rolę tych obszarów, które zostały zredukowane – mowi Muenke.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ssaki o dużych mózgach zwykle występują z mniejszej liczbie w danej lokalizacji niż ssaki o mniejszych mózgach, wynika z najnowszych badań. Naukowcy z University of Reading stali na czele międzynarodowej grupy, której celem było zbadanie, dlaczego lokalne populacje takich ssaków jak myszy, małpy, kangury i lisy tak bardzo różnią się liczebnością na lokalny obszarach, nawet jeśli mamy do czynienia z podobnymi gatunkami.
      Uczeni wykorzystali metody statystyczne do przebadania różnych scenariuszy dla setek gatunków i stwierdzili, że ogólny trend dla ssaków jest taki, że im gatunek ma większy mózg, w tym mniejszym zagęszczeniu występuje. Gdy np. rozważamy dwa gatunku i podobnej diecie i masie ciała, okazuje się, że to wielkość mózgu jest wskazówką co do zagęszczenia zwierząt na danym obszarze.
      Większe mózgi kojarzą się z większą inteligencją. W tym przypadku to większe mózgi powstrzymują zwierzęta przed życiem w zbyt dużym zagęszczeniu. Może mieć to związek z faktem, że większy mózg wymaga więcej żywności i innych zasobów, a zatem potrzebuje więcej przestrzeni, by zaspokoić te potrzeby, mówi doktor Manuela Gonzalez-Suarez, która stała na czele grupy badawczej.
      Zrozumienie, dlaczego na różnych obszarach występuje różne zagęszczenie zwierząt jest istotne z punktu widzenia ich ochrony. Mniejsze zagęszczenie powoduje, że gatunek bardziej jest narażony na wymarcie, z drugiej strony większe lokalne zagęszczenie zwiększa ekspozycję gatunku na takie zagrożenia, jak istnienie dróg, dodaje.
      Bardzo interesująco wypada porównanie zagęszczenia, masy ciała i masy mózgu. Otóż przeciętna mysz waży 0,016 kilograma, jej mózg ma wagę 0,0045 kg, a gatunek żyje w niezwykle dużym zagęszczeniu wynoszącym 600 osobników na km2. W dużym zagęszczeniu 86 osobników na km2 żyją też wiewiórki. To zwierzęta warzące 0,325 kg, których masa mózgu wynosi 0,006 kg.
      Powszechnie występującym zwierzęciem jest też lis rudy (2,6 osobnika na km2), ssak ważący 4,3 kg o masie mózgu 0,047 kg. Z kolei makak berberyjski (11 kg masy ciała, 0,095 kg masy mózgu) występuje w liczbie 36 osobników na km2. Natomiast tygrys, który waży 185 kg i ma mózg o masie 0,276 kg występuje w liczbie 0,14 osobnika na km2. Podobnie zresztą 4-tonowy słoń z mózgiem o masie 4,5 kg, którego liczebność na obszarach występowania to 0,58 osobnika na km2.
      Ze schematu tego wyraźnie wyłamuje się człowiek. Lokalne zagęszczenie naszego gatunku bardzo się różni, dochodząc do 26 000 osobników na km2 w Monako.
      Wielkość mózgu nie jest jedynym czynnikiem decydującym o zagęszczeniu ssaków. Różne środowiska mają różne stabilność oraz różne gatunki konkurujące, więc to również ma wpływ. Konieczne są dalsze badania nad wpływem rozmiarów mózgów w różnych środowiskach, stwierdzają autorzy badań.
      Naukowcy zauważają też, że istnieją wyraźne wyjątki od reguły. Na przykład ludzie wykorzystali inteligencję do pokonania problemu ograniczonej ilości zasobów na danym terenie. Możemy importować żywność z całego świata co teoretycznie pozwala nam żyć w wielkiej liczbie w dowolnym miejscu na Ziemi. Niektóre inteligentne gatunki również mogły częściowo poradzić sobie z tymi ograniczeniami, stwierdzają badacze.
      Na potrzeby badań naukowcy wzięli pod lupę 656 nielatających ssaków lądowych. Związek wielkości mózgu z zagęszczeniem populacji jest szczególnie widoczny wśród ssaków mięsożernych oraz naczelnych, a mniej widoczny wśród gryzoni i torbaczy.
      Przykładem takich oczywistych zależności może być porównanie makaków berberyjskich z siamangiem wielkim. Oba gatunki małp mają podobną dietę i podobną masę ciała. Jednak mózg makaka waży 95 gramów, a zwierzę występuje w zagęszczeniu 36 osobników na km2. Z kolei mózg siamanga waży 123 gramy, a zagęszczenie populacji wynosi 14 osobników na km2.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas gdy dorośli przetwarzają różne zadania w wyspecjalizowanych obszarach mózgu w jednej z półkul, niemowlęta i dzieci używają do tego celu obu półkul. To może być przyczyną, dla której dzieci znacznie łatwiej regenerują się po urazach mózgu niż dorośli. Autorzy najnowszych badań skupili się na języku i odkryli, że dzieci podczas przetwarzania języka mówionego używają obu półkul mózgu.
      To bardzo dobra wiadomość dla dzieci, które odniosły urazy mózgu. Użycie obu półkul zapewnia mechanizm kompensujący po urazie. Na przykład, jeśli w wyniku udaru zaraz po urodzeniu dojdzie do uszkodzenia lewej półkuli mózgu, dziecko nauczy się języka korzystając z prawej półkuli. Dziecko z mózgowym porażeniem dziecięcym, które uszkodzi tylko jedną półkulę, może rozwinąć wszystkie potrzebne zdolności poznawcze w drugiej półkuli. Nasze badania pokazują, jak to jest możliwe, mówi profesor Elissa L. Newport, dyrektor Center for Brain Plasticity and Recovery, które jest wspólnym przedsięwzięciem Georgetown University i MedStar National Rehabilitation Network.
      Niemal wszyscy dorośli przetwarzają mowę tylko w lewej półkuli. Potwierdzają to zarówno badania obrazowe jak i fakt, że po udarze, który dotknął lewą półkulę, ludzie często tracą zdolność do przetwarzania mowy.
      Jednak u bardzo małych dzieci uraz jednej tylko półkuli rzadko prowadzi do utraty zdolności językowych. Nawet, jeśli dochodzi do poważnego zniszczenia lewej półkuli, dzieci nadal potrafią korzystać z języka. To zaś sugeruje – jak zauważa Newport – że dzieci przetwarzają język w obu półkulach. Jednak tradycyjne metody obrazowania nie pozwalały na obserwowanie tego zjawiska. Nie było jasne, czy dominacja lewej półkuli w zakresie zdolności językowych jest widoczna już od urodzenia, czy rozwija się z wiekiem, stwierdza uczona.
      Teraz, dzięki funkcjonalnemu rezonansowi magnetycznemu udało się wykazać, że u małych dzieci żadna z półkul nie ma w tym zakresie przewagi. Lateralizacja pojawia się z wiekiem. Ustala się ona w wieku 10-11 lat.
      W najnowszych badaniach udział wzięło 39 zdrowych dzieci w wieku 4–13 lat, których wyniki porównano z 14 dorosłymi w wieku 18–29 lat. Obie grupy zmierzyły się z zadaniem polegającym na rozumieniu zdań. W czasie rozwiązywania zadania każdy z uczestników poddany był skanowaniu za pomocą fMRI, a wyniki potraktowano indywidualnie. Później stworzono mapę aktywności mózgu dla grup wiekowych 4–6 lat, 7–9 lat, 10–13 lat i 18–29 lat.
      Badacze stwierdzili, że wyniki uśrednione dla każdej z grup pokazują, iż nawet u małych dzieci występuje preferencja (lateralizacja) lewej półkuli mózgu w czasie przetwarzania mowy. Jednak znaczny odsetek najmłodszych dzieci wykazuje silną aktywację prawej półkuli mózgu. U osób dorosłych prawa półkula aktywuje się podczas rozpoznawania ładunku emocjonalnego niesionego z głosem. Natomiast u dzieci bierze ona udział i w rozpoznawaniu mowy i w rozpoznawaniu ładunku emocjonalnego.
      Naukowcy sądzą, że jeśli udałoby im się przeprowadzić podobne badania u jeszcze młodszych dzieci, to obserwowaliby jeszcze większe zaangażowanie prawej półkuli mózgu w przetwarzanie języka.
      Obecnie Newport i jej grupa skupiają się na badaniach przetwarzania mowy w prawej półkuli mózgu u nastolatków i młodych dorosłych, u których lewa półkula mózgu została poważnie uszkodzona podczas udaru zaraz po urodzeniu.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...