Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polskie prawo nie jest dostosowane do realiów funkcjonowania sztucznej inteligencji

Recommended Posts

Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.

Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.

Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.

Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?

Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.

W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.

Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.

Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).

Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.

W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.

Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.

Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.

Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.

W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.

Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.

Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Polskie prawo może i nie jest dostosowane do działań SI, ale istnieją systemy SI dostosowane do polskiego prawa (i to gdzieś tak od przynajmniej 10 lat)...

Share this post


Link to post
Share on other sites
3 godziny temu, KopalniaWiedzy.pl napisał:

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg.

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa. Na razie to s-f, ale bardziej poważne niż te prawa intelektualne.

Share this post


Link to post
Share on other sites
W dniu 4.06.2019 o 15:51, mankomaniak napisał:

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa

 

No nie.

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka (fizyczne w przypadku płodu czy intelektualne w przypadku AI) to wykluczamy wszystko co jest inteligentne a ludzkie nigdy nie będzie (kruk, wieloryb, AI  czy niehumanoidalny Obcy) lub jest człowiekiem a "nie wygląda" (niegdyś czarny, neandertalczyk, kaleka, untermensch - ogólnie nie nasz,  obcy). Wymaga to zdefiniowania człowieczeństwa.

W świecie platońskich idei zygota to już człowiek a myślący grzyb czy ocean to osobowość - brat w rozumie.

Pomiędzy... jesteśmy my. Pytanie (retoryczne) do mamkomaniaka: kiedy zaczyna się człowiek? IMHO arbitralnie nie da się tego rozstrzygnąć. Dla niektórych człowiek jest tuż post coitum, dla innych wielu nie stanie się ludźmi nigdy i można/trzeba ich eksterminować.

Pytanie: czy można osądzać coś co ludzkie nie jest wg ludzkich praw. A jeśli nie, to jak takie prawo skonstruować - i chyba na tle tych rozterek powstal ten artykuł

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
17 godzin temu, Wheelmill napisał:

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka

Coś Ci się miesza kompletnie, osoba prawna to niemal zaprzeczenie człowieka, czyli osoby fizycznej. AI nie może mieć osobowości prawnej, bo to nie jest odrębny byt jak spółka. AI to dzieło człowieka tak jak każdy program komputerowy, podlega autorowi.

17 godzin temu, Wheelmill napisał:

Wymaga to zdefiniowania człowieczeństwa.

Nie wymaga żadnego zdefiniowania człowieczeństwa, wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

17 godzin temu, Wheelmill napisał:

W świecie platońskich idei zygota to już człowiek

To odwróćmy proces, sam szkielet to też człowiek, bo przecież kiedyś nim będzie. Po co sobie zawracać głowę takimi bzdurami.

Share this post


Link to post
Share on other sites
Posted (edited)
W dniu 8.06.2019 o 09:44, mankomaniak napisał:

wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

A kiedy AI cierpi? Czy program komputerowy symulujący np. w grze człowieka cierpi? Jest przerażony? Gdy będziesz podrzynał gardło postaci z gry, to będzie cierpiała?

https://www.youtube.com/watch?v=BQ3y6QXQE3M

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną. W przypadku AI na dzień dzisiejszy raczej nie (bo te dzisiejsze AI raczej "udają" inteligencję/świadomość niż ją mają, przynajmniej tak to "odczuwamy").

https://www.polsatnews.pl/wiadomosc/2019-06-02/celowo-przejechal-autem-psa-szuka-go-policja/

Jeśli chcesz jakichś "praw" dla AI/robotów to co będzie w sytuacji, gdy trzeba będzie wybrać między "prawami" robota a "prawami" zwierzęcia? Dopuszczalne jest zabić zwierzę, żeby AI "nie cierpiała"?

 

Edited by darekp
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
1 minutę temu, darekp napisał:

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną.

No niestety pomiędzy tym rozumowaniem a rzeczywistością istnieje sporo sprzeczności, wręcz hipokryzji. Czym ryba jest gorsza od psa czy kota? Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota? Nie, dlatego, że z psem czy kotem można się jeszcze porozumieć, a ze świnią, kurczakiem czy rybą już nie. Tak więc nie chodzi wcale o cierpienie, ale bycie "ludzkim". Pies, kot czy nawet nieudomowiony koń to zwierzęta bardziej ludzkie, przyjazne człoiekowi od wymienionych wcześniej. A więc wystarczy, że zachowują się jak przyjaciele i już nie można ich zabijać. Takie są fakty, ględzenie o cierpieniu łatwo obalić.

Tak więc wracając do robota, jeśli robot będzie zachowywał jak przyjaciel człowieka, to także powinien mieć swoje prawa, jak te zwierzęta, a to dlatego, że kryterium praw okazuje się - jak udowodniłem wyżej - nie to czy czuje czy cierpi, ale jak bardzo jest ludzki.

Share this post


Link to post
Share on other sites
Posted (edited)
13 minut temu, mankomaniak napisał:

Czym ryba jest gorsza od psa czy kota?

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

 

13 minut temu, mankomaniak napisał:

Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota?

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad. Psy są zjadane w wielu kulturach (m. in. Chińczycy, Indianie północnoamerykańscy), koty były potrawą narodową w Szwajcarii.

Po prostu biologia jest jaka jest i gdy człowiek potrzebuje mięsa (a trochę go potrzebuje), to sobie "odpuszcza" wątpliwości moralne (co do innych gatunków niż własny, przynajmniej współcześnie, bo dawniej różnie z tym bywało).

Po trzecie, powtórzę, jeśli AI nie cierpi/nie ma świadomości, a zwierzę cierpi, to bez względu na to jak AI jest "ludzka" wybór jest oczywisty.

Edited by darekp

Share this post


Link to post
Share on other sites
Posted (edited)
6 minut temu, darekp napisał:

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

A co to ma wspólnego z cierpieniem fizycznym? Przecież pisałeś

"W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną."

Więc teraz już nie chodzi o cierpienie, ale o wyższą świadomość? Zaplątałeś się coś, albo jesteś hipokrytą.

6 minut temu, darekp napisał:

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad.

A wyżej piszesz o niższej świadomości, czyli wyższej świadomości psa, kota, konia, która rzecz jasna oznacza właśnie to co "bardziej ludzkie". Czy Ty sam się czytasz? 

Edited by mankomaniak

Share this post


Link to post
Share on other sites
Posted (edited)

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia. tylko tyle (myślę, że wielu ludzi intuicyjnie to rozumie, ale cóż, "racjonalistom" najwyraźniej trzeba wszystko tłumaczyć. Dziwne, bo podobno uważają się za inteligentniejszych od reszty).

Edited by darekp

Share this post


Link to post
Share on other sites
Teraz, darekp napisał:

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia.

A to teraz przyjmujesz,a to już nie przyjmujecie? Nie ma consensu? A na jakiej podstawie przyjmujesz, że ryba mniej cierpi jak się ją kroi na żywca od tego psa na ulicy?

A tutaj ciekawe opracowanie na temat ryb: http://empatia.pl/blog/2015/09/02/ryby-czujace-i-inteligentne-istoty/

"Z kolei ścieżki sygnału płynącego z receptorów bólowych do mózgu i sama budowa mózgu ryby dowodzą, iż nie tylko są one zdolne do rozpoznawania i unikania bólu, ale także jego świadomego odczuwania, zapamiętywania i kojarzenia z konkretną sytuacją lub obiektem. Do tej pory sądzono, że ryby nie mają zdolności poznawczych, gdyż nie posiadają w mózgu rozwiniętej istoty szarej kory nowej (tzw. neocortex). Jednakże po dokładniejszych badaniach okazało się, że mózg ryb jest funkcjonalnie jakby „odwrócony na lewą stronę” w stosunku do naszego mózgu!    Mianowicie warstwy mózgu odpowiedzialne za odczuwanie, emocje i myślenie, są u ryb położone głębiej tj. poniżej istoty białej, w przeciwieństwie do innych grup kręgowców, u których warstwy o takiej funcji znajdują się na jej powierzchni. Ponadto funkcję kory nowej mogą być częściowo podejmowane przez inne partie mózgu ryby, podobnie, jak ma to miejsce u ludzi z uszkodzeniami mózgu. U ryb wykryto także obecność specjalnych włókien nerwowych i układu przypominającego nasz układ limbiczny, odpowiedzialnych za świadome odczuwanie, co potwierdzają też inne liczne badania neuroanatomiczne oraz behawioralne. Dlatego, ku zaskoczeniu badaczy, nie tylko trzeba pytać, czy ryby odczuwają ból, cierpienie i inne emocje, ale również czy są samoświadome. Jak dowodzą liczne prace przytoczone w książce pt. „Do fish feel pain” autorstwa V. Braithwaite, ryby odczuwają ból na równi lub nawet silniej, niż inne zwierzęta, do których żywimy więcej empatii – ssaki, w tym płody ludzkie i noworodki oraz ptaki."

To jak z tym konsensusem?

Share this post


Link to post
Share on other sites

Odchodzisz od tematu. Nie interesuje mnie rozstrzyganie, czy ryba cierpi mniej czy bardziej od psa/świni (bo i tak ostatecznie, gdy będzie potrzeba, żeby trafiły na talerz, to trafią), tylko jak chcesz rozstrzygnąć kwestię wyboru między "cierpieniem" robota a cierpieniem zwierzęcia (w sytuacji, gdy trzeba by wybrać między jednym a drugim). Twoje wcześniejsze wypowiedzi wyraźnie sugerują, że jeśli AI byłaby "bardziej ludzka" (cokolwiek przez to rozumiesz) a pozbawiona świadomości/zdolności odczuwania cierpienia itp. to uznałbyś ją za mającą więcej praw niż zwierzę.

Share this post


Link to post
Share on other sites
Posted (edited)

Nie odchodzę od tematu, wręcz przeciwnie, ty po prostu nie widzisz związku między tymi sprawami. Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością, Roboty sa konstruowane właśnie tak, by wykazywac empatię, a ich świadomość może być zbliżona do zwierząt, może i człowieka.

Edited by mankomaniak

Share this post


Link to post
Share on other sites
Posted (edited)

Proszę o w miarę ścisłe zdefiniowanie co rozumiesz przez "bycie bardziej ludzkim". Skoro sięgasz po przeprowadzanie jakichś dowodów (tak napisałeś powyżej: "Udowodniłem przecież, że..."), to chyba powinieneś wcześniej co nieco precyzyjnie zdefiniować, nieprawdaż?

Edited by darekp

Share this post


Link to post
Share on other sites

Cóż, z mojej strony pozostaję przy tym, co napisałem (a wcześniej napisał Wheelmill), że zachodzi potrzeba precyzyjniejszego zdefiniowania "człowieczeństwa".

Share this post


Link to post
Share on other sites
Posted (edited)
Godzinę temu, mankomaniak napisał:

Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

Nie udowodniłeś, tylko wyraziłeś swoja opinię.

Godzinę temu, mankomaniak napisał:

w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe. Koty i psy mają trochę inne prawa, ze względu na ich niekonsumpcyjność w naszym kręgu kulturowym, ponieważ:

Godzinę temu, mankomaniak napisał:

 bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

i tu masz rację. U AI to będzie tylko symulacja.

Edited by 3grosze

Share this post


Link to post
Share on other sites
40 minut temu, 3grosze napisał:

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe.

Ale tu nie chodzi o sposób zabijania, tylko sam fakt zabijania dla mięsa. Tu chodzi o prawo do życia zwierzęcia.

 

41 minut temu, 3grosze napisał:

U AI to będzie tylko symulacja.

Człowiek także potrafi symulować. Np. chorzy na nerwicę często odczuwają ból w brzuchu na jakąś myśl. Mało tego, wystarczy często, że tylko pomyślą o bólu brzucha i zaczynają odczuwac realny ból. Ale jak sprawdzisz to, że naprawdę odczuwają? Może i są jakieś metody komputerowe, które pozwalają obiektywnie to wykryć. Tylko że to będzie wykrycie jakiegoś tam pobudzenia hormonów czy neuronów. Jeśli uznamy, że ból to wszelkie podrażnienie, które pogarsza funkcjonowanie organizmu, to można tak zaprogramować robota / androida / replikanta, czy po prostu cyborga, aby wszelkie podrażnienie jego organizmu traktować jak coś nieprzyjemnego i w związku z tym aby wykazywał cały szereg emocji - zmarszczenie twarzy, wydawał określone dźwięki, w przypadku uświadomienia, że człowiek chce zniszczyć, próba ratunku albo błaganie o litość. Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

P.S. Wkrótce można będzie tak zaprogramować robota, aby zoptymalizował swoje zachowanie wobec człowieka w określonym celu: program - 1: stań się przyjacielem. Będzie się tak zachowywał jak najlepszy przyjaciel człowieka. Człowiek pokocha go jak psa. Program 2 - stań się kochankiem. Będzie optymalnie uwodził daną płeć, tak że kobieta / mężczyzna zakocha się w nim. Program 3 - bądź wrogiem... itd.

Share this post


Link to post
Share on other sites
Posted (edited)
2 godziny temu, mankomaniak napisał:

Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

Proszę o dowód, mądrzejsi od Ciebie i mnie uważają to za rzecz dyskusyjną:

https://pl.wikipedia.org/wiki/Test_Turinga

https://pl.wikipedia.org/wiki/Chiński_pokój

https://merlin.pl/nowy-umysl-cesarza-o-komputerach-umysle-i-prawach-fizyki-roger-penrose/1298305/

 

2 godziny temu, mankomaniak napisał:

Wkrótce można będzie tak zaprogramować robota,

Tak, tak, wiem wiem, przy okazji bardzo się cieszę, że ludzie od kilkunastu lat latają na Marsa i księżyce Jowisza, bo tak przewidywali jakiś czas temu różni zapewne "racjonaliści": https://pl.wikipedia.org/wiki/2001:_Odyseja_kosmiczna_(film)

Edited by darekp

Share this post


Link to post
Share on other sites
4 godziny temu, darekp napisał:

Łatwo obalić ten cały chiński pokój. Np. gdyby ludzie jak ty rozumieli co ja piszę, to nie kłóciliby się ze mną, tylko potwierdzali, że mam rację. Dopiero po wielu odpowiedziach interlokutor dochodzi do wniosku, że się mylił, ale do tego oczywiście się nie przyzna, więc zaczyna coś w stylu "takie mam zdanie, opinię i koniec" albo zaczyna zmieniać temat i wymyslać jakieś argumenty, które dotyczą czego innego.Albo przestaje odpowiadać, bo nie wie co odpowiedzieć. Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn. Test mankomaniaka udowadnia, że człowiek też nie rozumie co się do niego mówi. Czyli niczym nie różni się od robota. 

 

4 godziny temu, darekp napisał:

Gdybyś miał więcej wiedzy na ten temat, wiedziałbyś, że wyśmiano Penrose'a , że chciał udowodnić niemechaniczność świadomości poprzez twierdzenie Godela, które niczego takiego nie dowodzi. Jest trochę polskich prac na ten temat (np. Krajewski: Twierdzenie Gödla i jego interpretacje filozoficzne; Sochaciński: Twierdzenie Gödla a spór o mechanicyzm).

Share this post


Link to post
Share on other sites
Posted (edited)
52 minuty temu, mankomaniak napisał:

Łatwo obalić ten cały chiński pokój.

Tak samo jak i eksperymenty myślowe mające udowodnić tezę przeciwną. Bo i jedno i drugie to są tylko spekulacje myślowe wychodzące poza zakres naszej wiedzy (naukowej).

52 minuty temu, mankomaniak napisał:

Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn.

Wydaje mi się, że zawsze jest tak, że w pewnym momencie dochodzi się do założeń nieweryfikowalnych wiedzą naukową i wtedy zostaje powiedzieć "takie mam zdanie, opinię i koniec". Gdzie nie ma wiedzy, pozostaje tylko "opinia" (i ew. sterczący gdzieś niedaleko niej "koniec";)). To co opisujesz, mówi raczej coś ciekawego o stanie Twojego umysłu.

52 minuty temu, mankomaniak napisał:

wiedziałbyś, że wyśmiano Penrose'a 

W historii wyśmiewano różnych ludzi, nie zawsze zasadnie. Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję, niż panowie Krajewski & Sochaciński. Ale to tylko moje wrażenie (plus "koniec"), kto inny może mieć inne (i swój "koniec").

Tak czy siak, żadnego dowodu nie podałeś.

Edited by darekp

Share this post


Link to post
Share on other sites
26 minut temu, darekp napisał:

Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję

No właśnie problem polega na tym, że do świata fizycznego używa argumentów metamatematycznych. Zresztą gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii. No ale co sam autor twierdzenia może wiedzieć o nim? Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Share this post


Link to post
Share on other sites
Posted (edited)
17 minut temu, mankomaniak napisał:

gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii.

Bez czytania Sochacińskiego (btw Google mi podpowiada, że to Cichociński, nie Sochaciński) jestem IMHO całkiem nieźle świadomy, że Goedel był "daleki od uznania" itd. itd. 

17 minut temu, mankomaniak napisał:

Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką (tak go odbieram), że tak ważnej rzeczy jak świadomość nie można zostawić na zawsze jako jakiś niefizyczny byt. Czyli że warto się pochylić nad przypuszczeniem, że nasza dzisiejsza fizyka po prostu jest "za biedna", że nie odkryliśmy jeszcze jakichś praw fizycznych, które mówią coś istotnego o funkcjonowaniu świadomości. Niezależnie od tego, że na dzień dzisiejszy to nie jest przypuszczenie konstruktywne.

Edited by darekp

Share this post


Link to post
Share on other sites
Godzinę temu, darekp napisał:

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką

Przyznam się, że nie śledzę wypowiedzi co bardziej bystrzejszych bo mam pewien problem, nazwijmy to techniczny.

Duża część z nich wypowiadało się kiedy mało wiedzieliśmy o działaniu mózgu, następnie mało wiedzą jak działają współczesne AI, część to po prostu nazwijmy ich filozofowie którzy szukają "magii człowieczeństwa" .

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Jednak, to o czym traktuje artykuł jest bliżej nas niż świadomość.
Jak słusznie zauważono, to trochę ściąganie odpowiedzialności z twórców, tak jak osoba prawna odpowiada za "swoje" działania, i schodzi bezpośrednia odpowiedzialność z ludzi.
Czy jeżeli dotrzymałem wszelkich norm, jeśli chodzi o np. budowę samolotu i jego systemów i samolot mimo wszystko się zepsuł na skutek sytuacji której nikt wcześniej nie przewidział(i spadł) to czy firma odpowiada za to czy to już zdarzenie losowe?  CZy jeżeli dodamy to zdarzenie do norm, i wszyscy muszą się ich trzymać to już ok?

I tutaj to samo, czy jeżleli mam autonomiczny samochód i dotrzymałem wszelkich standardów (Ale ich nie ma chyba?) to jest ok?

Z Twórczością nie rozumiem problemu, dla mnie sztuczna sieć neuronowa którą sobie wytrenowałem która stworzyła utwór nie różni się niczym od syntezatora na którym coś zagrałem.  I w tę stronę chyba to na razie idzie. To nie jest sobie jakiś byt który sam sobie tworzy i jest tego właścicielem. Na ten moment to jest zwykły młotek i to wszystko. 

I na ten moment to są nasze realne problemy, bez istnienia świadomości sztucznej lub nie, zwał jak zwał.

 

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites
11 godzin temu, Afordancja napisał:

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Całkowita zgoda. Panuje tu duże nieporozumienie. Nagminne jest utożsamianie inteligencji ze świadomością przez profanów oraz odmawianie inteligencji ANN przez profesjonalistów bo przecież mnożenie z dodawaniem nie może dać inteligencji. Tymczasem prosty klasyfikator odróżniający kota od psa jest inteligentny. Jego IQ nie powala, ale prezentuje elementarną inteligencję. Złożenie takich klasyfikatorów może już całkiem udatnie naśladować mądrość, wygrywać w szachy lub Go czy prowadzić samochód. To, że nie ma w tym magii, nie znaczy że nie jest inteligentne. 

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...