Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja dla każdego. Prezent od Finlandii

Recommended Posts

Mówiąc wprost, to prezent dla Unii Europejskiej. Dobiega końca prezydencja Finlandii w UE i nasz kraj zdecydował się przetłumaczyć ten kurs na oficjalny język każdego państwa Unii Europejskiej i udostępnić go obywatelom w prezencie. Nie będzie żadnych ograniczeń geograficznych, a zatem tak naprawdę to prezent dla całego świata, stwierdzili przedstawiciele Finlandii.

Mowa tutaj o kursie o podstawach sztucznej inteligencji. Niewielki nordycki kraj, który nie może konkurować w rozwoju sztucznej inteligencji z takimi potęgami jak USA czy Chiny, zdecydował, że nauczy podstaw tej technologii jak największą liczbę swoich obywateli. W styczniu bieżącego roku udostępniono więc online'owy kurs, w którym znalazły zagadnienia od kwestii filozoficznych i etycznych przez sieci neuronowe i uczenie maszynowe po prawdopodobieństwo subiektywne. Kurs składa się z kilku sekcji, nauka w każdej z nich trwa 5–10 godzin, a całość kursu jest rozpisana na sześć tygodni.

Podstawy SI odniosły w Finlandii spory sukces. W kursie wzięło udział ponad 1% populacji kraju. Teraz Finowie chcą, by i inni z niego skorzystali. W tej chwili kurs jest dostępny w językach angielskim, niemieckim, szwedzkim, fińskim i estońskim. Zgodnie z zapowiedzią za jakiś czas powinniśmy doczekać się też wersji polskiej.

Twórcy kursu, Uniwersytet w Helsinkach i firma Reaktor, stwierdzili, że SI to zbyt poważna kwestia, by pozostawiać ją w ręku wąskiej grupy programistów. Stąd też pomysł na świąteczny prezent dla obywateli Unii Europejskiej.

Z kursu można skorzystać na stronie elementstofai.com.


« powrót do artykułu

Share this post


Link to post
Share on other sites
Cytat

Twórcy kursu, Uniwersytet w Helsinkach i firma Reaktor, stwierdzili, że SI to zbyt poważna kwestia, by pozostawiać ją w ręku wąskiej grupy programistów

Kursów o AI/Machine Learningu za darmo jest mnóstwo. wg. mnie niewiele to zmieni w kwestii "wąskiej grupy" ("statystyków" i programistów). Po prostu większości ludzi to nie interesuje, w sensie praca na liczbach, i nie koniecznie fascynujących. Podobnie jest z wiedzą aby zostać programistą czy statystykiem, nie ma takich ograniczeń jeśli chodzi o dostęp do wiedzy.

 

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
7 minut temu, Afordancja napisał:

Po prostu większości ludzi to nie interesuje

Gorzej! Większość ludzi kompletnie tego nie rozumie i nie jest w stanie. Tylko analfabetów wtórnych i funkcjonalnych mamy 40%.

Share this post


Link to post
Share on other sites

Nie jestem pewien czy się z Wami zgodzić. Po pierwsze jeszcze nie widziałem tego kursu, więc nie wiem jak tłumaczone są w nim zagadnienia. Nie wiem, czy jest tam dużo trudnej matematyki. Wiem natomiast, że zagadnienia sztucznej inteligencji można wytłumaczyć bez matematyki. Przeczytałem wiele książek o sztucznej inteligencji i zaprogramowałem kilka sieci neuronowych. To nie jest takie trudne.

Sztuczna inteligencja i sztuczne sieci neuronowe wzorowane są na prawdziwej sieci neuronowej i prawdziwej inteligencji. Zrozumienie idei działania sieci neuronowych może dać ludziom zrozumienie funkcjonowania ich własnego mózgu. A to z kolei ułatwia uczenie się i zapamiętywanie. Co więcej, taka wiedza pomaga nawet rozpoznać, czy nie jest się przedmiotem manipulacji. Mówię to z własnej autopsji. Mnie ta wiedza, czyli to jak działa mózg i neurony dała bardzo dużo. I nie mówię tu tylko o kwestii zawodowej, ale przede wszystkim o codziennym życiu i sposobie rozumienia wielu spraw, od naukowych po nawet religijne. Chętnie opisałbym więcej swoich spostrzeżeń, ale w tak krótkim komentarzu trudno jest to zrobić.

Jedno Wam jeszcze powiem. Jestem przekonany, że ukończenie tego kursu wielu ludziom także otworzy oczy na wiele spraw. Tego, czy np. "kucharka z przedszkola" przebrnie przez ten kurs, to nie wiem, ale jeśli przebrnie i go zrozumie choćby tylko na poziomie sposobu funkcjonowania SI, to jestem pewien, że będzie miała z tego korzyści.

Edited by Sławko

Share this post


Link to post
Share on other sites
23 minuty temu, Sławko napisał:

czy np. "kucharka z przedszkola" przebrnie przez ten kurs, to nie wiem, ale jeśli przebrnie i go zrozumie choćby tylko na poziomie sposobu funkcjonowania SI, to jestem pewien, że będzie miała z tego korzyści.

Jeśli kucharka z przedszkola zrozumie kurs na poziomie sposobu funkcjonowania SI, to znaczy że zdecydowanie minęła się z powołaniem.
Ludzie mają duży problem ze zrozumieniem jak funkcjonuje desktop w komputerze i czym są pliki.

Największe korzyści mogliby odnieść psycholodzy i psychiatrzy, ale oni też nie są w stanie zrozumieć jak działa SI na wystarczającym poziomie (dziś trudno uwierzyć że matematyczny model neuronu został zaproponowany przez przez psychiatrę).

31 minut temu, Sławko napisał:

sposobie rozumienia wielu spraw, od naukowych po nawet religijne

Chętnie dowiem się jak zrozumienie działania sieci neuronowych może pomóc rozumieć kwestie religijne, bo tutaj potrzeba raczej teorii replikatorów i teorii gier.

27 minut temu, Sławko napisał:

Wiem natomiast, że zagadnienia sztucznej inteligencji można wytłumaczyć bez matematyki. Przeczytałem wiele książek o sztucznej inteligencji i zaprogramowałem kilka sieci neuronowych. To nie jest takie trudne.

A dawał kiedyś kolega korepetycje innym ludziom, i nie mówię o zdolnych przypadkach, bo to sama przyjemność?

Obawiam się że co najwyżej można dać ludziom złudzenie zrozumienia. Nie wiem czy można wyjść poza "sztuczna inteligencja to zwykły nieświadomy program komputerowy który  rozwiązuje problemy naśladując funkcjonowanie mózgu".

 

Share this post


Link to post
Share on other sites

To jest świetna inicjatywa, ale zgadzam się z Afordancją. Jest sporo w sieci tego typu kontentu w sieci, a większość osób kurs ten przerośnie. Ale z drugiej strony, wiedzy nigdy zbyt wiele, i tłumaczenie na inne języki zwiększa dostępność.

Przejrzałem wersje angielska powierzchownie i wygląda na porządny merytorycznie i przystępny tekst. Na pewno bym go polecił, jako wstęp do tematu. Jednak jest tego sporo i bez solidnego samozaparcia ciężko będzie przebrnąć przez materiał zwykłemu śmiertelnikowi. Podali, że w Finlandii udział wzięło ponad 1%, co nie oznacza, że tyle kurs ukończyło. Wynik kilku procent całej populacji kraju to na pewno sukces. Nie sądzę, że to pobijemy, bo u nas w ciemnogrodzie z czytaniem jest co najwyżej średnio.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

tu mowa jest o jezykach calego swiata a nie tylko o polakach ktorzy  nos wyzej czola nosza a niestety intelektualnie sa 100 lat swietlnych za murzynami.

Z punktu widzenia populacji Swiata  mysle ze wniesie wiele dobrego i nalezy to pochwalac nie krytykowac. To takie moje skromne zdanie.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
16 godzin temu, peceed napisał:

A dawał kiedyś kolega korepetycje innym ludziom

Dawno temu z chemii. Ale korepetycje związane są przede wszystkim ze wspomaganiem nauki, zgodnie z programem nauczania w danej szkole/klasie. Jak się nie zna tego programu, to udzielanie korepetycji przestaje mieć sens.

16 godzin temu, peceed napisał:

Jeśli kucharka z przedszkola zrozumie kurs na poziomie sposobu funkcjonowania SI, to znaczy że zdecydowanie minęła się z powołaniem.

Obecnie mam pracę, w której często kontaktuję się z ludźmi na różnym poziomie wykształcenia i w różnych zawodach. Uwierz mi, że nawet taka kucharka z przedszkola potrafi interesować się rzeczami kompletnie zaskakującymi. Ja przestałem szufladkować ludzi. Chociaż przyznaję, że część ludzi nie umie, albo raczej nie chce, a nawet nie wyobraża sobie wyjść poza ramki, które sobie narzucili. Mają umysły zamknięte (jak ja to mówię) w "czterech ścianach bez okien i drzwi". Do takich ludzi rzeczywiście trudno jest dotrzeć z jakąkolwiek wiedzą, poza tą, którą już mają w tych swoich "czterech ścianach".

16 godzin temu, peceed napisał:

jak zrozumienie działania sieci neuronowych może pomóc rozumieć kwestie religijne, bo tutaj potrzeba raczej teorii replikatorów i teorii gier

To temat dość rozległy. Ale ogólnie, bardziej chodzi o to, po co mózgowi religia i jak religia wpływa na działanie mózgu, a także dlaczego mózg może uzależnić się od religii. Okazuje się, że można to zrozumieć, gdy pozna się podstawy działania sieci neuronowych. To jest sprawa uświadomienia sobie pewnych zależności i nie potrzeba do tego teorii replikatorów i gier. Wystarczy zrozumieć, jak postrzeganie otaczającego nas świata wpływa na nasz własny mózg, na uczenie się i zapamiętywanie. A znajomość działania SI (a zwłaszcza to, jak uczy się sztuczna sieć neuronowa) bardzo w tym pomaga. To jest też temat z pogranicza psychologii i psychiatrii. Właściwie to już nawet powstało na ten temat kilka książek, ale nie spotkałem dotąd literatury, która pokazałby to w kompleksowy sposób.

16 godzin temu, peceed napisał:

dziś trudno uwierzyć że matematyczny model neuronu został zaproponowany przez przez psychiatrę

A mnie to zupełnie nie dziwi, wręcz przeciwnie.

16 godzin temu, peceed napisał:

Obawiam się że co najwyżej można dać ludziom złudzenie zrozumienia. Nie wiem czy można wyjść poza "sztuczna inteligencja to zwykły nieświadomy program komputerowy który  rozwiązuje problemy naśladując funkcjonowanie mózgu".

Co to są złudzenia, też można dowiedzieć się studiując sieci SI :), bo sztuczne sieci też doznają złudzeń. To, że te programy są nieświadome (póki co), w niczym nie przeszkadza. Okazuje się, że nasz własny mózg jest w wielu sprawach nieświadomy i po to właśnie uczymy się, aby był on świadomy(!) Dzięki temu jesteśmy też w stanie podejmować świadome decyzje. Gdy nam brakuje wiedzy i nie uświadamiamy sobie pewnych zależności, to popełniamy błędy, a także możemy paść ofiarą oszustwa i manipulacji ze strony innych lub wpaść we własny jakiś nałóg (i nie mam tu na myśli tylko psychotropy). Ale przecież wiele rzeczy robimy też nieświadomie(!) Uświadamiamy to sobie czasami dopiero później, albo gdy ktoś nas uświadomi. I tu dochodzimy do pytania kluczowego, "Czym jest świadomość?". Ja rozróżniam dwie świadomości: świadomość otoczenia i samoświadomość. To są dwie odrębne świadomości, chociaż mają też cechy wspólne. A także to, że samoświadomość raczej nie może istnieć bez świadomości otoczenia.

Kusi mnie, aby napisać na te wszystkie tematy jakiś większy artykuł, albo nawet książkę. Właśnie taką bez matematyki, bez programowania, jak to się mówi "zrozumiałą dla wszystkich". Tylko ten brak czasu, a do emerytury jeszcze daleko.

A się rozpisałem... prawie elaborat wyszedł :D

--

Godzinę temu, dzbanek1 napisał:

tu mowa jest o jezykach calego swiata

Dokładniej to o: "oficjalny język każdego państwa Unii Europejskiej", a nie całego świata. Reputację masz słabą, to pewnie przez stylistykę, a także pewną agresję wypowiedzi. Popracuj nad tym.

Ale za przedostanie zdanie daję ci pozytyw.

Edited by Sławko

Share this post


Link to post
Share on other sites
5 godzin temu, Sławko napisał:

Okazuje się, że nasz własny mózg jest w wielu sprawach nieświadomy i po to właśnie uczymy się, aby był on świadomy(!) Dzięki temu jesteśmy też w stanie podejmować świadome decyzje. Gdy nam brakuje wiedzy i nie uświadamiamy sobie pewnych zależności, to popełniamy błędy, a także możemy paść ofiarą oszustwa i manipulacji ze strony innych lub wpaść we własny jakiś nałóg

Mylisz "świadomą decyzję" z "racjonalną decyzją". Maszyna jest zawsze racjonalna, na tyle ile może być, nie potrzebuje do tego żadnej świadomości, wystarczy, że uzyska odpowiednie informacje. Tak samo człowiek może być racjonalny bez świadomości. Prawdą jest, że programowi nie przeszkadza brak świadomości, dlatego że świadomość jest kompletnie nieistotna, gdy zadaniem jest rozwiązanie problemu za pomocą jakiegoś algorytmu. Łatwo to zrozumieć gdy przeanalizujemy dwie sytuacje. Jest zadanie matematyczne do rozwiązania.

1) nie znamy algorytmu, ale posiadamy zdolność logicznego rozumowania i ogólną świadomość tego co rozwiązujemy. Analizujemy więc założenia i wyciągamy za pomocą dedukcji lub indukcji wnioski. Dodatkowo dzięki świadomości stosujemy metodę prób i błędów, tworząc jakieś hipotezy, które weryfikujemy. W końcu stopniowo dochodzimy do rozwiązania. Później sami możemy odkryć algorytm, aby przyspieszyć rozwiązywanie.

2) Znamy od początku algorytm, ale nie mamy świadomości problemu. Nie rozumiemy o co chodzi w tym zadaniu, ale mamy wszystkie dane i wystarczy tylko wstawić je do wzoru. Jesteśmy jak uczeń, który nie rozumie dobrze zadania, ale nauczył się wzoru, który doprowadzi go do odpowiedzi, choć nie wie skąd ten wzór pochodzi.

Obydwie sytuacje prowadzą do tej samej odpowiedzi, a różnica polega tylko na tym, że w drugiej sytuacji problem rozwiązaliśmy dużo, dużo szybciej. I tylko do tego sztuczne sieci neuronowe są potrzebne - aby znacznie przyspieszyć rozwiązywanie problemów. Widać, że świadomość nie ma tu nic do rzeczy.

Share this post


Link to post
Share on other sites
16 minut temu, Antylogik napisał:

Mylisz "świadomą decyzję" z "racjonalną decyzją". Maszyna jest zawsze racjonalna, na tyle ile może być, nie potrzebuje do tego żadnej świadomości, wystarczy, że uzyska odpowiednie informacje. Tak samo człowiek może być racjonalny bez świadomości.

Na wstępie dzięki, za zainteresowanie.

Nie, nie mylę tych dwóch pojęć. To raczej twój sposób rozumienia pojęcia "racjonalny" wydaje się wypaczony. Świadczy o tym następne zdanie. "Maszyna jest zawsze racjonalna, na tyle ile może być". No wybacz, ale nie może być ona racjonalna "zawsze" i jednocześnie "na tyle na ile może być", czyli niby jak? Trochę racjonalna? W połowie racjonalna? Sprawdź pojęcie "racjonalny" w słowniku. Używanie pojęcia racjonalny w stosunku do maszyn to chyba nie najlepszy pomysł. O ile maszyna logiczna może (i powinna) dać  logiczny wynik (czyli wg ciebie racjonalny), o tyle maszyna z siecią SI (nawet ta nauczona) wcale nie musi dać zawsze logicznego i sensownego wyniku. Owszem będzie to wynik jakieś operacji wewnątrz sztucznych neuronów, ale czy ten wynik będzie logiczny, zaplanowany, "przemyślany"? Wg mnie Nie. A jeśli się mylę, to podaj mi proszę przykład człowieka, który jest pozbawiony świadomości, ale podejmuje jakąś racjonalną decyzję. Racjonalną, a nie wynikającą np. z potrzeb fizjologicznych, czy z odruchów bezwarunkowych.

Jeśli uwzględnić to moje powyższe zastrzeżenie, to z resztą komentarza mogę się zgodzić.

Share this post


Link to post
Share on other sites
13 minut temu, Sławko napisał:

No wybacz, ale nie może być ona racjonalna "zawsze" i jednocześnie "na tyle na ile może być", czyli niby jak? Trochę racjonalna? W połowie racjonalna?

Bo prawdopodobnie nie ma czegoś takiego jak racjonalność absolutna, która nie zależy od systemu, w którym jednostka egzystuje. Maszynę ograniczają informacje. To tak samo można mówić o świadomości. Człowiek trochę świadomy? W połowie świadomy? Może być świadomy w 100% tylko ze swojego punktu widzenia, w szerszym systemie (informacji lub wartości) może być tylko trochę świadomy. 

19 minut temu, Sławko napisał:

Sprawdź pojęcie "racjonalny" w słowniku.

Nie muszę, bo tym tematem zajmuję się od wielu lat.

21 minut temu, Sławko napisał:

Używanie pojęcia racjonalny w stosunku do maszyn to chyba nie najlepszy pomysł. O ile maszyna logiczna może (i powinna) dać  logiczny wynik (czyli wg ciebie racjonalny), o tyle maszyna z siecią SI (nawet ta nauczona) wcale nie musi dać zawsze logicznego i sensownego wyniku.

Widać, że po prostu nie rozumiesz pojęcia 'racjonalność', a to co w słowniku przeczytasz to trochę jednak za mało. To temat nie na słownik, ale na książkę. Sprawdź sobie w google scholar ile artykułów jest na temat racjonalności. Widać ewidentnie, że nomen omen nie masz świadomości na ten temat. Racjonalność w dużym skrócie oznacza maksymalizację korzyści czy zysków. Gdybyś to rozumiał, to rozumiałbyś też, że nie można tego utożsamiać z logicznością czy raczej sensownością.

26 minut temu, Sławko napisał:

A jeśli się mylę, to podaj mi proszę przykład człowieka, który jest pozbawiony świadomości, ale podejmuje jakąś racjonalną decyzję.

Przecież podałem - sytuację nr 2. Tego też nie zauważyłeś? Doucz więcej w temacie podejmowania racjonalnych decyzji, a potem możemy podyskutować, bo twój brak wiedzy mocno cię ogranicza.

Share this post


Link to post
Share on other sites
W dniu 20.12.2019 o 18:48, Sławko napisał:

Wiem natomiast, że zagadnienia sztucznej inteligencji można wytłumaczyć bez matematyki. Przeczytałem wiele książek o sztucznej inteligencji i zaprogramowałem kilka sieci neuronowych. To nie jest takie trudne.

Zgadzam się, dlatego uważam, że najpierw muszą być chęci.

 

W dniu 21.12.2019 o 10:08, dzbanek1 napisał:

Z punktu widzenia populacji Swiata  mysle ze wniesie wiele dobrego i nalezy to pochwalac nie krytykowac. To takie moje skromne zdanie.

hm.. w sumie tu raczej nikt tego nie krytykował (nie przeczytałem jeszcze wszystkiego, ale powyżej Twojej wypowiedzi nie odczułem krytyki).

Ciągle uważam, że motywacja do takiej tematyki jest słaba, znam wiele osób b. inteligentnych, ale to po prostu ich nie interesuje.

W dniu 21.12.2019 o 10:08, dzbanek1 napisał:

tu mowa jest o jezykach calego swiata a nie tylko o polakach ktorzy  nos wyzej czola nosza a niestety intelektualnie sa 100 lat swietlnych za murzynami.

eee? jakieś problemy w życiu? kompleks Polaka?

 

16 godzin temu, Antylogik napisał:

Mylisz "świadomą decyzję" z "racjonalną decyzją". Maszyna jest zawsze racjonalna, na tyle ile może być, nie potrzebuje do tego żadnej świadomości, wystarczy, że uzyska odpowiednie informacje. Tak samo człowiek może być racjonalny bez świadomości. Prawdą jest, że programowi nie przeszkadza brak świadomości, dlatego że świadomość jest kompletnie nieistotna, gdy zadaniem jest rozwiązanie problemu za pomocą jakiegoś algorytmu. Łatwo to zrozumieć gdy przeanalizujemy dwie sytuacje. Jest zadanie matematyczne do rozwiązania.

Jeśli mowa o sieciach neuronowych, to maszyna jest dokładnie tak samo racjonalna jak człowiek (upraszczając oczywiście), bazuje na danych wejściowych (obecnych i historycznych) i na tej podstawie informację zwrotną.

Jeżeli pominiemy sieci a klasyczne algorytmy bazujące na logice (znów upraszczając) to tak wtedy jest różnica w koncepcji.

 

Share this post


Link to post
Share on other sites
37 minut temu, Afordancja napisał:

Jeśli mowa o sieciach neuronowych, to maszyna jest dokładnie tak samo racjonalna jak człowiek (upraszczając oczywiście), bazuje na danych wejściowych (obecnych i historycznych) i na tej podstawie informację zwrotną.

To jest jedna sprawa, ale druga jest ważniejsza w tym kontekście, bo mnie chodziło o to, że nie można mieszać świadomości z AI. Człowiek może dokonywać całkiem świadomych decyzji, które nie będą racjonalne z jego punktu widzenia. Lub na odwrót (to będzie związane z tą pierwszą sprawą): może podejmować racjonalne decyzje (jak maszyna), nie będąc tego świadomym.

Share this post


Link to post
Share on other sites
18 godzin temu, Antylogik napisał:

Bo prawdopodobnie nie ma czegoś takiego jak racjonalność absolutna

Ciekawe zagadnienia poruszasz. Ale OK, nawet jeśli przyjmiemy, że racjonalność nie jest absolutna, to gdzieś musi leżeć granica między tym co jest racjonalne, a tym co nie jest racjonalne. Ktoś to musi rozstrzygnąć na jakimś etapie działań.

18 godzin temu, Antylogik napisał:

To tak samo można mówić o świadomości.

Tu bym polemizował. Świadomość raczej związana jest z jakąś konkretną wiedzą. Chyba, że rozpatrujemy świadomość w ogólnym sensie, ale wtedy powiedziałbym, że świadomość absolutna nie istnieje, bo nikt nie jest świadomy wszystkiego, chyba że mityczny "Bóg". Pomijając kwestię świadomości ogólnej, to jest ona związana z jakimś konkretem, np.

  1. jestem świadomy, że 2+2=4, bo takie są na to dowody i taka jest na ten temat wiedza matematyczna
  2. jestem świadomy, że pada deszcz, bo go widzę i czuję wilgoć
  3. jestem świadomy swojego istnienia, bo widzę siebie w lustrze, potrafię siebie rozpoznać i inne bodźce mnie do tego przekonują
  4. jestem świadomy tego, że w pobliżu czai się lampart, bo choć go nie widzę i nie słyszę, to czuję jego zapach i muszę mieć się na baczności (gdym nie miał zmysłu węchu, to nie byłbym świadomy tego, że jest w pobliżu, bo go nie widzę i nie słyszę, ale mam węch, więc jestem świadomy jego obecności)
  5. jestem świadomy, że ten budynek może się zawalić, bo widziałem pęknięcia na ścianach (oczywiście on nie musi się zawalić, ale mam świadomość, że może się tak stać z powodu tych pęknięć)
  6. ale także: nie jestem świadomy tego, że przewód elektryczny jest rozgrzany, bo tego nie widzę, a nie mam receptorów podczerwieni aby to dostrzec

W kontekście każdego z tych zdarzeń świadomość jest absolutna, bo albo jest się czegoś świadomym, albo nie jest. Jest to związane z konkretną wiedzą i znajomością przyczynowo skutkową (zresztą, to też jest wiedza). Czyli ogólnie mówiąc, świadomość ogólną (np. człowieka) można niejako "zatomizować" na poszczególne przypadki i dokładnie wykazać czego konkretnie dany człowiek jest świadomy, a czego nie jest świadomy.

A wracając do przypadku z lampartem (punkt 4). Skoro już jestem świadomy, że jest on w pobliżu, to mogę podjąć różne decyzje, np:

  1. Nic mnie lampart nie obchodzi, robię swoje
  2. Powinienem uciekać, bo może mnie pożreć
  3. Powinienem przestać się ruszać, to może mnie nie zauważy, a jak zauważy to pokażę, że się go nie boję
  4. Powinienem przestać się ruszać, udawać martwego

Każda z tych decyzji będzie świadoma, chyba że wpadniemy w panikę (wtedy możemy nieświadomie zrobić wszystko). Ale nie każda musi być racjonalna. Jeśli mamy świadomość tego, że jak zaczniemy uciekać, to lampart z pewnością nas zauważy i obudzimy w nim instynkt łowczy, to z pewnością uciekać nie będziemy (decyzja logiczna i racjonalna), a jeśli mimo tej świadomości zaczniemy uciekać, to decyzja będzie nieracjonalna.

Jak więc widać, nawet patrząc na "racjonalność" jako pojęcie słownikowe (a nie w szerszym zakresie jak ty uważasz), to nie mylę pojęć "świadomej decyzji" z "racjonalną decyzją". Tak naprawdę nie bardzo wiem, dlaczego uznałeś, że ja te pojęcia mylę.

19 godzin temu, Antylogik napisał:

Przecież podałem - sytuację nr 2. Tego też nie zauważyłeś?

Zauważyłem. Może nie do końca zrozumiałem o co ci chodzi, bo jeśli znamy algorytm, to już jesteśmy świadomi tego algorytmu i tego jak działa. Owszem w tym przypadku możemy mówić o tym, że uczeń podjął racjonalną decyzję nie mając pełnej wiedzy tego co robi. Ale nie powiedziałbym, że nie był świadomy tego co robi, nawet jeśli nie wszystko wiedział. Aby to zadanie wykonać racjonalnie, ów uczeń musiał przynajmniej świadomie wybrać właściwy wzór, spośród wielu dostępnych mu wzorów. Mało tego, dane z zadania musiał świadomie podstawić do wzoru we właściwy sposób, aby otrzymać racjonalny wynik. Jeśli zrobi to wszystko bez świadomości, to tylko losowy przypadek może sprawić, że wybierze właściwy wzór i otrzyma właściwy wynik. Podsumowując, przykład 2. nie jest do końca trafiony. Można nie mieć świadomości problemu. Można nie mieć świadomości, że podjęło się racjonalną decyzję. Ale do tego, aby ta decyzja była racjonalna trzeba podjąć na jakim etapie świadome działania! Dlatego nadal nie mogę zgodzić się z tobą, że:

21 godzin temu, Antylogik napisał:

Widać, że świadomość nie ma tu nic do rzeczy.

Bo widać, że świadomość nadal ma tu znaczenie i to ogromne!

Zastanawiam się, czy za chwile nie powiesz mi że mylę "świadomość" z "wiedzą"? Otóż uprzedzam, z góry, że nie mylę. Wiedza jest znacznie szerszym pojęciem. Można mieć wiedzę i być świadomym jej posiadania, ale nie być świadomym po co ona jest nam potrzebna. To zresztą dość częsty problem nauczania w szkołach.

Share this post


Link to post
Share on other sites
Godzinę temu, Sławko napisał:

Tu bym polemizował. Świadomość raczej związana jest z jakąś konkretną wiedzą. Chyba, że rozpatrujemy świadomość w ogólnym sensie, ale wtedy powiedziałbym, że świadomość absolutna nie istnieje, bo nikt nie jest świadomy wszystkiego, chyba że mityczny "Bóg".

Skoro mówiłem wcześniej o racjonalności absolutnej, to dość jasne, że porównałem ją później do świadomości absolutnej. W tym kontekście nie można było inaczej rozumieć świadomości. Dokładnie jak piszesz - punktem zaczepienia mogłaby być ta mityczna istota wyższa.

 

Godzinę temu, Sławko napisał:

Pomijając kwestię świadomości ogólnej, to jest ona związana z jakimś konkretem, np.

Nie można tak oddzielać, już to rozgraniczenie jest sztuczne, a nawet błędne. Przykładowo załóżmy, że istnieją tylko dwa elementy świadomości:

Godzinę temu, Sławko napisał:
  • jestem świadomy tego, że w pobliżu czai się lampart, bo choć go nie widzę i nie słyszę, to czuję jego zapach i muszę mieć się na baczności (gdym nie miał zmysłu węchu, to nie byłbym świadomy tego, że jest w pobliżu, bo go nie widzę i nie słyszę, ale mam węch, więc jestem świadomy jego obecności)
  • jestem świadomy, że ten budynek może się zawalić, bo widziałem pęknięcia na ścianach (oczywiście on nie musi się zawalić, ale mam świadomość, że może się tak stać z powodu tych pęknięć)

Jeżeli jesteś świadomy albo lamparta, albo budynku, to twoja świadomość jest ograniczona. Można powiedzieć tutaj, że jesteś w 50% świadomy. Natomiast, jeśli widzisz jedno i drugie, to zaczynasz analizować czy zdążysz uciec do budynku przed lampartem. Wtedy masz 100% świadomości w świecie tych dwóch faktów.

Godzinę temu, Sławko napisał:

Może nie do końca zrozumiałem o co ci chodzi, bo jeśli znamy algorytm, to już jesteśmy świadomi tego algorytmu i tego jak działa.

To że znamy wzór nie znaczy, że go rozumiemy, a świadomość jest bezpośrednio związana z rozumieniem. Tym bardziej nie musimy być świadomi jak działa. Używamy lodówki, nie zastanawiając się jak ona działa.

Godzinę temu, Sławko napisał:

Aby to zadanie wykonać racjonalnie, ów uczeń musiał przynajmniej świadomie wybrać właściwy wzór, spośród wielu dostępnych mu wzorów. Mało tego, dane z zadania musiał świadomie podstawić do wzoru we właściwy sposób, aby otrzymać racjonalny wynik. Jeśli zrobi to wszystko bez świadomości, to tylko losowy przypadek może sprawić, że wybierze właściwy wzór i otrzyma właściwy wynik.

Nie musiał niczego świadomie wybierać, tak jak SI niczego świadomie nie wybiera. Uczeń na podstawie skojarzeń dobiera wzór. Przypomina sobie, że podobne zadanie robił używając takiego wzoru. A jeśli było kilka podobnych, to sprawdza metodą prób i błędów, losowo, czy dany wzór pasuje do danych albo czy czy szukane rozwiązanie da się uzyskać za pomocą tego wzoru. Wygląda na to, że mieszasz zdolność kojarzenia ze świadomością. Gdyby tak było, że ANN powinny mieć świadomość. Czyli wg ciebie maszyna ma świadomość, co oznacza, że zaprzeczasz sam sobie, bo twierdziłeś, że nie ma.

Share this post


Link to post
Share on other sites
W dniu 21.12.2019 o 11:19, Sławko napisał:

Co to są złudzenia, też można dowiedzieć się studiując sieci SI :), bo sztuczne sieci też doznają złudzeń.

Być może moją myśl oddałoby lepiej "wrażenie zrozumienia". Każde zrozumienie jest związane ze stworzeniem modelu informacji. Jakość takowych może być różna, są osoby dla których zrozumienie to zapamiętanie bez żadnych abstrakcji - ale zapamiętanie też jest modelem informacji, tylko skrajnie nieefektywnym.

W dniu 20.12.2019 o 23:06, cyjanobakteria napisał:

Nie sądzę, że to pobijemy, bo u nas w ciemnogrodzie z czytaniem jest co najwyżej średnio.

Można zupełnie nie przejmować się ogonem, a głowa jest zdrowa.

W dniu 21.12.2019 o 11:19, Sławko napisał:

To jest sprawa uświadomienia sobie pewnych zależności i nie potrzeba do tego teorii replikatorów i gier. Wystarczy zrozumieć, jak postrzeganie otaczającego nas świata wpływa na nasz własny mózg, na uczenie się i zapamiętywanie

To zależy od tego do czego chcemy ograniczyć swoje rozumienie, bez tych dwóch teorii ciężko o rozumienie religii w szerszym kontekście.

Jeśli chodzi o kwestię neuronalne, to religia wyłącza krytyczne myślenie. Pewne prawdy objawione trzeba przyjąć, a potem trzeba im podporządkować jakiekolwiek inne rozumienie rzeczywistości. Zamiast procedury budowania świata bottom-up, dostajemy top-down. Który charakteryzuje się tym, że wszystkie niezgodności wymagają całkowitej przebudowy "klasyfikatora" co jest od pewnego momentu niemożliwe, więc zaczyna się naciąganie "liści". Obrazowo można powiedzieć, że zdanie "Trawa jest zielona" jest zastąpione przez "Jest Bóg. Jeśli jest Bóg, to trawa jest zielona".  Całkowicie równoważny system wiedzy z jednym małym detalem, którego usunięcie jest niemożliwe, bo wali się cały świat i wszystko traci sens.  Obserwowałem w rodzinie, jak staje się to furtką do przyjmowania jakichkolwiek bzdur skojarzonych z wiarą, do smoleńskiego helu włączenie, u ludzi z wykształceniem ścisłym i IQ na poziomie powyżej trzech odchyleń standardowych. W pewnym momencie cała para idzie w gwizdek.

W dniu 21.12.2019 o 11:19, Sławko napisał:

A mnie to zupełnie nie dziwi, wręcz przeciwnie.

Proponuję zatem poczytać sobie psychiatryczne publikacje naukowe. Klasyczny przykład pseudonauki który zdołał oswoić inne dziedziny swoją obecnością.

Tak aby się pośmiać:  http://www.cpn.or.kr/journal/view.html?doi=10.9758/cpn.2015.13.1.36  To nie jest wyjątek. Dramatem jest to że wszystkie teorie nie powstały na bazie rozsądnych badań tylko jako przykrywki uzasadniające sprzedaż środków farmaceutycznych. Pod tym względem medycyna chińska jest znacznie pewniejsza, bo zioła miały bardzo mały budżet na marketing farmaceutyczny.

W dniu 21.12.2019 o 11:19, Sławko napisał:

To, że te programy są nieświadome (póki co), w niczym nie przeszkadza.

To bardzo istotna informacja która pozwala na uniknięcie 90% nieporozumień i oczekiwań jakie ludzie mają w związku ze sztuczną inteligencją.

Niezależnie od tego czy jest ona prawdziwa w bardziej "filozoficznym" sensie.

W dniu 21.12.2019 o 18:35, Sławko napisał:

Sprawdź pojęcie "racjonalny" w słowniku.

Definicje słownikowe nie zastępują rozumienia pojęć. Brak zrozumienia tego faktu kończy się tak tragicznie jak program komputerów V generacji. Ale oczywiście warto najpierw ustalić o co jest jakikolwiek spór...

 

W dniu 21.12.2019 o 18:35, Sławko napisał:

Racjonalną, a nie wynikającą np. z potrzeb fizjologicznych, czy z odruchów bezwarunkowych.

Wszystkie niepatologiczne (typowe) potrzeby fizjologiczne, odruchy bezwarunkowe i popędy są racjonalne, jedynym kryterium jest "podtrzymanie życia", organizmy żywe które w tym rozumieniu nie są racjonalne giną.

 

 

Share this post


Link to post
Share on other sites
20 godzin temu, Antylogik napisał:
21 godzin temu, Sławko napisał:

Pomijając kwestię świadomości ogólnej, to jest ona związana z jakimś konkretem, np.

Nie można tak oddzielać, już to rozgraniczenie jest sztuczne, a nawet błędne.

Wcale nie jest błędne, ani sztuczne. Jest wręcz naturalne! To jest właśnie kwestia rozumienia samej istoty świadomości! Ja tak w każdym razie zacząłem ją postrzegać, co zaczęło mi wyjaśniać wiele zjawisk związanych ze świadomością. Wg mnie, kluczem do jej zrozumienia jest właśnie coś co nazwałem atomizacją świadomości, albo mógłbym nazwać inaczej "kwantowaniem świadomości", czyli rozbiciem jej na najmniejsze elementarne części. Wszystkie te elementarne świadomości składają się na naszą świadomość ogólną, a że nie jesteśmy świadomi wszystkich elementów składowych, to nasza świadomość nigdy nie jest stu procentowa.

20 godzin temu, Antylogik napisał:

Jeżeli jesteś świadomy albo lamparta, albo budynku, to twoja świadomość jest ograniczona. Można powiedzieć tutaj, że jesteś w 50% świadomy. Natomiast, jeśli widzisz jedno i drugie, to zaczynasz analizować czy zdążysz uciec do budynku przed lampartem. Wtedy masz 100% świadomości w świecie tych dwóch faktów.

Jeśli rozpatrywalibyśmy tylko te dwa elementy (czysto hipotetycznie), to masz rację. Ale w rzeczywistości, jest tu szereg innych świadomości, na które można rozbić "tą scenę". Np. świadomość tego, czy zdążę dobiec do budynku. Mogę mieć tą świadomość, jeśli wiem jak daleko znajduje się lampart ode mnie i jak daleko ja mam do budynku, a także świadomość tego jak ja szybko biegam i jak szybko biega lampart. Jeśli brakuje którejkolwiek z nich, to pojawia się obawa, czy aby na pewno zdążę itp.

20 godzin temu, Antylogik napisał:

Używamy lodówki, nie zastanawiając się jak ona działa.

Oczywiście. Często nie musimy znać zasad działania lodówki, ale żeby jej poprawnie użyć musimy znać przynajmniej wynik jej działania. Inaczej można się zdziwić, że lodówka mięso zamroziła, gdy myśmy chcieli mięso upiec. Nie można być kompletnie nieświadomym tego co się robi, bo uzyskane efekty staną się czysto losowe.

20 godzin temu, Antylogik napisał:

Nie musiał niczego świadomie wybierać, tak jak SI niczego świadomie nie wybiera. Uczeń na podstawie skojarzeń dobiera wzór. Przypomina sobie, że podobne zadanie robił używając takiego wzoru. A jeśli było kilka podobnych, to sprawdza metodą prób i błędów, losowo, czy dany wzór pasuje do danych albo czy czy szukane rozwiązanie da się uzyskać za pomocą tego wzoru. Wygląda na to, że mieszasz zdolność kojarzenia ze świadomością. Gdyby tak było, że ANN powinny mieć świadomość. Czyli wg ciebie maszyna ma świadomość, co oznacza, że zaprzeczasz sam sobie, bo twierdziłeś, że nie ma.

Chcesz sprowadzić tego ucznia do bezmyślnej maszyny, która coś tam przetwarza nie wiadomo po co i nie wiadomo w jakim celu. Sam dochodzisz do wniosku, że w tej sytuacji muszą zacząć się pojawiać elementy losowe. I znów posądzasz mnie o mieszanie "zdolność kojarzenia" ze "świadomością". Nic bardziej mylnego. Zdolność kojarzenie to działanie logiczne. Jest bardziej jak znak "+" we wzorze 2+3, a świadomość jest jak cyfra "2" lub "3" w nim zawarta (to oczywiście tylko uproszczenie).

Co do tego, czy ANN ma świadomość, czy nie to nie wypowiedziałem się jednoznacznie, a jeśli tak to odebrałeś, to może przez mój brak precyzji w skrótowej wypowiedzi:

W dniu 21.12.2019 o 11:19, Sławko napisał:

To, że te programy są nieświadome (póki co)

Kluczem jest tu zwrot "póki co". A powinienem był napisać "póki co tak myślę". To znaczy, że nie neguję możliwości posiadania świadomości przez ANN. Natomiast to, czy obecnie istniejące ANN mają świadomość na jakimś poziomie, to ja tego nie wiem. Myślę, że nie mają (nawet te największe), ale tak na 100% to ja tej pewności nie mam, w sumie z wielu powodów.

Jestem przekonany, że świadomość nie jest tylko cechą ludzką. Do niedawna uważano, że tylko ludzie ją mają i odmawiano jej zwierzętom. Myślę, że to z powodu samoświadomości, która bywa źle rozumiana. Ja obecnie uważam, że wiele zwierząt jest samoświadomych i dotyczy to nawet tych, które nie przechodzą "testu lustra" (który w mojej ocenie ma wiele wad). Do tego aby ANN były samoświadome, to droga jeszcze bardzo daleka (tak sądzę). Ale świadomość ma wiele poziomów związanych choćby z receptorami. Wąż może mieć świadomość istnienia pobliskiego gryzonia, bo widzi go w podczerwieni, a kot nie ma takich receptorów i gryzoń gdy się nie rusza (pomijam zapach) może zostać niezauważony. Świadomość jest więc związana z pewną porcją danych. Jeśli nie ma tych danych, to obiekt nie jest świadomy. I tu dochodzimy do zagadki. Czy w chwili gdy dostarczamy do sieci ANN dane, to czy jest ona świadoma tych danych? Jeśli to zadaję sobie pytanie, kiedy ta świadomość się pojawi? Czy zależy to od:

  • ilości wprowadzonych danych, ilości receptorów?
  • różnorodności wprowadzonych danych, różnych rodzajów receptorów?
  • budowy sieci neuronowej i jej złożoności?
  • istnienia sprzężeń zwrotnych i ich rodzaju?

A co jeśli największe sieci ANN już mają świadomość? Może ona już tam jest, tylko my nic o tym nie wiemy? Mamy problem ze zbadaniem świadomości zwierząt, więc co tu mówić o małych sieciach neuronowych. Może świadomość jest czymś znacznie prostszym niż nam się wydaje (nie mówię tu o samoświadomości). To jest właśnie przyczyna dlaczego mnie to zastanawia. Gdzie właściwie leżą granice? Czy pantofelek (Paramecium caudatum) jest świadomy, że w pobliżu czai się ameba, która może go pożreć? (biologów przepraszam, jeśli ameby nie żywią się pantofelkiem :)) Jeśli ma do tego odpowiednie receptory, to myślę, że może być świadomy!

Share this post


Link to post
Share on other sites
35 minut temu, Sławko napisał:

Wg mnie, kluczem do jej zrozumienia jest właśnie coś co nazwałem atomizacją świadomości, albo mógłbym nazwać inaczej "kwantowaniem świadomości", czyli rozbiciem jej na najmniejsze elementarne części.

To jest tylko analiza horyzontalna, a powinieneś nałożyć na nią też analizę wertykalną, tzn. coraz wyższe poziomy świadomości, jak uogólnienie wzoru czy też dostrzeganie podobieństw i różnic między jednym a drugim zjawiskiem (atomem). Wertykalna jest trudniejsza, bo wymaga myślenia a nie tylko obserwacji.

42 minuty temu, Sławko napisał:

Chcesz sprowadzić tego ucznia do bezmyślnej maszyny, która coś tam przetwarza nie wiadomo po co i nie wiadomo w jakim celu.

To czy bezmyślnej, to kwestia dyskusyjna, ale ogólnie racja - to tylko maszyna. Jej celem jest zdać egzamin, żeby rodzice i nauczyciele byli zadowoleni.

Share this post


Link to post
Share on other sites
41 minut temu, Antylogik napisał:

analizę wertykalną, tzn. coraz wyższe poziomy świadomości

O poziomach świadomości wspomniałem. Wydaje się, że najwyższym obecnie znanym poziomem świadomości jest samoświadomość. Natomiast te niższe póki co trudno jest mi tak jednoznacznie rozdzielić.

44 minuty temu, Antylogik napisał:

to tylko maszyna. Jej celem jest zdać egzamin, żeby rodzice i nauczyciele byli zadowoleni.

Ja bym aż tak nie radykalizował. W każdym razie ja taki nie byłem i nie sądzę abym był jakimś wyjątkiem. Każde zadanie starałem się zrozumieć. Uczenie się na pamięć i reagowanie jak "pies Pawłowa" na dzwonek, nigdy mnie nie satysfakcjonowało.

1 godzinę temu, peceed napisał:

Jeśli chodzi o kwestię neuronalne, to religia wyłącza krytyczne myślenie.

Zgadzam się z tym. Aczkolwiek mnie bardziej interesuje, jak religia kształtuje informacje w mózgu, że po jakimś czasie staje się on odporny na racjonalne bodźce, niejako zapętlając się na jednym temacie. Miałem w rodzinie osobę całkowicie podporządkowaną religii. Obserwowałem jej reakcję na różne argumenty. Umysł całkowicie "zabetonowany". Wiele ludzi wpada w tą pułapkę, a ja chciałbym zrozumieć, nie tylko jak temu zapobiec, ale także jak można człowieka z takiej pułapki wyprowadzić. Przeczytałem na takie tematy kilka książek (również te związane z uzależnieniami). Co więcej zauważyłem, że sztuczne sieci neuronowe również potrafią w taką pułapkę wpaść i potem niezwykle trudno jest taką sieć wyprowadzić z "błędnych przekonań". Eksperymenty w tym zakresie na sieciach neuronowych dają dużo do myślenia.

2 godziny temu, peceed napisał:

Proponuję zatem poczytać sobie psychiatryczne publikacje naukowe. Klasyczny przykład pseudonauki który zdołał oswoić inne dziedziny swoją obecnością.

W pseudonaukę raczej nie chciałbym wpaść. Kiedy dostrzegam błędy w swoim rozumowaniu, a także, gdy ktoś mi je udowadnia, traktuję to poważnie i staram się weryfikować swoją wiedzę. Nigdy też nie staram się udowadniać, że ja wszystko wiem najlepiej, bo to jedna z tych pułapek (jak religia), w którą łatwo wpaść, a potem trudno z niej wyjść. Można nawet stworzyć własną religię typu "płaskoziemcy".

2 godziny temu, peceed napisał:

Wszystkie niepatologiczne (typowe) potrzeby fizjologiczne, odruchy bezwarunkowe i popędy są racjonalne, jedynym kryterium jest "podtrzymanie życia", organizmy żywe które w tym rozumieniu nie są racjonalne giną.

Może i jest w tym racja. Nie pomyślałem o tym w takim kontekście.

Share this post


Link to post
Share on other sites
25 minut temu, Sławko napisał:

Aczkolwiek mnie bardziej interesuje, jak religia kształtuje informacje w mózgu, że po jakimś czasie staje się on odporny na racjonalne bodźce, niejako zapętlając się na jednym temacie.

Przepraszam, że wtrącę się w tak ciekawą dyskusję, ale...
Czy obecnie to tylko demena religii? Czy przypadkiem nie jest tak, że spersonalizowana reklama i spersonalizowane treści nie zapętlają bardziej? Myślę, że współczesny model marketingowy pełnymi garściami czerpie z "wiary". Szkoda, że wcześniej taki dajmy Watykan nie wpadł na pomysł opodatkowania koncepcji.

P.S. jest kilka ciekawych badań wskazujących na korelację używanych terminów vs poglądy i wiara. Jeśli w tekście na 200 znaków znajdzie się "komuch" i "ojczyzna", to na 99,9% mamy do czynienia z kimś, na kim 3grosze miałby używanie. ;)

Edited by Astro

Share this post


Link to post
Share on other sites
59 minut temu, Sławko napisał:

Ja bym aż tak nie radykalizował. W każdym razie ja taki nie byłem i nie sądzę abym był jakimś wyjątkiem. Każde zadanie starałem się zrozumieć. Uczenie się na pamięć i reagowanie jak "pies Pawłowa" na dzwonek, nigdy mnie nie satysfakcjonowało.

Ja nawet nie zacząłem jeszcze radykalizować, bo poszedłbym znacznie dalej. Bo tu nie chodzi tylko o nagrodę, ale też karę, o emocje. Skoro nie uważasz się za wyjątek jak byś zareagował, gdybym ci napisał:

Zabij się, dźgając się w serce dla większego dobra

Albo, co byś zrobił, gdybyś usłyszał to od robota z Amazona:

http://next.gazeta.pl/next/7,151243,25539618,alexa-kazala-kobiecie-sie-zabic-zabij-sie-dzgajac-sie-w-serce.html

Większość ludzi zacznie się denerwować, a robota będą chcieli wyłączyć albo oddać do naprawy. Stres to też tylko reakcja mechaniczna.

Share this post


Link to post
Share on other sites
57 minut temu, Sławko napisał:

jak religia kształtuje informacje w mózgu, że po jakimś czasie staje się on odporny na racjonalne bodźce, niejako zapętlając się na jednym temacie

To akurat jest proste. Przede wszystkim wykorzystuje wszystkie naturalne emocje, począwszy od lęku przed śmiercią. "Kryminalizuje" przyjemność. Wykorzystuje publiczne uroczystości aby przekonać mózg o powszechności swoich przekonań. Wykorzystuje doniosłe, silne emocjonalnie wydarzenia obecne w życiu każdego człowieka.

Jest "nauczana" wcześnie. Gdybym wierzył że żyję na łodzi podwodnej, i otwarcie zaworu mnie zabije przez zalanie wody, nigdy tego bym nie zrobił... Niezależnie od tego że może to być laboratorium pod ziemią.
Poglądy przejmowane od rodziców mają ogromną ważność bo zapewniły sukces reprodukcyjny, czego jesteśmy dowodem. Imprint.

Modlitwa jest praniem mózgu który technicznie chrześcijanie obchodzą co najmniej 2x dziennie, a muzułmanie 5x. Pochłania to cały dostępny czas na jakąkolwiek refleksję. Masz wolny czas - módl się.

Dlatego wiara to nie tylko system przekonań, ale też potężny trening który ma człowieka w wierze utrzymać wyłączając myślenie, aczkolwiek nie do końca. Mózg jest sprytny, i w końcu wyrobi sobie nieświadome metody postępowania które abstrachują indoktrynację i będzie je aplikował sam sobie.

49 minut temu, Astro napisał:

Czy przypadkiem nie jest tak, że spersonalizowana reklama i spersonalizowane treści nie zapętlają bardziej?

Nie, różnica jest taka jak pomiędzy dajmy na to żywą żabą a Kermitem Muppetem. Nawet jeśli wygląda tak samo, to jest wciąż mniej zaawansowana. 

 

Share this post


Link to post
Share on other sites
14 minut temu, peceed napisał:

Nawet jeśli wygląda tak samo, to jest wciąż mniej zaawansowana.

Nie doceniasz zaawansowania. Żeby było śmieszniej, nie ma w tym nic celowego, nie stoi za tym jakiś "boski plan". Bardziej jak "zabawa" z muszkami owocowymi.

20 minut temu, Antylogik napisał:

Albo, co byś zrobił, gdybyś usłyszał to od robota z Amazona

Ja bym współczuł, albo zdziwiłbym się, że się jednak nie zabiła. No bo kto normalny kupuje takie coś? Po co? To może lepsze pytanie.

P.S. Ludzie od dawna już ze sobą nie rozmawiają, a natura uczyniła nas istotami społecznymi. Sorki Winnetou....

Share this post


Link to post
Share on other sites
23 minuty temu, Antylogik napisał:

Zabij się, dźgając się w serce dla większego dobra

Albo, co byś zrobił, gdybyś usłyszał to od robota z Amazona:

Są trzy możliwości. Albo programista wplótł to w sieć neuronową jako "dowcip", albo faktycznie sieć neuronowa jakąś logiczną ścieżką powiązała ze sobą ten tekst z wcześniejszymi "doświadczeniami" i wyszło to co wyszło. Ja bym to zignorował, uznał że to głupoty. Z pewnością nie wystraszyłbym się.

19 minut temu, peceed napisał:

To akurat jest proste. Przede wszystkim wykorzystuje wszystkie naturalne emocje, począwszy od lęku przed śmiercią.

No tak, ale to już są pewne następstwa. Pierwszym etapem jest zapewne przeładowanie komórek nerwowych nadmiarem bzdurnych informacji.

Godzinę temu, Astro napisał:

Czy przypadkiem nie jest tak, że spersonalizowana reklama i spersonalizowane treści nie zapętlają bardziej?

Moim zdaniem nie ma różnicy. To jest dokładnie ten sam mechanizm. Siła "zapętlenia" zależy tylko od ilości i intensywności bodźców.

Share this post


Link to post
Share on other sites

Pełna zgoda Sławko, nie ma różnicy. "Bardziej" to raczej erystyka i świadomość intensywności bodźców. ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Microsoft zwolni kilkudziesięciu pracowników zatrudnionych na umowach-zleceniach. Stracą oni pracę na rzecz... sztucznej inteligencji, która będzie zajmowała się w portalu MSN publikowaniem najświeższych wiadomości. Umowy zostaną rozwiązane 30 czerwca. Pracownicy ci, 50 z USA i 27 z Wielkiej Brytanii, są obecnie odpowiedzialni za wybieranie, edytowanie i przygotowywanie newsow do publikacji.
      Przedstawiciele Microsoftu oświadczyli, że firma na bieżąco dokonuje zmian w sposobie prowadzeni biznesu. Dodali, że likwidacja stanowisk nie ma związku z pandemią.
      Nie od dzisiaj mówi się, że sztuczna inteligencja mogłaby wybierać gotowe informacje, a może nawet samodzielnie pisać własne krótkie teksty. Tutaj, prawdopodobnie po raz pierwszy w historii, mamy przykład dużego portalu internetowego, w którym ludzie tracą pracę przy redakcji tekstu i zostają zastąpieni automatem.
      Microsoft, kończąc współpracę z kilkudziesięcioma osobami i zastępując ich SI, chce z jednej strony przetestować możliwości sztucznej inteligencji na dużą skalę, z drugiej zaś liczy na obniżenie kosztów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa.
      Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley.
      Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością.
      Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej.
      Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych.
      Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna.
      Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów.
      Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań.
      Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo.
      Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat.
      Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie.
      Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat.
      Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A.
      Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu.
      Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania.
      Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20.
      Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat.
      W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił.
      Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.
      W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.
      Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.
      Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.
      Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?
      Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.
      W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.
      Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.
      Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).
      Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.
      W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.
      Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.
      Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.
      Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.
      W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.
      Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.
      Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.

      « powrót do artykułu
×
×
  • Create New...