Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polskie prawo nie jest dostosowane do realiów funkcjonowania sztucznej inteligencji

Rekomendowane odpowiedzi

Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.

Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.

Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.

Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?

Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.

W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.

Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.

Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).

Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.

W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.

Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.

Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.

Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.

W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.

Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.

Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Polskie prawo może i nie jest dostosowane do działań SI, ale istnieją systemy SI dostosowane do polskiego prawa (i to gdzieś tak od przynajmniej 10 lat)...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, KopalniaWiedzy.pl napisał:

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg.

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa. Na razie to s-f, ale bardziej poważne niż te prawa intelektualne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 4.06.2019 o 15:51, mankomaniak napisał:

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa

 

No nie.

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka (fizyczne w przypadku płodu czy intelektualne w przypadku AI) to wykluczamy wszystko co jest inteligentne a ludzkie nigdy nie będzie (kruk, wieloryb, AI  czy niehumanoidalny Obcy) lub jest człowiekiem a "nie wygląda" (niegdyś czarny, neandertalczyk, kaleka, untermensch - ogólnie nie nasz,  obcy). Wymaga to zdefiniowania człowieczeństwa.

W świecie platońskich idei zygota to już człowiek a myślący grzyb czy ocean to osobowość - brat w rozumie.

Pomiędzy... jesteśmy my. Pytanie (retoryczne) do mamkomaniaka: kiedy zaczyna się człowiek? IMHO arbitralnie nie da się tego rozstrzygnąć. Dla niektórych człowiek jest tuż post coitum, dla innych wielu nie stanie się ludźmi nigdy i można/trzeba ich eksterminować.

Pytanie: czy można osądzać coś co ludzkie nie jest wg ludzkich praw. A jeśli nie, to jak takie prawo skonstruować - i chyba na tle tych rozterek powstal ten artykuł

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, Wheelmill napisał:

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka

Coś Ci się miesza kompletnie, osoba prawna to niemal zaprzeczenie człowieka, czyli osoby fizycznej. AI nie może mieć osobowości prawnej, bo to nie jest odrębny byt jak spółka. AI to dzieło człowieka tak jak każdy program komputerowy, podlega autorowi.

17 godzin temu, Wheelmill napisał:

Wymaga to zdefiniowania człowieczeństwa.

Nie wymaga żadnego zdefiniowania człowieczeństwa, wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

17 godzin temu, Wheelmill napisał:

W świecie platońskich idei zygota to już człowiek

To odwróćmy proces, sam szkielet to też człowiek, bo przecież kiedyś nim będzie. Po co sobie zawracać głowę takimi bzdurami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.06.2019 o 09:44, mankomaniak napisał:

wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

A kiedy AI cierpi? Czy program komputerowy symulujący np. w grze człowieka cierpi? Jest przerażony? Gdy będziesz podrzynał gardło postaci z gry, to będzie cierpiała?

https://www.youtube.com/watch?v=BQ3y6QXQE3M

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną. W przypadku AI na dzień dzisiejszy raczej nie (bo te dzisiejsze AI raczej "udają" inteligencję/świadomość niż ją mają, przynajmniej tak to "odczuwamy").

https://www.polsatnews.pl/wiadomosc/2019-06-02/celowo-przejechal-autem-psa-szuka-go-policja/

Jeśli chcesz jakichś "praw" dla AI/robotów to co będzie w sytuacji, gdy trzeba będzie wybrać między "prawami" robota a "prawami" zwierzęcia? Dopuszczalne jest zabić zwierzę, żeby AI "nie cierpiała"?

 

Edytowane przez darekp
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, darekp napisał:

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną.

No niestety pomiędzy tym rozumowaniem a rzeczywistością istnieje sporo sprzeczności, wręcz hipokryzji. Czym ryba jest gorsza od psa czy kota? Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota? Nie, dlatego, że z psem czy kotem można się jeszcze porozumieć, a ze świnią, kurczakiem czy rybą już nie. Tak więc nie chodzi wcale o cierpienie, ale bycie "ludzkim". Pies, kot czy nawet nieudomowiony koń to zwierzęta bardziej ludzkie, przyjazne człoiekowi od wymienionych wcześniej. A więc wystarczy, że zachowują się jak przyjaciele i już nie można ich zabijać. Takie są fakty, ględzenie o cierpieniu łatwo obalić.

Tak więc wracając do robota, jeśli robot będzie zachowywał jak przyjaciel człowieka, to także powinien mieć swoje prawa, jak te zwierzęta, a to dlatego, że kryterium praw okazuje się - jak udowodniłem wyżej - nie to czy czuje czy cierpi, ale jak bardzo jest ludzki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, mankomaniak napisał:

Czym ryba jest gorsza od psa czy kota?

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

 

13 minut temu, mankomaniak napisał:

Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota?

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad. Psy są zjadane w wielu kulturach (m. in. Chińczycy, Indianie północnoamerykańscy), koty były potrawą narodową w Szwajcarii.

Po prostu biologia jest jaka jest i gdy człowiek potrzebuje mięsa (a trochę go potrzebuje), to sobie "odpuszcza" wątpliwości moralne (co do innych gatunków niż własny, przynajmniej współcześnie, bo dawniej różnie z tym bywało).

Po trzecie, powtórzę, jeśli AI nie cierpi/nie ma świadomości, a zwierzę cierpi, to bez względu na to jak AI jest "ludzka" wybór jest oczywisty.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, darekp napisał:

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

A co to ma wspólnego z cierpieniem fizycznym? Przecież pisałeś

"W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną."

Więc teraz już nie chodzi o cierpienie, ale o wyższą świadomość? Zaplątałeś się coś, albo jesteś hipokrytą.

6 minut temu, darekp napisał:

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad.

A wyżej piszesz o niższej świadomości, czyli wyższej świadomości psa, kota, konia, która rzecz jasna oznacza właśnie to co "bardziej ludzkie". Czy Ty sam się czytasz? 

Edytowane przez mankomaniak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia. tylko tyle (myślę, że wielu ludzi intuicyjnie to rozumie, ale cóż, "racjonalistom" najwyraźniej trzeba wszystko tłumaczyć. Dziwne, bo podobno uważają się za inteligentniejszych od reszty).

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, darekp napisał:

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia.

A to teraz przyjmujesz,a to już nie przyjmujecie? Nie ma consensu? A na jakiej podstawie przyjmujesz, że ryba mniej cierpi jak się ją kroi na żywca od tego psa na ulicy?

A tutaj ciekawe opracowanie na temat ryb: http://empatia.pl/blog/2015/09/02/ryby-czujace-i-inteligentne-istoty/

"Z kolei ścieżki sygnału płynącego z receptorów bólowych do mózgu i sama budowa mózgu ryby dowodzą, iż nie tylko są one zdolne do rozpoznawania i unikania bólu, ale także jego świadomego odczuwania, zapamiętywania i kojarzenia z konkretną sytuacją lub obiektem. Do tej pory sądzono, że ryby nie mają zdolności poznawczych, gdyż nie posiadają w mózgu rozwiniętej istoty szarej kory nowej (tzw. neocortex). Jednakże po dokładniejszych badaniach okazało się, że mózg ryb jest funkcjonalnie jakby „odwrócony na lewą stronę” w stosunku do naszego mózgu!    Mianowicie warstwy mózgu odpowiedzialne za odczuwanie, emocje i myślenie, są u ryb położone głębiej tj. poniżej istoty białej, w przeciwieństwie do innych grup kręgowców, u których warstwy o takiej funcji znajdują się na jej powierzchni. Ponadto funkcję kory nowej mogą być częściowo podejmowane przez inne partie mózgu ryby, podobnie, jak ma to miejsce u ludzi z uszkodzeniami mózgu. U ryb wykryto także obecność specjalnych włókien nerwowych i układu przypominającego nasz układ limbiczny, odpowiedzialnych za świadome odczuwanie, co potwierdzają też inne liczne badania neuroanatomiczne oraz behawioralne. Dlatego, ku zaskoczeniu badaczy, nie tylko trzeba pytać, czy ryby odczuwają ból, cierpienie i inne emocje, ale również czy są samoświadome. Jak dowodzą liczne prace przytoczone w książce pt. „Do fish feel pain” autorstwa V. Braithwaite, ryby odczuwają ból na równi lub nawet silniej, niż inne zwierzęta, do których żywimy więcej empatii – ssaki, w tym płody ludzkie i noworodki oraz ptaki."

To jak z tym konsensusem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odchodzisz od tematu. Nie interesuje mnie rozstrzyganie, czy ryba cierpi mniej czy bardziej od psa/świni (bo i tak ostatecznie, gdy będzie potrzeba, żeby trafiły na talerz, to trafią), tylko jak chcesz rozstrzygnąć kwestię wyboru między "cierpieniem" robota a cierpieniem zwierzęcia (w sytuacji, gdy trzeba by wybrać między jednym a drugim). Twoje wcześniejsze wypowiedzi wyraźnie sugerują, że jeśli AI byłaby "bardziej ludzka" (cokolwiek przez to rozumiesz) a pozbawiona świadomości/zdolności odczuwania cierpienia itp. to uznałbyś ją za mającą więcej praw niż zwierzę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie odchodzę od tematu, wręcz przeciwnie, ty po prostu nie widzisz związku między tymi sprawami. Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością, Roboty sa konstruowane właśnie tak, by wykazywac empatię, a ich świadomość może być zbliżona do zwierząt, może i człowieka.

Edytowane przez mankomaniak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Proszę o w miarę ścisłe zdefiniowanie co rozumiesz przez "bycie bardziej ludzkim". Skoro sięgasz po przeprowadzanie jakichś dowodów (tak napisałeś powyżej: "Udowodniłem przecież, że..."), to chyba powinieneś wcześniej co nieco precyzyjnie zdefiniować, nieprawdaż?

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cóż, z mojej strony pozostaję przy tym, co napisałem (a wcześniej napisał Wheelmill), że zachodzi potrzeba precyzyjniejszego zdefiniowania "człowieczeństwa".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, mankomaniak napisał:

Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

Nie udowodniłeś, tylko wyraziłeś swoja opinię.

Godzinę temu, mankomaniak napisał:

w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe. Koty i psy mają trochę inne prawa, ze względu na ich niekonsumpcyjność w naszym kręgu kulturowym, ponieważ:

Godzinę temu, mankomaniak napisał:

 bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

i tu masz rację. U AI to będzie tylko symulacja.

Edytowane przez 3grosze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
40 minut temu, 3grosze napisał:

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe.

Ale tu nie chodzi o sposób zabijania, tylko sam fakt zabijania dla mięsa. Tu chodzi o prawo do życia zwierzęcia.

 

41 minut temu, 3grosze napisał:

U AI to będzie tylko symulacja.

Człowiek także potrafi symulować. Np. chorzy na nerwicę często odczuwają ból w brzuchu na jakąś myśl. Mało tego, wystarczy często, że tylko pomyślą o bólu brzucha i zaczynają odczuwac realny ból. Ale jak sprawdzisz to, że naprawdę odczuwają? Może i są jakieś metody komputerowe, które pozwalają obiektywnie to wykryć. Tylko że to będzie wykrycie jakiegoś tam pobudzenia hormonów czy neuronów. Jeśli uznamy, że ból to wszelkie podrażnienie, które pogarsza funkcjonowanie organizmu, to można tak zaprogramować robota / androida / replikanta, czy po prostu cyborga, aby wszelkie podrażnienie jego organizmu traktować jak coś nieprzyjemnego i w związku z tym aby wykazywał cały szereg emocji - zmarszczenie twarzy, wydawał określone dźwięki, w przypadku uświadomienia, że człowiek chce zniszczyć, próba ratunku albo błaganie o litość. Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

P.S. Wkrótce można będzie tak zaprogramować robota, aby zoptymalizował swoje zachowanie wobec człowieka w określonym celu: program - 1: stań się przyjacielem. Będzie się tak zachowywał jak najlepszy przyjaciel człowieka. Człowiek pokocha go jak psa. Program 2 - stań się kochankiem. Będzie optymalnie uwodził daną płeć, tak że kobieta / mężczyzna zakocha się w nim. Program 3 - bądź wrogiem... itd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, mankomaniak napisał:

Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

Proszę o dowód, mądrzejsi od Ciebie i mnie uważają to za rzecz dyskusyjną:

https://pl.wikipedia.org/wiki/Test_Turinga

https://pl.wikipedia.org/wiki/Chiński_pokój

https://merlin.pl/nowy-umysl-cesarza-o-komputerach-umysle-i-prawach-fizyki-roger-penrose/1298305/

 

2 godziny temu, mankomaniak napisał:

Wkrótce można będzie tak zaprogramować robota,

Tak, tak, wiem wiem, przy okazji bardzo się cieszę, że ludzie od kilkunastu lat latają na Marsa i księżyce Jowisza, bo tak przewidywali jakiś czas temu różni zapewne "racjonaliści": https://pl.wikipedia.org/wiki/2001:_Odyseja_kosmiczna_(film)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, darekp napisał:

Łatwo obalić ten cały chiński pokój. Np. gdyby ludzie jak ty rozumieli co ja piszę, to nie kłóciliby się ze mną, tylko potwierdzali, że mam rację. Dopiero po wielu odpowiedziach interlokutor dochodzi do wniosku, że się mylił, ale do tego oczywiście się nie przyzna, więc zaczyna coś w stylu "takie mam zdanie, opinię i koniec" albo zaczyna zmieniać temat i wymyslać jakieś argumenty, które dotyczą czego innego.Albo przestaje odpowiadać, bo nie wie co odpowiedzieć. Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn. Test mankomaniaka udowadnia, że człowiek też nie rozumie co się do niego mówi. Czyli niczym nie różni się od robota. 

 

4 godziny temu, darekp napisał:

Gdybyś miał więcej wiedzy na ten temat, wiedziałbyś, że wyśmiano Penrose'a , że chciał udowodnić niemechaniczność świadomości poprzez twierdzenie Godela, które niczego takiego nie dowodzi. Jest trochę polskich prac na ten temat (np. Krajewski: Twierdzenie Gödla i jego interpretacje filozoficzne; Sochaciński: Twierdzenie Gödla a spór o mechanicyzm).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
52 minuty temu, mankomaniak napisał:

Łatwo obalić ten cały chiński pokój.

Tak samo jak i eksperymenty myślowe mające udowodnić tezę przeciwną. Bo i jedno i drugie to są tylko spekulacje myślowe wychodzące poza zakres naszej wiedzy (naukowej).

52 minuty temu, mankomaniak napisał:

Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn.

Wydaje mi się, że zawsze jest tak, że w pewnym momencie dochodzi się do założeń nieweryfikowalnych wiedzą naukową i wtedy zostaje powiedzieć "takie mam zdanie, opinię i koniec". Gdzie nie ma wiedzy, pozostaje tylko "opinia" (i ew. sterczący gdzieś niedaleko niej "koniec";)). To co opisujesz, mówi raczej coś ciekawego o stanie Twojego umysłu.

52 minuty temu, mankomaniak napisał:

wiedziałbyś, że wyśmiano Penrose'a 

W historii wyśmiewano różnych ludzi, nie zawsze zasadnie. Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję, niż panowie Krajewski & Sochaciński. Ale to tylko moje wrażenie (plus "koniec"), kto inny może mieć inne (i swój "koniec").

Tak czy siak, żadnego dowodu nie podałeś.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, darekp napisał:

Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję

No właśnie problem polega na tym, że do świata fizycznego używa argumentów metamatematycznych. Zresztą gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii. No ale co sam autor twierdzenia może wiedzieć o nim? Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, mankomaniak napisał:

gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii.

Bez czytania Sochacińskiego (btw Google mi podpowiada, że to Cichociński, nie Sochaciński) jestem IMHO całkiem nieźle świadomy, że Goedel był "daleki od uznania" itd. itd. 

17 minut temu, mankomaniak napisał:

Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką (tak go odbieram), że tak ważnej rzeczy jak świadomość nie można zostawić na zawsze jako jakiś niefizyczny byt. Czyli że warto się pochylić nad przypuszczeniem, że nasza dzisiejsza fizyka po prostu jest "za biedna", że nie odkryliśmy jeszcze jakichś praw fizycznych, które mówią coś istotnego o funkcjonowaniu świadomości. Niezależnie od tego, że na dzień dzisiejszy to nie jest przypuszczenie konstruktywne.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, darekp napisał:

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką

Przyznam się, że nie śledzę wypowiedzi co bardziej bystrzejszych bo mam pewien problem, nazwijmy to techniczny.

Duża część z nich wypowiadało się kiedy mało wiedzieliśmy o działaniu mózgu, następnie mało wiedzą jak działają współczesne AI, część to po prostu nazwijmy ich filozofowie którzy szukają "magii człowieczeństwa" .

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Jednak, to o czym traktuje artykuł jest bliżej nas niż świadomość.
Jak słusznie zauważono, to trochę ściąganie odpowiedzialności z twórców, tak jak osoba prawna odpowiada za "swoje" działania, i schodzi bezpośrednia odpowiedzialność z ludzi.
Czy jeżeli dotrzymałem wszelkich norm, jeśli chodzi o np. budowę samolotu i jego systemów i samolot mimo wszystko się zepsuł na skutek sytuacji której nikt wcześniej nie przewidział(i spadł) to czy firma odpowiada za to czy to już zdarzenie losowe?  CZy jeżeli dodamy to zdarzenie do norm, i wszyscy muszą się ich trzymać to już ok?

I tutaj to samo, czy jeżleli mam autonomiczny samochód i dotrzymałem wszelkich standardów (Ale ich nie ma chyba?) to jest ok?

Z Twórczością nie rozumiem problemu, dla mnie sztuczna sieć neuronowa którą sobie wytrenowałem która stworzyła utwór nie różni się niczym od syntezatora na którym coś zagrałem.  I w tę stronę chyba to na razie idzie. To nie jest sobie jakiś byt który sam sobie tworzy i jest tego właścicielem. Na ten moment to jest zwykły młotek i to wszystko. 

I na ten moment to są nasze realne problemy, bez istnienia świadomości sztucznej lub nie, zwał jak zwał.

 

  • Pozytyw (+1) 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, Afordancja napisał:

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Całkowita zgoda. Panuje tu duże nieporozumienie. Nagminne jest utożsamianie inteligencji ze świadomością przez profanów oraz odmawianie inteligencji ANN przez profesjonalistów bo przecież mnożenie z dodawaniem nie może dać inteligencji. Tymczasem prosty klasyfikator odróżniający kota od psa jest inteligentny. Jego IQ nie powala, ale prezentuje elementarną inteligencję. Złożenie takich klasyfikatorów może już całkiem udatnie naśladować mądrość, wygrywać w szachy lub Go czy prowadzić samochód. To, że nie ma w tym magii, nie znaczy że nie jest inteligentne. 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intel ogłosił, że wybuduje w Polsce supernowoczesny zakład integracji i testowania półprzewodników. Stanie on w Miękini pod Wrocławiem, a koncern ma zamiar zainwestować w jego stworzenie do 4,6 miliarda dolarów. Inwestycja w Polsce to część obecnych i przyszłych planów Intela dotyczących Europy. Firma ma już fabrykę półprzewodników w Leixlip w Irlandii i planuje budowę drugiej w Magdeburgu w Niemczech. W sumie Intel chce zainwestować 33 miliardy euro w fabrykę w Niemczech, zakład badawczo-rozwojowo-projektowy we Francji oraz podobne przedsięwzięcia we Włoszech, Hiszpanii i Polsce.
      Zakład w Polsce ma rozpocząć pracę w 2027 roku. Zatrudnienie znajdzie w nim około 2000 osób, jednak inwestycja pomyślana została tak, by w razie potrzeby można było ją rozbudować. Koncern już przystąpił do realizacji fazy projektowania i planowania budowy, na jej rozpoczęcie będzie musiała wyrazić zgodę Unia Europejska.
      Intel już działa w Polsce i kraj ten jest dobrze przygotowany do współpracy z naszymi fabrykami w Irlandii i Niemczech. To jednocześnie kraj bardzo konkurencyjny pod względem kosztów, w którym istnieje solidna baza utalentowanych pracowników, stwierdził dyrektor wykonawczy Intela, Pat Gelsinger. Przedstawiciele koncernu stwierdzili, że Polskę wybrali między innymi ze względu na istniejącą infrastrukturę, odpowiednio przygotowaną siłę roboczą oraz świetne warunki do prowadzenia biznesu.
      Zakład w Miękini będzie ściśle współpracował z fabryką w Irlandii i planowaną fabryką w Niemczech. Będą do niego trafiały plastry krzemowe z naniesionymi elementami elektronicznymi układów scalonych. W polskim zakładzie będą one cięte na pojedyncze układy scalone, składane w gotowe chipy oraz testowane pod kątem wydajności i jakości. Stąd też będą trafiały do odbiorców. Przedsiębiorstwo będzie też w stanie pracować z indywidualnymi chipami otrzymanymi od zleceniodawcy i składać je w końcowy produkt. Będzie mogło pracować z plastrami i chipami Intela, Intel Foundry Services i innych fabryk.
      Intel nie ujawnił, jaką kwotę wsparcia z publicznych pieniędzy otrzyma od polskiego rządu. Wiemy na przykład, że koncern wciąż prowadzi negocjacje z rządem w Berlinie w sprawie dotacji do budowy fabryki w Magdeburgu. Ma być ona warta 17 miliardów euro, a Intel początkowo negocjował kwotę 6,8 miliarda euro wsparcia, ostatnio zaś niemieckie media doniosły, że firma jest bliska podpisania z Berlinem porozumienia o 9,9 miliardach euro dofinansowania. Pat Gelsinger przyznał, że Polska miała nieco więcej chęci na inwestycję Intela niż inne kraje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Papież Franciszek paradujący po Watykanie w białej, puchowej kurtce od Balenciagi, Donald Trump uciekający przed policją, Władimir Putin za kratkami. To tylko kilka z licznych przykładów zdjęć, które obiegły Internet w ciągu ostatnich miesięcy. Wszystkie mają jedną cechę wspólną – przedstawiają wydarzenia, które nigdy nie miały miejsca.
      Internet, jaki znamy, czeka rewolucja, a być może już jesteśmy jej naocznymi świadkami. Rozwój technologii chyba jeszcze nigdy nie wiązał się ze zmianami na taką skalę. Mowa o sztucznej inteligencji, czyli AI, która już teraz budzi zarówno fascynację, jak i niepokój.
      Spreparowane zdjęcia znanych osób obiegają sieć
      Generatywne narzędzia oparte na sztucznej inteligencji rozwinęły się w ostatnich miesiącach tak bardzo, że mówi się o przełomie. Prawdopodobnie każdy choć raz słyszał takie nazwy jak ChatGPT, Midjourney, DALL-E czy Stable Diffusion. To tylko wierzchołek góry lodowej, bo szum związany z AI jest na tyle duży, że zarówno małe, jak i wielkie przedsiębiorstwa poddają się modzie (i obietnicy zysków), wypuszczając własne aplikacje.
      Coraz więcej ekspertów zwraca jednak uwagę na to, jak niebezpieczna staje się moda na AI. Już teraz możemy zaobserwować jej wpływ na to, jak postrzegamy rzeczywistość.
      Przykładowo, poniższe „zdjęcie” zostało wygenerowane za pomocą narzędzia Midjourney i umieszczone na platformie Reddit:
      Grafika została prędko pochwycona i podbiła wszystkie media społecznościowe. I choć od początku było wiadomo, że została wygenerowana przez AI, to wiele osób zapomniało wspomnieć o tym fakcie, udostępniając ją dalej. Tak narodził się Balenciaga Pope, w którego prawdziwość uwierzyła duża część internautów.
      Papież Franciszek w kurtce Balenciagi jest bardziej zabawny niż szkodliwy, ale nie jest jedynym przykładem viralowego zdjęcia, na które nabrało się wiele osób, a które zostało najzwyczajniej w świecie spreparowane. Podobny los podzieliły między innymi obrazy przedstawiające Donalda Trumpa w pomarańczowym kombinezonie więziennym czy Władimira Putina klękającego przed Xi Jinpingiem, przewodniczącym Chińskiej Republiki Ludowej.
      Dlaczego problem dezinformacji staje się tak poważny?
      Spreparowane obrazy przedstawiające twarze znanych osób nie są niczym nowym w Internecie. Przerabianie zdjęć stało się możliwe już wtedy, gdy powstały narzędzia do obróbki graficznej (z Adobe Photoshopem na czele).
      Jest jednak różnica między standardowym przerabianiem zdjęć a generowaniem ich za pomocą AI. O ile obsługa programów graficznych (z zadowalającymi rezultatami) wymaga posiadania pewnych umiejętności, o tyle generowanie zdjęć i obrazów za pomocą AI jest darmowe oraz banalnie łatwe. Narzędzia korzystają z promptów, czyli tekstowych podpowiedzi. Wystarczy więc odpowiednio opisać to, co chce się uzyskać, a sztuczna inteligencja wygeneruje obraz na podstawie zapytania.
      Sprawia to, że właściwie każdy jest dziś w stanie generować treści, które są realistyczne, a jednocześnie nie mają nic wspólnego z rzeczywistością. Sianie dezinformacji, propagandy i rozpowszechnianie kłamstw nigdy nie było tak łatwe, a z drugiej strony – w przyszłości możemy mieć też problem z wiarą we wszystkie wiadomości ze względu na wyuczoną nieufność w stosunku do treści generowanych przez AI.
      Warto zaznaczyć, że nie tylko sfalsyfikowane zdjęcia stanowią niebezpieczeństwo związane z szerzeniem dezinformacji i „fake newsów”. Rozwój AI dotyka każdego medium. W przyszłości prawdopodobnie trzeba będzie zastanawiać się dwa razy nie tylko nad autentycznością zdjęć, ale i filmów oraz ludzkich głosów.
      Już teraz możliwe jest wkładanie w usta znanych osób wypowiedzi, które nigdy nie padły. Brzmi to dystopijnie, ale trzeba przyznać jedno – internauci nigdy nie zawodzą, a memy z prezydentami kłócącymi się przy grach wideo to prawdopodobnie najśmieszniejsze, co wynikło z całej tej sytuacji.
      Moda na AI groźna także z innych powodów
      Łatwość, z jaką będzie można tworzyć i rozprzestrzeniać materiały propagandowe i dezinformację, to z pewnością jeden z najważniejszych problemów, z którymi będą musieli zmierzyć się wszyscy ludzie korzystający z sieci. AI stanowi jednak również inne zagrożenia.
      W sklepach Play czy App Store znajdziemy masę aplikacji mobilnych używających sztucznej inteligencji: wirtualnych asystentów, czatboty, filtry upiększające albo zmieniające twarze.
      Aplikacje te są teraz szczególnie rozchwytywane, ponieważ „boom” na AI trwa w najlepsze. Wiele z nich to jednak w rzeczywistości tylko fasady udające autentyczne narzędzia. Moda na AI ułatwia bowiem oszustom i przestępcom rozprzestrzenianie złośliwego oprogramowania, dlatego dziś czujność jest szczególnie ważna.
      Warto pamiętać, by uważnie czytać opinie i komentarze na temat każdej aplikacji, którą planujemy pobrać na swoje urządzenie. Dobrze też podjąć dodatkowe środki ostrożności. Tani VPN niestety nie zapewni nam wystarczającej ochrony i nie uchroni przed pobraniem szkodliwego oprogramowania, dlatego rozsądniej jest zainwestować z porządną wirtualną sieć prywatną.
      Wśród „AI-sceptyków” niepokój budzi również etyka związana z ulepszaniem tej technologii, a właściwie jej brak, gdy mowa na przykład o trenowaniu sieci neuronowych. Narzędzia takie jak ChatGPT czy Midjourney nie tworzą treści z powietrza – zanim zostały wypuszczone na rynek, trenowano je na tysiącach gigabajtów materiałów umieszczonych w Internecie.
      Obecnie trwa spór o to, czy takie praktyki powinny być w ogóle legalne, jako że twórcy tych materiałów (w tym graficy, pisarze i inni artyści) nigdy nie wyrazili zgody na użyczenie wyników swojej pracy do trenowania systemów mogących ich w przyszłości nawet zastąpić.
      Jak na razie pewne jest jedno: musimy nauczyć się poważnie zastanawiać nad tym, czy to, co widzimy, na pewno jest autentyczne.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nieodpowiednia dieta była przyczyną 14,1 milionów zachorowań na cukrzycę typu 2. w 2018 roku, informują naukowcy z Tufts University. Na podstawie stworzonego przez siebie modelu dotyczącego zwyczajów dietetycznych mieszkańców 184 krajów, uczeni uznali, że złe odżywianie się odpowiada za 70% nowych przypadków cukrzycy typu 2. Badania, w których uwzględniono dane z lat 1990–2018 zostały opublikowane na łamach Nature Medicine. Autorom badań udało się określić te zwyczaje żywieniowe, które w największym stopniu przyczyniają się do rozwoju cukrzycy.
      Uwzględnili w swoich badaniach 11 czynników powiązanych z dietą i stwierdzili, że 3 z nich odgrywają nieproporcjonalnie dużą rolę w rozwoju cukrzycy. Są nimi niedostateczne spożycie pełnego ziarna, zbyt duże spożycie oczyszczonego ryżu i pszenicy oraz zbyt duże spożycie przetworzonego mięsa. Mniejszy wpływ na rozwój choroby miało spożywanie zbyt dużych ilości soków owocowych, zbyt małych ilości warzyw zawierających niewiele skrobi oraz orzechów i nasion.
      Nasze badania sugerują, że zła jakość węglowodanów w diecie to główna przyczyna rozwoju cukrzycy typu 2., mówi profesor Dariush Mozaffarian, jeden z głównych autorów badań.
      Naukowcy zauważyli, że we wszystkich 184 badanych krajach doszło w latach 1990–2018 do wzrostu zachorowań na cukrzycę typu 2. Ma to niekorzystny wpływ na całe społeczeństwo, od osób chorych, poprzez ich rodziny, po systemy opieki zdrowotnej.
      Analiza wykazała też, że zła dieta jest częściej przyczyną zachorowań na cukrzycę wśród mężczyzn niż kobiet, wśród osób młodszych niż starszych i wśród mieszkańców miast niż wsi. Największy wzrost zachorowań notuje się w Europie Środkowej i Wschodniej oraz Azji Centralnej. Niechlubne rekordy dzierżą tutaj Polska i Rosja, gdzie dieta pełna jest czerwonego mięsa, mięsa przetworzonego oraz ziemniaków. To właśnie w tych krajach zanotowano największy odsetek przypadków cukrzycy typu 2. powiązanych z nieprawidłową dietą. Drugim obszarem częstych zachorowań jest Ameryka Łacińska i Karaiby, szczególnie Kolumbia i Meksyk. Tam za zachorowania odpowiadają głównie słodzone napoje, przetworzone mięso oraz niskie spożycie pełnych ziaren.
      Regionami, w których dieta ma mały wpływ na cukrzycę typu 2. są kraje Azji Południowej i Afryki Subsaharyjskiej, a z 30 najbardziej zaludnionych krajów świata najmniej przypadków cukrzycy powiązanej z dietą występuje w Indiach, Nigerii i Etiopii.
      Z innych ostatnio publikowanych analiz podobnego typu dowiadujemy się, że zła dieta odpowiada za 40% przypadków cukrzycy typu 2. Autorzy nowych badań mówią, że różnica wynika z faktu, iż w swojej analizie jako pierwsi uwzględnili rafinowane ziarna, a ponadto wykorzystali nowsze dane pochodzące m.in. z badań zwyczajów dietetycznych poszczególnych osób, a nie tylko z danych na temat produkcji rolnej w różnych krajach.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...