Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polskie prawo nie jest dostosowane do realiów funkcjonowania sztucznej inteligencji

Recommended Posts

Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.

Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.

Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.

Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?

Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.

W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.

Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.

Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).

Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.

W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.

Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.

Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.

Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.

W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.

Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.

Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Polskie prawo może i nie jest dostosowane do działań SI, ale istnieją systemy SI dostosowane do polskiego prawa (i to gdzieś tak od przynajmniej 10 lat)...

Share this post


Link to post
Share on other sites
3 godziny temu, KopalniaWiedzy.pl napisał:

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg.

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa. Na razie to s-f, ale bardziej poważne niż te prawa intelektualne.

Share this post


Link to post
Share on other sites
W dniu 4.06.2019 o 15:51, mankomaniak napisał:

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa

 

No nie.

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka (fizyczne w przypadku płodu czy intelektualne w przypadku AI) to wykluczamy wszystko co jest inteligentne a ludzkie nigdy nie będzie (kruk, wieloryb, AI  czy niehumanoidalny Obcy) lub jest człowiekiem a "nie wygląda" (niegdyś czarny, neandertalczyk, kaleka, untermensch - ogólnie nie nasz,  obcy). Wymaga to zdefiniowania człowieczeństwa.

W świecie platońskich idei zygota to już człowiek a myślący grzyb czy ocean to osobowość - brat w rozumie.

Pomiędzy... jesteśmy my. Pytanie (retoryczne) do mamkomaniaka: kiedy zaczyna się człowiek? IMHO arbitralnie nie da się tego rozstrzygnąć. Dla niektórych człowiek jest tuż post coitum, dla innych wielu nie stanie się ludźmi nigdy i można/trzeba ich eksterminować.

Pytanie: czy można osądzać coś co ludzkie nie jest wg ludzkich praw. A jeśli nie, to jak takie prawo skonstruować - i chyba na tle tych rozterek powstal ten artykuł

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
17 godzin temu, Wheelmill napisał:

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka

Coś Ci się miesza kompletnie, osoba prawna to niemal zaprzeczenie człowieka, czyli osoby fizycznej. AI nie może mieć osobowości prawnej, bo to nie jest odrębny byt jak spółka. AI to dzieło człowieka tak jak każdy program komputerowy, podlega autorowi.

17 godzin temu, Wheelmill napisał:

Wymaga to zdefiniowania człowieczeństwa.

Nie wymaga żadnego zdefiniowania człowieczeństwa, wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

17 godzin temu, Wheelmill napisał:

W świecie platońskich idei zygota to już człowiek

To odwróćmy proces, sam szkielet to też człowiek, bo przecież kiedyś nim będzie. Po co sobie zawracać głowę takimi bzdurami.

Share this post


Link to post
Share on other sites
Posted (edited)
W dniu 8.06.2019 o 09:44, mankomaniak napisał:

wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

A kiedy AI cierpi? Czy program komputerowy symulujący np. w grze człowieka cierpi? Jest przerażony? Gdy będziesz podrzynał gardło postaci z gry, to będzie cierpiała?

https://www.youtube.com/watch?v=BQ3y6QXQE3M

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną. W przypadku AI na dzień dzisiejszy raczej nie (bo te dzisiejsze AI raczej "udają" inteligencję/świadomość niż ją mają, przynajmniej tak to "odczuwamy").

https://www.polsatnews.pl/wiadomosc/2019-06-02/celowo-przejechal-autem-psa-szuka-go-policja/

Jeśli chcesz jakichś "praw" dla AI/robotów to co będzie w sytuacji, gdy trzeba będzie wybrać między "prawami" robota a "prawami" zwierzęcia? Dopuszczalne jest zabić zwierzę, żeby AI "nie cierpiała"?

 

Edited by darekp
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
1 minutę temu, darekp napisał:

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną.

No niestety pomiędzy tym rozumowaniem a rzeczywistością istnieje sporo sprzeczności, wręcz hipokryzji. Czym ryba jest gorsza od psa czy kota? Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota? Nie, dlatego, że z psem czy kotem można się jeszcze porozumieć, a ze świnią, kurczakiem czy rybą już nie. Tak więc nie chodzi wcale o cierpienie, ale bycie "ludzkim". Pies, kot czy nawet nieudomowiony koń to zwierzęta bardziej ludzkie, przyjazne człoiekowi od wymienionych wcześniej. A więc wystarczy, że zachowują się jak przyjaciele i już nie można ich zabijać. Takie są fakty, ględzenie o cierpieniu łatwo obalić.

Tak więc wracając do robota, jeśli robot będzie zachowywał jak przyjaciel człowieka, to także powinien mieć swoje prawa, jak te zwierzęta, a to dlatego, że kryterium praw okazuje się - jak udowodniłem wyżej - nie to czy czuje czy cierpi, ale jak bardzo jest ludzki.

Share this post


Link to post
Share on other sites
Posted (edited)
13 minut temu, mankomaniak napisał:

Czym ryba jest gorsza od psa czy kota?

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

 

13 minut temu, mankomaniak napisał:

Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota?

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad. Psy są zjadane w wielu kulturach (m. in. Chińczycy, Indianie północnoamerykańscy), koty były potrawą narodową w Szwajcarii.

Po prostu biologia jest jaka jest i gdy człowiek potrzebuje mięsa (a trochę go potrzebuje), to sobie "odpuszcza" wątpliwości moralne (co do innych gatunków niż własny, przynajmniej współcześnie, bo dawniej różnie z tym bywało).

Po trzecie, powtórzę, jeśli AI nie cierpi/nie ma świadomości, a zwierzę cierpi, to bez względu na to jak AI jest "ludzka" wybór jest oczywisty.

Edited by darekp

Share this post


Link to post
Share on other sites
Posted (edited)
6 minut temu, darekp napisał:

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

A co to ma wspólnego z cierpieniem fizycznym? Przecież pisałeś

"W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną."

Więc teraz już nie chodzi o cierpienie, ale o wyższą świadomość? Zaplątałeś się coś, albo jesteś hipokrytą.

6 minut temu, darekp napisał:

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad.

A wyżej piszesz o niższej świadomości, czyli wyższej świadomości psa, kota, konia, która rzecz jasna oznacza właśnie to co "bardziej ludzkie". Czy Ty sam się czytasz? 

Edited by mankomaniak

Share this post


Link to post
Share on other sites
Posted (edited)

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia. tylko tyle (myślę, że wielu ludzi intuicyjnie to rozumie, ale cóż, "racjonalistom" najwyraźniej trzeba wszystko tłumaczyć. Dziwne, bo podobno uważają się za inteligentniejszych od reszty).

Edited by darekp

Share this post


Link to post
Share on other sites
Teraz, darekp napisał:

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia.

A to teraz przyjmujesz,a to już nie przyjmujecie? Nie ma consensu? A na jakiej podstawie przyjmujesz, że ryba mniej cierpi jak się ją kroi na żywca od tego psa na ulicy?

A tutaj ciekawe opracowanie na temat ryb: http://empatia.pl/blog/2015/09/02/ryby-czujace-i-inteligentne-istoty/

"Z kolei ścieżki sygnału płynącego z receptorów bólowych do mózgu i sama budowa mózgu ryby dowodzą, iż nie tylko są one zdolne do rozpoznawania i unikania bólu, ale także jego świadomego odczuwania, zapamiętywania i kojarzenia z konkretną sytuacją lub obiektem. Do tej pory sądzono, że ryby nie mają zdolności poznawczych, gdyż nie posiadają w mózgu rozwiniętej istoty szarej kory nowej (tzw. neocortex). Jednakże po dokładniejszych badaniach okazało się, że mózg ryb jest funkcjonalnie jakby „odwrócony na lewą stronę” w stosunku do naszego mózgu!    Mianowicie warstwy mózgu odpowiedzialne za odczuwanie, emocje i myślenie, są u ryb położone głębiej tj. poniżej istoty białej, w przeciwieństwie do innych grup kręgowców, u których warstwy o takiej funcji znajdują się na jej powierzchni. Ponadto funkcję kory nowej mogą być częściowo podejmowane przez inne partie mózgu ryby, podobnie, jak ma to miejsce u ludzi z uszkodzeniami mózgu. U ryb wykryto także obecność specjalnych włókien nerwowych i układu przypominającego nasz układ limbiczny, odpowiedzialnych za świadome odczuwanie, co potwierdzają też inne liczne badania neuroanatomiczne oraz behawioralne. Dlatego, ku zaskoczeniu badaczy, nie tylko trzeba pytać, czy ryby odczuwają ból, cierpienie i inne emocje, ale również czy są samoświadome. Jak dowodzą liczne prace przytoczone w książce pt. „Do fish feel pain” autorstwa V. Braithwaite, ryby odczuwają ból na równi lub nawet silniej, niż inne zwierzęta, do których żywimy więcej empatii – ssaki, w tym płody ludzkie i noworodki oraz ptaki."

To jak z tym konsensusem?

Share this post


Link to post
Share on other sites

Odchodzisz od tematu. Nie interesuje mnie rozstrzyganie, czy ryba cierpi mniej czy bardziej od psa/świni (bo i tak ostatecznie, gdy będzie potrzeba, żeby trafiły na talerz, to trafią), tylko jak chcesz rozstrzygnąć kwestię wyboru między "cierpieniem" robota a cierpieniem zwierzęcia (w sytuacji, gdy trzeba by wybrać między jednym a drugim). Twoje wcześniejsze wypowiedzi wyraźnie sugerują, że jeśli AI byłaby "bardziej ludzka" (cokolwiek przez to rozumiesz) a pozbawiona świadomości/zdolności odczuwania cierpienia itp. to uznałbyś ją za mającą więcej praw niż zwierzę.

Share this post


Link to post
Share on other sites
Posted (edited)

Nie odchodzę od tematu, wręcz przeciwnie, ty po prostu nie widzisz związku między tymi sprawami. Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością, Roboty sa konstruowane właśnie tak, by wykazywac empatię, a ich świadomość może być zbliżona do zwierząt, może i człowieka.

Edited by mankomaniak

Share this post


Link to post
Share on other sites
Posted (edited)

Proszę o w miarę ścisłe zdefiniowanie co rozumiesz przez "bycie bardziej ludzkim". Skoro sięgasz po przeprowadzanie jakichś dowodów (tak napisałeś powyżej: "Udowodniłem przecież, że..."), to chyba powinieneś wcześniej co nieco precyzyjnie zdefiniować, nieprawdaż?

Edited by darekp

Share this post


Link to post
Share on other sites

Cóż, z mojej strony pozostaję przy tym, co napisałem (a wcześniej napisał Wheelmill), że zachodzi potrzeba precyzyjniejszego zdefiniowania "człowieczeństwa".

Share this post


Link to post
Share on other sites
Posted (edited)
Godzinę temu, mankomaniak napisał:

Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

Nie udowodniłeś, tylko wyraziłeś swoja opinię.

Godzinę temu, mankomaniak napisał:

w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe. Koty i psy mają trochę inne prawa, ze względu na ich niekonsumpcyjność w naszym kręgu kulturowym, ponieważ:

Godzinę temu, mankomaniak napisał:

 bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

i tu masz rację. U AI to będzie tylko symulacja.

Edited by 3grosze

Share this post


Link to post
Share on other sites
40 minut temu, 3grosze napisał:

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe.

Ale tu nie chodzi o sposób zabijania, tylko sam fakt zabijania dla mięsa. Tu chodzi o prawo do życia zwierzęcia.

 

41 minut temu, 3grosze napisał:

U AI to będzie tylko symulacja.

Człowiek także potrafi symulować. Np. chorzy na nerwicę często odczuwają ból w brzuchu na jakąś myśl. Mało tego, wystarczy często, że tylko pomyślą o bólu brzucha i zaczynają odczuwac realny ból. Ale jak sprawdzisz to, że naprawdę odczuwają? Może i są jakieś metody komputerowe, które pozwalają obiektywnie to wykryć. Tylko że to będzie wykrycie jakiegoś tam pobudzenia hormonów czy neuronów. Jeśli uznamy, że ból to wszelkie podrażnienie, które pogarsza funkcjonowanie organizmu, to można tak zaprogramować robota / androida / replikanta, czy po prostu cyborga, aby wszelkie podrażnienie jego organizmu traktować jak coś nieprzyjemnego i w związku z tym aby wykazywał cały szereg emocji - zmarszczenie twarzy, wydawał określone dźwięki, w przypadku uświadomienia, że człowiek chce zniszczyć, próba ratunku albo błaganie o litość. Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

P.S. Wkrótce można będzie tak zaprogramować robota, aby zoptymalizował swoje zachowanie wobec człowieka w określonym celu: program - 1: stań się przyjacielem. Będzie się tak zachowywał jak najlepszy przyjaciel człowieka. Człowiek pokocha go jak psa. Program 2 - stań się kochankiem. Będzie optymalnie uwodził daną płeć, tak że kobieta / mężczyzna zakocha się w nim. Program 3 - bądź wrogiem... itd.

Share this post


Link to post
Share on other sites
Posted (edited)
2 godziny temu, mankomaniak napisał:

Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

Proszę o dowód, mądrzejsi od Ciebie i mnie uważają to za rzecz dyskusyjną:

https://pl.wikipedia.org/wiki/Test_Turinga

https://pl.wikipedia.org/wiki/Chiński_pokój

https://merlin.pl/nowy-umysl-cesarza-o-komputerach-umysle-i-prawach-fizyki-roger-penrose/1298305/

 

2 godziny temu, mankomaniak napisał:

Wkrótce można będzie tak zaprogramować robota,

Tak, tak, wiem wiem, przy okazji bardzo się cieszę, że ludzie od kilkunastu lat latają na Marsa i księżyce Jowisza, bo tak przewidywali jakiś czas temu różni zapewne "racjonaliści": https://pl.wikipedia.org/wiki/2001:_Odyseja_kosmiczna_(film)

Edited by darekp

Share this post


Link to post
Share on other sites
4 godziny temu, darekp napisał:

Łatwo obalić ten cały chiński pokój. Np. gdyby ludzie jak ty rozumieli co ja piszę, to nie kłóciliby się ze mną, tylko potwierdzali, że mam rację. Dopiero po wielu odpowiedziach interlokutor dochodzi do wniosku, że się mylił, ale do tego oczywiście się nie przyzna, więc zaczyna coś w stylu "takie mam zdanie, opinię i koniec" albo zaczyna zmieniać temat i wymyslać jakieś argumenty, które dotyczą czego innego.Albo przestaje odpowiadać, bo nie wie co odpowiedzieć. Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn. Test mankomaniaka udowadnia, że człowiek też nie rozumie co się do niego mówi. Czyli niczym nie różni się od robota. 

 

4 godziny temu, darekp napisał:

Gdybyś miał więcej wiedzy na ten temat, wiedziałbyś, że wyśmiano Penrose'a , że chciał udowodnić niemechaniczność świadomości poprzez twierdzenie Godela, które niczego takiego nie dowodzi. Jest trochę polskich prac na ten temat (np. Krajewski: Twierdzenie Gödla i jego interpretacje filozoficzne; Sochaciński: Twierdzenie Gödla a spór o mechanicyzm).

Share this post


Link to post
Share on other sites
Posted (edited)
52 minuty temu, mankomaniak napisał:

Łatwo obalić ten cały chiński pokój.

Tak samo jak i eksperymenty myślowe mające udowodnić tezę przeciwną. Bo i jedno i drugie to są tylko spekulacje myślowe wychodzące poza zakres naszej wiedzy (naukowej).

52 minuty temu, mankomaniak napisał:

Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn.

Wydaje mi się, że zawsze jest tak, że w pewnym momencie dochodzi się do założeń nieweryfikowalnych wiedzą naukową i wtedy zostaje powiedzieć "takie mam zdanie, opinię i koniec". Gdzie nie ma wiedzy, pozostaje tylko "opinia" (i ew. sterczący gdzieś niedaleko niej "koniec";)). To co opisujesz, mówi raczej coś ciekawego o stanie Twojego umysłu.

52 minuty temu, mankomaniak napisał:

wiedziałbyś, że wyśmiano Penrose'a 

W historii wyśmiewano różnych ludzi, nie zawsze zasadnie. Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję, niż panowie Krajewski & Sochaciński. Ale to tylko moje wrażenie (plus "koniec"), kto inny może mieć inne (i swój "koniec").

Tak czy siak, żadnego dowodu nie podałeś.

Edited by darekp

Share this post


Link to post
Share on other sites
26 minut temu, darekp napisał:

Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję

No właśnie problem polega na tym, że do świata fizycznego używa argumentów metamatematycznych. Zresztą gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii. No ale co sam autor twierdzenia może wiedzieć o nim? Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Share this post


Link to post
Share on other sites
Posted (edited)
17 minut temu, mankomaniak napisał:

gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii.

Bez czytania Sochacińskiego (btw Google mi podpowiada, że to Cichociński, nie Sochaciński) jestem IMHO całkiem nieźle świadomy, że Goedel był "daleki od uznania" itd. itd. 

17 minut temu, mankomaniak napisał:

Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką (tak go odbieram), że tak ważnej rzeczy jak świadomość nie można zostawić na zawsze jako jakiś niefizyczny byt. Czyli że warto się pochylić nad przypuszczeniem, że nasza dzisiejsza fizyka po prostu jest "za biedna", że nie odkryliśmy jeszcze jakichś praw fizycznych, które mówią coś istotnego o funkcjonowaniu świadomości. Niezależnie od tego, że na dzień dzisiejszy to nie jest przypuszczenie konstruktywne.

Edited by darekp

Share this post


Link to post
Share on other sites
Godzinę temu, darekp napisał:

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką

Przyznam się, że nie śledzę wypowiedzi co bardziej bystrzejszych bo mam pewien problem, nazwijmy to techniczny.

Duża część z nich wypowiadało się kiedy mało wiedzieliśmy o działaniu mózgu, następnie mało wiedzą jak działają współczesne AI, część to po prostu nazwijmy ich filozofowie którzy szukają "magii człowieczeństwa" .

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Jednak, to o czym traktuje artykuł jest bliżej nas niż świadomość.
Jak słusznie zauważono, to trochę ściąganie odpowiedzialności z twórców, tak jak osoba prawna odpowiada za "swoje" działania, i schodzi bezpośrednia odpowiedzialność z ludzi.
Czy jeżeli dotrzymałem wszelkich norm, jeśli chodzi o np. budowę samolotu i jego systemów i samolot mimo wszystko się zepsuł na skutek sytuacji której nikt wcześniej nie przewidział(i spadł) to czy firma odpowiada za to czy to już zdarzenie losowe?  CZy jeżeli dodamy to zdarzenie do norm, i wszyscy muszą się ich trzymać to już ok?

I tutaj to samo, czy jeżleli mam autonomiczny samochód i dotrzymałem wszelkich standardów (Ale ich nie ma chyba?) to jest ok?

Z Twórczością nie rozumiem problemu, dla mnie sztuczna sieć neuronowa którą sobie wytrenowałem która stworzyła utwór nie różni się niczym od syntezatora na którym coś zagrałem.  I w tę stronę chyba to na razie idzie. To nie jest sobie jakiś byt który sam sobie tworzy i jest tego właścicielem. Na ten moment to jest zwykły młotek i to wszystko. 

I na ten moment to są nasze realne problemy, bez istnienia świadomości sztucznej lub nie, zwał jak zwał.

 

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites
11 godzin temu, Afordancja napisał:

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Całkowita zgoda. Panuje tu duże nieporozumienie. Nagminne jest utożsamianie inteligencji ze świadomością przez profanów oraz odmawianie inteligencji ANN przez profesjonalistów bo przecież mnożenie z dodawaniem nie może dać inteligencji. Tymczasem prosty klasyfikator odróżniający kota od psa jest inteligentny. Jego IQ nie powala, ale prezentuje elementarną inteligencję. Złożenie takich klasyfikatorów może już całkiem udatnie naśladować mądrość, wygrywać w szachy lub Go czy prowadzić samochód. To, że nie ma w tym magii, nie znaczy że nie jest inteligentne. 

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Dziesięć orłów przednich opuści tego lata gniazda w polskiej części Karpat. Tegoroczne lęgi można uznać za udane. Wychowało się znacznie więcej orłów niż przed rokiem – powiedział w czwartek PAP dr Marian Stój z Komitetu Ochrony Orłów.
      Młode orły z gniazd powinny wylecieć w drugiej połowie lipca. W ubiegłym roku w Karpatach gniazda opuściło tylko trzy orły. Natomiast rok wcześniej aż 16 osobników.
      W tym roku pogoda sprzyjała wysiadywaniu i wychowywaniu potomstwa. Nie było gwałtownych opadów deszczu, ani trwających przez wiele dni ochłodzeń – ocenił w rozmowie z PAP ornitolog.
      Orły przednie składają dwa lub jedno jajo w trzeciej dekadzie marca, wysiadywania trwa ok. 40 dni. W zdecydowanej większości przypadków odchowują tylko jedno pisklę; jeśli wykluje się dwa, to silniejsze z nich eliminuje słabszego osobnika. Rodzice nie ingerują w rywalizację potomstwa – zaznaczył dr Stój.
      W Polsce żyje ok. 35 par orłów przednich, najwięcej – ponad 30 par – w Karpatach, a przede wszystkim w Górach Sanocko-Turczańskich, Bieszczadach i Beskidzie Niskim. Poza Karpatami można je spotkać - choć zdecydowanie rzadziej – na Wybrzeżu Bałtyckim np. w Słowińskim Parku Narodowym oraz na Mazurach.
      Gniazda orłów przednich znajdują się w miejscach trudno dostępnych; w koronach wysokich drzew lub na półkach skalnych.
      Długość jego ciała przekracza 80 cm, a rozpiętość skrzydeł wynosi dwa metry.
      Żywi się głównie ssakami i ptakami. Poluje m.in. na zające, młode sarny, lisy, kuny, łasice, gronostaje, gryzonie, sowy, kruki, myszołowy. Czasami może też upolować kota domowego lub kurę. Orły przednie nie gardzą padliną. Jego ofiarami bywają również żmije i zaskrońce. Pikując w locie, ptaki osiągają prędkość do 160 km/godz.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Im więcej pieniędzy jest w zgubionym portfelu, z tym większym prawdopodobieństwem znalazca odda go właścicielowi – takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetów w Zurichu, Michigan i Utah.
      Klasyczne modele ekonomiczne przewidują, że przeciętny znalazca portfela zachowa go dla siebie, a im większa kwota pieniędzy, a więc im większa nagroda za nieoddanie portfela, tym mniejsze prawdopodobieństwo, że zguba zostanie zwrócona.
      Jednak najnowsze badania przeczą temu założeniu. Zostały one przeprowadzone w 355 miastach w 40 krajach. Badacze, którzy chcieli sprawdzić, co powoduje, że ludzie zwracają znaleziony portfel, pozostawili ponad 17 000 portfeli w takich miejscach jak recepcje banków, hoteli, muzeów, urządów pocztowych itp.
      Gdy znajdujemy zgubiony portfel mamy do rozstrzygnięcia pewien dylemat. Z jednej strony kusi nas perspektywa zatrzymania pieniędzy, z drugiej włącza się altruistyczne myślenie o sytuacji człowieka, który portfel zgubił, z trzeciej zaś musimy rozważyć coś, co specjaliści nazywają "psychologicznym kosztem nieuczciwego zachowania się". Ten ostatni czynnik ma związek z faktem, że zatrzymanie zgubionego portfela jest zwykle postrzegane jako kradzież i znalazca, musi sobie z tym faktem poradzić i włączyć go do swojego własnego obrazu.
      Naukowcom udało się wykazać, że troska o swój własny obraz powoduje, że ludzie zwracają portfele. Ludzie chcą postrzegać samych siebie jako uczciwych, nie jak złodziei. Zatrzymanie portfela oznacza, że musimy ponieść koszt psychologiczny związany z własnym wizerunkiem, mówi profesor Michel Marechal z Uniwersytetu w Zurichu. Co interesujące, im więce pieniędzy w portfelu, z tym większym prawdopodobieństwem nieoddanie zguby jest postrzegane jako kradzież, zatem zatrzymanie sobie portfela z dużą kwotą wiąże się z większym obciążeniem psychologicznym.
      Portfele, które wykorzystano podczas eksperymentu, zawierały wizytówkę, listę zakupów, klucz oraz różna suma pieniędzy. Klucz ma wartość jedynie dla właściciela, nie dla znalazcy. Dlatego też, by zbadać wpływ czynnika altruizmu, w części portfeli nie było klucza. Okazało się wówczas, że portfele zawierające pieniądze, ale niezawierające klucza, były rzadziej zwracane, niż portfele zawierające  klucz i taką samą ilość pieniędzy. Na tej podstawie naukowcy stwierdzili, że altruizm jest drugim, chociaż mniej ważnym, czynnikiem, dla którego portfele są zwracane. Pierwszy jest wspomniana już chęć zachowania dobrego mniemania o sobie.
      Profesor Adam Cohn z University of Michigan, wyjaśniając różnice, pomiędzy przypuszczeniami teorii ekonomicznych, a rzeczywistością stwierdził: "fałszywie zakładaliśmy, że ludzie są samolubni. Jednak w rzeczywistości własny obraz siebie jako osoby uczciwej jest dla ludzi ważniejszy niż krótkoterminowa korzyść ze znalezionych pieniędzy".
      Badania wykazały również, że Polacy są jednymi z najuczciwszych narodów na świecie, a ponadto – w przeciwieństwie do niemal wszystkich innych badanych społeczeństw – niemal równie często zwracają portfel zawierający pieniądze, jak portfel bez pieniędzy.
      W pierwszym kwartylu najbardziej uczciwych społeczeństw znaleźli się, w takiej właśnie kolejności, Szwajcarzy, Norwegowie, Holendrzy, Duńczycy, Szwedzi, Polacy, Czesi, Nowozelandczycy, Niemcy i Francuzi. W drugim kwartylu uplasowali się Serbowie, Australijczycy, Chorwaci, Hiszpanie, Rosjanie, Rumuni, Kanadyjczycy, Argentyńczycy, Izraelczycy, Portugalczycy. Trzeci kwartyl to Amerykanie, Brytyjczycy, Grecy, Włosi, Chilijczycy, Brazylijczycy, mieszkańcy RPA, Tajowie, Meksykanie i mieszkańcy Indii. Najgorzej wypadli mieszkańcy Turcji, Ghany, Indonezji, Zjednoczonych Emiratów Arabskich, Malezji, Kenii, Kazachstanu, Peru, Maroko i Chin.
      W każdym z badanych państw umieszczono w „zgubionych portfelach” kwotę  odpowiednią do siły nabywczej lokalnej pensji. W Polsce w eksperymencie z pieniędzmi było to 25 złotych, w eksperymencie z dużą kwotą pieniędzy było to 175 pln. W Polsce eksperyment prowadzono w Białymstoku, Bydgoszczy, Bytomiu, Częstochowie, Gdańsku, Gdyni, Gliwicach, Katowicach, Kielcach, Krakowie, Łodzi, Lublinie, Opolu, Poznaniu, Radomiu, Sosnowcu, Szczecinie, Toruniu, Warszawie i Wrocławiu. W miastach tych „zgubiono” w sumie 800 portfeli. Więcej (odpowiednio 802, 1132 i 1000) „zgubiono” jedynie we Francji, Wielkiej Brytanii i USA. Polski eksperyment był więc zakrojony na bardzo szeroką skalę.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pet-Commerce to internetowy sklep brazylijskiej sieci Petz, w którym dzięki połączeniu technologii rozpoznawania twarzy oraz sztucznej inteligencji pies może kupić swoje ulubione produkty. Wystarczy ustawić kamerę internetową na pysk zwierzęcia. Gdy tylko AI wykryje produkt, który podczas przewijania strony wywołał u psa duże zainteresowanie, zostaje on automatycznie dodany do koszyka.
      By Pet-Commerce powstał, agencja reklamowa Ogilvy Brazil nawiązała współpracę z trenerem psów Leonardem Ogatą. To on "oświecił" wszystkich w kwestii wyrazów pyska różnych ras i ich znaczenia. Sztucznej inteligencji zaprezentowano tysiące zdjęć psów, tak by mogła się nauczyć lepiej wykrywać szczególiki związane z wyrażaniem zainteresowania przez psy.
      Stroną produkcyjno-techniczną przedsięwzięcia zajęły się firmy D2G Tecnologia i Hogarth.
      Produkty z witryny pogrupowano w 3 kategorie: kości, zabawki, piłki. Gdy człowiek klika na dany obiekt, wyświetlają się filmy. Tło jest żółte bądź niebieskie, bo wg Ogaty, to kolory, które psy najlepiej widzą. Poziom zainteresowania psa jest prezentowany za pomocą ikonek w kształcie kości.
      Witryna przekazuje też ludziom zalecenia, co zrobić, by czworonogowi jak najłatwiej było robić zakupy. Po pierwsze, należy włączyć dźwięk, bo to ważny dla psów zmysł. [Poza tym] pies musi być zrelaksowany, w zabawowym nastroju. Nie należy go podnosić bądź podtrzymywać głowy, bo to może drażnić. Wystarczy nakierować kamerę internetową na jego pysk [...].
      Zakup jest dokonywany po potwierdzeniu przez właściciela i wprowadzeniu niezbędnych danych. Na razie Pet-Commerce jest tylko dla psów, ale być może pewnego dnia projekt obejmie też np. koty.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nadciśnienie tętnicze może mieć nawet 17 mln Polaków, jeśli przyjmiemy obowiązujące od 2017 r. normy amerykańskie – przekonywali w środę specjaliści podczas konferencji prasowej w Warszawie. Polscy hipertensjolodzy zaproponowali nowe wytyczne leczenia nadciśnienia.
      Według przedstawionych na spotkaniu z dziennikarzami danych, w Polsce nadciśnienie tętnicze ma 14 mln Polaków w wieku 19-99 lat. Wskazuje na to Wieloośrodkowe Ogólnopolskie Badanie Stanu Zdrowia Ludności WOBASZ II z 2014 r. Wszystko zależy jednak, jakie przyjmuje się kryteria nadciśnienia tętniczego krwi – twierdzą hipertensjolodzy (lekarze specjalizujący się w leczeniu nadciśnienia).
      Jeśli przyjmiemy normy amerykańskie, jakie obowiązują od listopada 2017 r., w naszym kraju zbyt wysokie ciśnienie tętnicze krwi może mieć nawet 17 mln osób – powiedział prezes Polskiego Towarzystwa Nadciśnienia Tętniczego prof. Krzysztof J. Filipiak.
      Według Amerykańskiego Towarzystwa Kardiologicznego (AHA) prawidłowo ciśnienie tętnicze krwi nie powinno przekraczać 130/80 mmHg. W Europie za prawidłowe uznaje się wciąż ciśnienie nieprzekraczające 140/90 mmHg i przy takim kryterium w Polsce jest 14 mln osób z nadciśnieniem.
      Rektor Uniwersytetu Medycznego w Poznaniu, były prezes Polskiego Towarzystwa Nadciśnienia Tętniczego, prof. Andrzej Tykarski powiedział, że najnowsze polskie wytyczne uwzględniają normy amerykańskie, jeśli chodzi o leczenie nadciśnienia tętniczego.
      Za prawidłowe, podobnie jak w innych krajach europejskich, uznajemy wartość ciśnienia 140/90 mmHg, ale zalecamy, żeby u osób do 65. roku życia obniżać je lekami tak, by nie przekraczało 130/80 mmHg - wyjaśniał. Jedynie u osób starszych, które ukończyły 65 lat, można w terapii ograniczyć się do wartości 140/90 mmHg.
      Specjalista podkreślił, że według nowych proponowanych przez PTNT zaleceń, leczenie nadciśnienia powinno być bardziej intensywne niż dotychczas. Oznacza to zmianę filozofii terapii – dodał. Wynika ona z tego, że uzyskanie niższego ciśnienia niż dotąd zalecano pozwoli zwiększyć skuteczność leczenia tej dolegliwości i ochronić więcej osób przed jej groźnymi powikłaniami, głównie takimi jak zawał serca i udar mózgu.
      Sekretarz Zarządu Głównego Polskiego Towarzystwa Nadciśnienia Tętniczego dr. hab. n. med. Filip Szymański przypomniał, że nadciśnienie może doprowadzić do wielu innych schorzeń. Poza chorobami sercowo-naczyniowymi może ono spowodować tętniaki aorty i tętnic mózgowych, rozwarstwienie aorty, a także przewlekłą niewydolność nerek oraz uszkodzenia wzroku – wyliczał.
      W Polsce skuteczność leczenia nadciśnienia tętniczego wciąż jest niewystarczająca – alarmowali specjaliści PTNT. Z omawianego podczas spotkania badania WOBASZ II wynika, że leczy się 46,1 proc. chorych z nadciśnieniem, a właściwą kontrolę ciśnienia uzyskuje się jedynie u 23 proc. pacjentów.
      Nie wynika to z tego, że źle leczymy – wyjaśniał prof. Tykarski. Jego zdaniem wiele osób wciąż nie wie, że ma nadciśnienie tętnicze krwi, a inni wiedzą o tym, ale nie zgłaszają się do lekarza i nie podejmują leczenia. Zdecydowana większość pacjentów z tą dolegliwością - przyznali specjaliści – może się leczyć u lekarza podstawowej opieki zdrowotnej. Jedynie 0,5 mln chorych wymaga opieki hipertensjologa.
      Eksperci przekonywali, że do większej skuteczności leczenia nadciśnienia tętniczego mogłoby się przyczynić większe wykorzystanie w naszym kraju tzw. polipigułek, zawierających w jednej tabletce kilka leków, najczęściej dwa lub trzy. Pacjenci chętniej zażywają jedną pigułkę niż dwie lub trzy, duża liczna leków bardziej zniechęca do terapii, szczególnie na początku leczenia – powiedział prof. Filipiak.
      Z informacji przekazanych podczas konferencji prasowej przez hipertensjologów wynika, że w naszym kraju są refundowane tylko niektóre polipigułki w leczeniu nadciśnienia, a powinno być ich znacznie więcej, aby lepiej dopasować je do poszczególnych chorych. Takie leki złożone są droższe, ale w dłuższym okresie stosowania są jednak bardziej opłacalne, bo pozwalają lepiej w dłuższym kontrolować ciśnienie tętnicze pacjenta. W sumie są zatem bardziej opłacalne i warto w nie zainwestować – przekonywał.
      Według prof. Tykarskiego, w naszym kraju zaledwie 8-12 proc. pacjentów stosuje polipigułki w leczeniu nadciśnienia, mniej niż w innych krajach. W Portugalii zażywa je prawie połowa pacjentów z nadciśnieniem, ale kontrolę ciśnienia uzyskano tam u 60 proc. osób z tą dolegliwością – dodał.
      Dr hab. Filip Szymański podkreślił, że w leczeniu nadciśnienia tętniczego bardzo ważna jest zmiana stylu życia, głównie zapobieganie otyłości, zwiększenie aktywności fizycznej oraz ograniczenie spożycia soli. Światowa Organizacja Zdrowia (WHO) zaleca, żeby być aktywnym fizycznie przez co najmniej 150 minut tygodniowo (np. 30 minut pięć razy w tygodniu).
      Taka aktywność jest jednak zbyt mała. W nowych zaleceniach sugeruje się, żeby być aktywnym przez 300 minut tygodniowo – powiedział prof. Tykarski. Specjaliści Polskiego Towarzystwa Nadciśnienia Tętniczego zalecają głównie spacery, pływanie oraz jazdę na rowerze.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja pomaga w diagnozowaniu stresu pourazowego (PTSD) u weteranów, analizując ich głos. W najnowszym numerze pisma Depression and Anxiety doniesiono, że opracowany na Uniwersytecie Nowojorskim (NYU) system sztucznej inteligencji potrafi z 89-procentową trafnością odróżnić osoby z PTSD od osób zdrowych.
      Wyniki naszych badań wskazują, że cechy charakterystyczne mowy mogą zostać wykorzystane do zdiagnozowania choroby. Chcemy by w najbliższej przyszłości nasz system, po jego udoskonaleniu i uzyskaniu odpowiednich zgód, trafił do codziennej praktyki klinicznej, mówi jeden z głównych autorów badań, dziekan Wydziału Psychiatrii, profesor Charles R. Marmar.
      Szacuje się, że ponad 70% dorosłych doświadcza w jakimś momencie życia traumy, a odsetek osób z PTSD jest w niektórych krajach szacowany nawet na 12% dorosłej populacji. Osoby cierpiące na zespół stresu pourazowego doświadczają, gdy zetką się z bodźcem przypominającym o traumie, silnego trwałego stresu.
      PTSD diagnozuje się podczas wywiadu klinicznego, jednak jest to metoda podatna na błędy. Dlatego też specjaliści od dawna poszukują obiektywnego fizycznego markera PTSD. Jego znalezienie nie jest jednak łatwe.
      Autorzy najnowszych badań stworzyli algorytm wykorzystujący metodę nauczania random forest, która pozwala klasyfikować np. osoby na podstawie dostępnych przykładów. W ten sposób, działając najpierw na treningowej bazie danych, sztuczna inteligencja udoskonala swoje modele i metody podejmowania decyzji.
      Najpierw naukowcy nagrali standardowy wielogodzinny wywiad diagnostyczny CAPS (Clinician-Administered PTSD Scale). Zarejestrowano wywiady z 53 weteranami z Iraku i Afganistanu, u których stwierdzono PTSD oraz z 78 weteranami, u których choroba nie występowała. Następnie materiał dźwiękowy został przetworzony przez oprogramowanie firmy SRI International, tej samej, która opracowała apple'owską Siri, a program wyodrębnił z nagrań 40 526 cech, które następnie były analizowane pod kątem występowania wzorców.
      Sztuczna inteligencja była w stanie powiązać poszczególne cechy z PTSD. Były wśród nich na przykład mniej wyraźna mowa czy pozbawiony życia metaliczny ton głosu. Wcześniej wiedziano o tych dwóch cechach, ale były one jedynie anegdotycznie uznawane za pomocne w diagnostyce. Diagnoza PTSD na podstawie głosu może o tyle mieć uzasadnienie, że teoria dotycząca przyczyn zespołu stresu pourazowego mówi, iż traumatyczne wydarzenia zmieniają połączenia między neuronami odpowiedzialnymi za przetwarzanie emocji i oraz za napięcie mięśniowe, co może wpływać na sposób artykulacji.
      Mowa jest atrakcyjnym kandydatem dla automatycznego systemu diagnostycznego, gdyż może być ona mierzona i badana w sposób tani, nieinwazyjny i zdalny, mówi główny autor badań, profesor Adam D. Brown. Możliwości analizy głosu stosowane w obecnych badaniach nad PTSD pokrywają się z możliwościami naszem platformy analitycznej SenSay Analytics. Oprogramowanie to analizuje słowa, częstotliwość, rytm, ton oraz cechy charakterystyczne artykulacji i na tej podstawie wyciąga wnioski co do stanu mówiącego, w tym co do jego stanu emocjonalnego, uczuciowego, poznawczego, zdrowotnego, zdrowia psychicznego i zdolności komunikacyjnych, dodaje Dimitra Vergyri z SRI International.

      « powrót do artykułu
×
×
  • Create New...