Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polskie prawo nie jest dostosowane do realiów funkcjonowania sztucznej inteligencji

Rekomendowane odpowiedzi

Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.

Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.

Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.

Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?

Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.

W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.

Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.

Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).

Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.

W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.

Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.

Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.

Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.

W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.

Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.

Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Polskie prawo może i nie jest dostosowane do działań SI, ale istnieją systemy SI dostosowane do polskiego prawa (i to gdzieś tak od przynajmniej 10 lat)...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, KopalniaWiedzy.pl napisał:

W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg.

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa. Na razie to s-f, ale bardziej poważne niż te prawa intelektualne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 4.06.2019 o 15:51, mankomaniak napisał:

W ocenie których ekspertów? Bo każdy komputer liczy szybciej od mózgu człowieka. Zdanie błędne albo bardzo nie precyzyjne. Bo liczenie to jedno z działań.

Generalnie ten artykuł to sztuczny problem. Bo AI należy traktować normalnie jak pracownika, który wykonuje obowiązki, np. w postaci pośredniczenia pomiędzy firmą a klientem. Tak jest z tymi umowami. Tak jest też z samochodami. I tak samo jest z dobrami intelektualnymi. Pracownik wykonuje utwór dla pracodawcy, więc oczywiste, że to własność intelektualna pracodawcy, nie pracownika.

O wiele ciekawsze zagadnienie to prawa robota. Czy cyborg, biologiczny robot, który wykazuje sztuczne uczucia i wyraża emocje, powinien mieć jakiekolwiek prawa? Skoro zwierzęta mają prawa, to dlaczego humanoidy / androidy / replikanci nie mają mieć swoich praw? Moim zdaniem to problem podobny do okresu pozwolenia na aborcję. Zapłodnione jajeczka i zarodek nie są człowiekiem, zatem jasne jest, że aborcja w tym okresie powinna być dozwolona. Ale z czasem, gdy zaczyna się płód,, zaczyna się trudniej, szczególnie gdy zaczyna przypominać człowieka. Idąc tym samym tropem, jeśli cyborg będzie "zbyt ludzki", powinien zapewne mieć swoje prawa

 

No nie.

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka (fizyczne w przypadku płodu czy intelektualne w przypadku AI) to wykluczamy wszystko co jest inteligentne a ludzkie nigdy nie będzie (kruk, wieloryb, AI  czy niehumanoidalny Obcy) lub jest człowiekiem a "nie wygląda" (niegdyś czarny, neandertalczyk, kaleka, untermensch - ogólnie nie nasz,  obcy). Wymaga to zdefiniowania człowieczeństwa.

W świecie platońskich idei zygota to już człowiek a myślący grzyb czy ocean to osobowość - brat w rozumie.

Pomiędzy... jesteśmy my. Pytanie (retoryczne) do mamkomaniaka: kiedy zaczyna się człowiek? IMHO arbitralnie nie da się tego rozstrzygnąć. Dla niektórych człowiek jest tuż post coitum, dla innych wielu nie stanie się ludźmi nigdy i można/trzeba ich eksterminować.

Pytanie: czy można osądzać coś co ludzkie nie jest wg ludzkich praw. A jeśli nie, to jak takie prawo skonstruować - i chyba na tle tych rozterek powstal ten artykuł

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, Wheelmill napisał:

Jeśli kryterium przyznania osobowości prawnej ma być podobieństwo do człowieka

Coś Ci się miesza kompletnie, osoba prawna to niemal zaprzeczenie człowieka, czyli osoby fizycznej. AI nie może mieć osobowości prawnej, bo to nie jest odrębny byt jak spółka. AI to dzieło człowieka tak jak każdy program komputerowy, podlega autorowi.

17 godzin temu, Wheelmill napisał:

Wymaga to zdefiniowania człowieczeństwa.

Nie wymaga żadnego zdefiniowania człowieczeństwa, wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

17 godzin temu, Wheelmill napisał:

W świecie platońskich idei zygota to już człowiek

To odwróćmy proces, sam szkielet to też człowiek, bo przecież kiedyś nim będzie. Po co sobie zawracać głowę takimi bzdurami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.06.2019 o 09:44, mankomaniak napisał:

wyraźnie porównałem AI czy robota do zwierzęcia, które ma swoje prawa. Niestety nie wszystkie zwierzęta mają prawa, psa nie mogę zabić, ale już rybę tak. Ciekawe prawda? Wydaje mi się, że ryba też cierpi i się boi, jak się łapie, a następnie kroi na kawałki.

A kiedy AI cierpi? Czy program komputerowy symulujący np. w grze człowieka cierpi? Jest przerażony? Gdy będziesz podrzynał gardło postaci z gry, to będzie cierpiała?

https://www.youtube.com/watch?v=BQ3y6QXQE3M

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną. W przypadku AI na dzień dzisiejszy raczej nie (bo te dzisiejsze AI raczej "udają" inteligencję/świadomość niż ją mają, przynajmniej tak to "odczuwamy").

https://www.polsatnews.pl/wiadomosc/2019-06-02/celowo-przejechal-autem-psa-szuka-go-policja/

Jeśli chcesz jakichś "praw" dla AI/robotów to co będzie w sytuacji, gdy trzeba będzie wybrać między "prawami" robota a "prawami" zwierzęcia? Dopuszczalne jest zabić zwierzę, żeby AI "nie cierpiała"?

 

Edytowane przez darekp
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, darekp napisał:

W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną.

No niestety pomiędzy tym rozumowaniem a rzeczywistością istnieje sporo sprzeczności, wręcz hipokryzji. Czym ryba jest gorsza od psa czy kota? Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota? Nie, dlatego, że z psem czy kotem można się jeszcze porozumieć, a ze świnią, kurczakiem czy rybą już nie. Tak więc nie chodzi wcale o cierpienie, ale bycie "ludzkim". Pies, kot czy nawet nieudomowiony koń to zwierzęta bardziej ludzkie, przyjazne człoiekowi od wymienionych wcześniej. A więc wystarczy, że zachowują się jak przyjaciele i już nie można ich zabijać. Takie są fakty, ględzenie o cierpieniu łatwo obalić.

Tak więc wracając do robota, jeśli robot będzie zachowywał jak przyjaciel człowieka, to także powinien mieć swoje prawa, jak te zwierzęta, a to dlatego, że kryterium praw okazuje się - jak udowodniłem wyżej - nie to czy czuje czy cierpi, ale jak bardzo jest ludzki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, mankomaniak napisał:

Czym ryba jest gorsza od psa czy kota?

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

 

13 minut temu, mankomaniak napisał:

Albo dlaczego świnie i kurczaki można zarzynać? Bo ich mięsko lepiej smakuje od psa czy kota?

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad. Psy są zjadane w wielu kulturach (m. in. Chińczycy, Indianie północnoamerykańscy), koty były potrawą narodową w Szwajcarii.

Po prostu biologia jest jaka jest i gdy człowiek potrzebuje mięsa (a trochę go potrzebuje), to sobie "odpuszcza" wątpliwości moralne (co do innych gatunków niż własny, przynajmniej współcześnie, bo dawniej różnie z tym bywało).

Po trzecie, powtórzę, jeśli AI nie cierpi/nie ma świadomości, a zwierzę cierpi, to bez względu na to jak AI jest "ludzka" wybór jest oczywisty.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, darekp napisał:

Wydaje nam się (i pewnie to prawda), że ryba ma niższy poziom świadomości, niż pies.

A co to ma wspólnego z cierpieniem fizycznym? Przecież pisałeś

"W przypadku zwierząt wierzymy (i jest co do tego pewien consensus), że cierpią. Dlatego przyznajemy im ochronę prawną."

Więc teraz już nie chodzi o cierpienie, ale o wyższą świadomość? Zaplątałeś się coś, albo jesteś hipokrytą.

6 minut temu, darekp napisał:

Nie widzę związku między zezwoleniem na zabijanie w celach konsumpcyjnych a "byciem bardziej ludzkim" kandydata na obiad.

A wyżej piszesz o niższej świadomości, czyli wyższej świadomości psa, kota, konia, która rzecz jasna oznacza właśnie to co "bardziej ludzkie". Czy Ty sam się czytasz? 

Edytowane przez mankomaniak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia. tylko tyle (myślę, że wielu ludzi intuicyjnie to rozumie, ale cóż, "racjonalistom" najwyraźniej trzeba wszystko tłumaczyć. Dziwne, bo podobno uważają się za inteligentniejszych od reszty).

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, darekp napisał:

Przyjmuję, że niższy poziom świadomości jest związany ze słabszym odczuwaniem cierpienia.

A to teraz przyjmujesz,a to już nie przyjmujecie? Nie ma consensu? A na jakiej podstawie przyjmujesz, że ryba mniej cierpi jak się ją kroi na żywca od tego psa na ulicy?

A tutaj ciekawe opracowanie na temat ryb: http://empatia.pl/blog/2015/09/02/ryby-czujace-i-inteligentne-istoty/

"Z kolei ścieżki sygnału płynącego z receptorów bólowych do mózgu i sama budowa mózgu ryby dowodzą, iż nie tylko są one zdolne do rozpoznawania i unikania bólu, ale także jego świadomego odczuwania, zapamiętywania i kojarzenia z konkretną sytuacją lub obiektem. Do tej pory sądzono, że ryby nie mają zdolności poznawczych, gdyż nie posiadają w mózgu rozwiniętej istoty szarej kory nowej (tzw. neocortex). Jednakże po dokładniejszych badaniach okazało się, że mózg ryb jest funkcjonalnie jakby „odwrócony na lewą stronę” w stosunku do naszego mózgu!    Mianowicie warstwy mózgu odpowiedzialne za odczuwanie, emocje i myślenie, są u ryb położone głębiej tj. poniżej istoty białej, w przeciwieństwie do innych grup kręgowców, u których warstwy o takiej funcji znajdują się na jej powierzchni. Ponadto funkcję kory nowej mogą być częściowo podejmowane przez inne partie mózgu ryby, podobnie, jak ma to miejsce u ludzi z uszkodzeniami mózgu. U ryb wykryto także obecność specjalnych włókien nerwowych i układu przypominającego nasz układ limbiczny, odpowiedzialnych za świadome odczuwanie, co potwierdzają też inne liczne badania neuroanatomiczne oraz behawioralne. Dlatego, ku zaskoczeniu badaczy, nie tylko trzeba pytać, czy ryby odczuwają ból, cierpienie i inne emocje, ale również czy są samoświadome. Jak dowodzą liczne prace przytoczone w książce pt. „Do fish feel pain” autorstwa V. Braithwaite, ryby odczuwają ból na równi lub nawet silniej, niż inne zwierzęta, do których żywimy więcej empatii – ssaki, w tym płody ludzkie i noworodki oraz ptaki."

To jak z tym konsensusem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odchodzisz od tematu. Nie interesuje mnie rozstrzyganie, czy ryba cierpi mniej czy bardziej od psa/świni (bo i tak ostatecznie, gdy będzie potrzeba, żeby trafiły na talerz, to trafią), tylko jak chcesz rozstrzygnąć kwestię wyboru między "cierpieniem" robota a cierpieniem zwierzęcia (w sytuacji, gdy trzeba by wybrać między jednym a drugim). Twoje wcześniejsze wypowiedzi wyraźnie sugerują, że jeśli AI byłaby "bardziej ludzka" (cokolwiek przez to rozumiesz) a pozbawiona świadomości/zdolności odczuwania cierpienia itp. to uznałbyś ją za mającą więcej praw niż zwierzę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie odchodzę od tematu, wręcz przeciwnie, ty po prostu nie widzisz związku między tymi sprawami. Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością, Roboty sa konstruowane właśnie tak, by wykazywac empatię, a ich świadomość może być zbliżona do zwierząt, może i człowieka.

Edytowane przez mankomaniak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Proszę o w miarę ścisłe zdefiniowanie co rozumiesz przez "bycie bardziej ludzkim". Skoro sięgasz po przeprowadzanie jakichś dowodów (tak napisałeś powyżej: "Udowodniłem przecież, że..."), to chyba powinieneś wcześniej co nieco precyzyjnie zdefiniować, nieprawdaż?

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cóż, z mojej strony pozostaję przy tym, co napisałem (a wcześniej napisał Wheelmill), że zachodzi potrzeba precyzyjniejszego zdefiniowania "człowieczeństwa".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, mankomaniak napisał:

Udowodniłem przecież, że w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

Nie udowodniłeś, tylko wyraziłeś swoja opinię.

Godzinę temu, mankomaniak napisał:

w prawach zwierząt nie chodzi wcale o cierpienie tylko to jak bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe. Koty i psy mają trochę inne prawa, ze względu na ich niekonsumpcyjność w naszym kręgu kulturowym, ponieważ:

Godzinę temu, mankomaniak napisał:

 bardzo są ludzkie - poziom empatii do człowieka wraz z wyższa świadomością,

i tu masz rację. U AI to będzie tylko symulacja.

Edytowane przez 3grosze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
40 minut temu, 3grosze napisał:

Mylisz się. Zwierzęta hodowlane mają (właśnie ze względu na odczuwanie cierpienia) prawnie gwarantowaną "humanitarną" technikę ubojową (nawet ryby) i warunki bytowe.

Ale tu nie chodzi o sposób zabijania, tylko sam fakt zabijania dla mięsa. Tu chodzi o prawo do życia zwierzęcia.

 

41 minut temu, 3grosze napisał:

U AI to będzie tylko symulacja.

Człowiek także potrafi symulować. Np. chorzy na nerwicę często odczuwają ból w brzuchu na jakąś myśl. Mało tego, wystarczy często, że tylko pomyślą o bólu brzucha i zaczynają odczuwac realny ból. Ale jak sprawdzisz to, że naprawdę odczuwają? Może i są jakieś metody komputerowe, które pozwalają obiektywnie to wykryć. Tylko że to będzie wykrycie jakiegoś tam pobudzenia hormonów czy neuronów. Jeśli uznamy, że ból to wszelkie podrażnienie, które pogarsza funkcjonowanie organizmu, to można tak zaprogramować robota / androida / replikanta, czy po prostu cyborga, aby wszelkie podrażnienie jego organizmu traktować jak coś nieprzyjemnego i w związku z tym aby wykazywał cały szereg emocji - zmarszczenie twarzy, wydawał określone dźwięki, w przypadku uświadomienia, że człowiek chce zniszczyć, próba ratunku albo błaganie o litość. Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

P.S. Wkrótce można będzie tak zaprogramować robota, aby zoptymalizował swoje zachowanie wobec człowieka w określonym celu: program - 1: stań się przyjacielem. Będzie się tak zachowywał jak najlepszy przyjaciel człowieka. Człowiek pokocha go jak psa. Program 2 - stań się kochankiem. Będzie optymalnie uwodził daną płeć, tak że kobieta / mężczyzna zakocha się w nim. Program 3 - bądź wrogiem... itd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, mankomaniak napisał:

Symulacja czy nie, niczym nie będzie się to różniło od tego co wykazują ludzie czy zwierzęta.

Proszę o dowód, mądrzejsi od Ciebie i mnie uważają to za rzecz dyskusyjną:

https://pl.wikipedia.org/wiki/Test_Turinga

https://pl.wikipedia.org/wiki/Chiński_pokój

https://merlin.pl/nowy-umysl-cesarza-o-komputerach-umysle-i-prawach-fizyki-roger-penrose/1298305/

 

2 godziny temu, mankomaniak napisał:

Wkrótce można będzie tak zaprogramować robota,

Tak, tak, wiem wiem, przy okazji bardzo się cieszę, że ludzie od kilkunastu lat latają na Marsa i księżyce Jowisza, bo tak przewidywali jakiś czas temu różni zapewne "racjonaliści": https://pl.wikipedia.org/wiki/2001:_Odyseja_kosmiczna_(film)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, darekp napisał:

Łatwo obalić ten cały chiński pokój. Np. gdyby ludzie jak ty rozumieli co ja piszę, to nie kłóciliby się ze mną, tylko potwierdzali, że mam rację. Dopiero po wielu odpowiedziach interlokutor dochodzi do wniosku, że się mylił, ale do tego oczywiście się nie przyzna, więc zaczyna coś w stylu "takie mam zdanie, opinię i koniec" albo zaczyna zmieniać temat i wymyslać jakieś argumenty, które dotyczą czego innego.Albo przestaje odpowiadać, bo nie wie co odpowiedzieć. Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn. Test mankomaniaka udowadnia, że człowiek też nie rozumie co się do niego mówi. Czyli niczym nie różni się od robota. 

 

4 godziny temu, darekp napisał:

Gdybyś miał więcej wiedzy na ten temat, wiedziałbyś, że wyśmiano Penrose'a , że chciał udowodnić niemechaniczność świadomości poprzez twierdzenie Godela, które niczego takiego nie dowodzi. Jest trochę polskich prac na ten temat (np. Krajewski: Twierdzenie Gödla i jego interpretacje filozoficzne; Sochaciński: Twierdzenie Gödla a spór o mechanicyzm).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
52 minuty temu, mankomaniak napisał:

Łatwo obalić ten cały chiński pokój.

Tak samo jak i eksperymenty myślowe mające udowodnić tezę przeciwną. Bo i jedno i drugie to są tylko spekulacje myślowe wychodzące poza zakres naszej wiedzy (naukowej).

52 minuty temu, mankomaniak napisał:

Po prostu wie, że miałem rację. A to oznacza, że na początku nie rozumiał co do niego piszę, nie rozumiał problemu, chociaż mogło mu się wydawać inaczej. Ja bym to nazwał testem Mankomaniaka jako analogię do testu Turinga dla maszyn.

Wydaje mi się, że zawsze jest tak, że w pewnym momencie dochodzi się do założeń nieweryfikowalnych wiedzą naukową i wtedy zostaje powiedzieć "takie mam zdanie, opinię i koniec". Gdzie nie ma wiedzy, pozostaje tylko "opinia" (i ew. sterczący gdzieś niedaleko niej "koniec";)). To co opisujesz, mówi raczej coś ciekawego o stanie Twojego umysłu.

52 minuty temu, mankomaniak napisał:

wiedziałbyś, że wyśmiano Penrose'a 

W historii wyśmiewano różnych ludzi, nie zawsze zasadnie. Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję, niż panowie Krajewski & Sochaciński. Ale to tylko moje wrażenie (plus "koniec"), kto inny może mieć inne (i swój "koniec").

Tak czy siak, żadnego dowodu nie podałeś.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, darekp napisał:

Ja zaś mam takie dziwne wrażenie, że Penrose może mieć w sprawach fizycznych lepszą intuicję

No właśnie problem polega na tym, że do świata fizycznego używa argumentów metamatematycznych. Zresztą gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii. No ale co sam autor twierdzenia może wiedzieć o nim? Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, mankomaniak napisał:

gdybyś poczytał np. Sochacińskiego wiedziałbyś, że sam Godel był daleki od uznania swojego twierdzenia za dowód na temat świadomości, a sam był tym tematem bardzo zainteresowany i poruszał ten temat pod kątem filozofii.

Bez czytania Sochacińskiego (btw Google mi podpowiada, że to Cichociński, nie Sochaciński) jestem IMHO całkiem nieźle świadomy, że Goedel był "daleki od uznania" itd. itd. 

17 minut temu, mankomaniak napisał:

Ważne, że Penrose napisał książkę i każdy ma ją traktowac jak biblię.

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką (tak go odbieram), że tak ważnej rzeczy jak świadomość nie można zostawić na zawsze jako jakiś niefizyczny byt. Czyli że warto się pochylić nad przypuszczeniem, że nasza dzisiejsza fizyka po prostu jest "za biedna", że nie odkryliśmy jeszcze jakichś praw fizycznych, które mówią coś istotnego o funkcjonowaniu świadomości. Niezależnie od tego, że na dzień dzisiejszy to nie jest przypuszczenie konstruktywne.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, darekp napisał:

Dla mnie Penrose powiedział jedną rzecz chole.nie głęboką

Przyznam się, że nie śledzę wypowiedzi co bardziej bystrzejszych bo mam pewien problem, nazwijmy to techniczny.

Duża część z nich wypowiadało się kiedy mało wiedzieliśmy o działaniu mózgu, następnie mało wiedzą jak działają współczesne AI, część to po prostu nazwijmy ich filozofowie którzy szukają "magii człowieczeństwa" .

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Jednak, to o czym traktuje artykuł jest bliżej nas niż świadomość.
Jak słusznie zauważono, to trochę ściąganie odpowiedzialności z twórców, tak jak osoba prawna odpowiada za "swoje" działania, i schodzi bezpośrednia odpowiedzialność z ludzi.
Czy jeżeli dotrzymałem wszelkich norm, jeśli chodzi o np. budowę samolotu i jego systemów i samolot mimo wszystko się zepsuł na skutek sytuacji której nikt wcześniej nie przewidział(i spadł) to czy firma odpowiada za to czy to już zdarzenie losowe?  CZy jeżeli dodamy to zdarzenie do norm, i wszyscy muszą się ich trzymać to już ok?

I tutaj to samo, czy jeżleli mam autonomiczny samochód i dotrzymałem wszelkich standardów (Ale ich nie ma chyba?) to jest ok?

Z Twórczością nie rozumiem problemu, dla mnie sztuczna sieć neuronowa którą sobie wytrenowałem która stworzyła utwór nie różni się niczym od syntezatora na którym coś zagrałem.  I w tę stronę chyba to na razie idzie. To nie jest sobie jakiś byt który sam sobie tworzy i jest tego właścicielem. Na ten moment to jest zwykły młotek i to wszystko. 

I na ten moment to są nasze realne problemy, bez istnienia świadomości sztucznej lub nie, zwał jak zwał.

 

  • Pozytyw (+1) 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, Afordancja napisał:

A z mojego prostego rozumowania, to zwykłe dorabianie ideologii, wg. mnie nie potrzeba niczego  dodawać do fizyki, czy żadnej metafizyki, "jedynie" czego trzeba nam dodać na pewno to złożoność (i parę drobnych rzeczy ;) ) i powstanie coś co możemy nazwać świadomością. Obecnie, (moim zdaniem) jesteśmy od tego bardzo daleko.

Całkowita zgoda. Panuje tu duże nieporozumienie. Nagminne jest utożsamianie inteligencji ze świadomością przez profanów oraz odmawianie inteligencji ANN przez profesjonalistów bo przecież mnożenie z dodawaniem nie może dać inteligencji. Tymczasem prosty klasyfikator odróżniający kota od psa jest inteligentny. Jego IQ nie powala, ale prezentuje elementarną inteligencję. Złożenie takich klasyfikatorów może już całkiem udatnie naśladować mądrość, wygrywać w szachy lub Go czy prowadzić samochód. To, że nie ma w tym magii, nie znaczy że nie jest inteligentne. 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na całym świecie rośnie liczba przypadków chorób przenoszonych przez wektory. Najbardziej znane wektory to komary, kleszcze czy pchły. Jedną z przenoszonych przez nie chorób jest denga, której liczba przypadków zwiększyła się w ciągu ostatnich 50 lat aż 30-krotnie czyniąc ją drugą, po malarii, najbardziej rozpowszechnioną chorobą wektorową. Badacze z UK Centre for Ecology & Hydrology, Uniwersytetów w Glasgow i Reading oraz Biomathematics and Statistics Scotland opracowali model, który pozwala przewidzieć rozprzestrzenianie się w Europie komara tygrysiego (Aedes albopictus) i ryzyka lokalnych zachorowań na dengę.
      Komar tygrysi występował naturalnie w Azji Południowo-Wschodniej. Został jednak przez człowieka rozwleczony po całym świecie. Najnowsze dane European Centre for Disease Prevention and Control z maja bieżącego roku wskazują, że komar tygrysi jest już zadomowiony między innymi w znacznej części Hiszpanii, większości Francji, całych Włoszech, środkowych i południowo-zachodnich Niemczech oraz w Berlinie, na Węgrzech i na południu Słowacji. Jego obecność zarejestrowano też w Czechach, Austrii czy na południu Szwecji. W Polsce gatunku tego nie stwierdzono, jednak niewykluczone, że z powodu... braku danych. Zdecydowana większość obszaru naszego kraju jest oznaczona jako tereny, z których nie ma informacji.
      W porównaniu z poprzednim raportem, z października 2023 roku komar tygrysi zadomowił się w kolejnych 6 regionach Francji i 1 regionie Niemiec i został zaobserwowany w nowych regionach w Hiszpanii, Holandii, Portugalii i Słowenii.
      Jeszcze w 2000 roku na świecie odnotowano około 0,5 miliona zachorowań na dengę, w roku 2024 mamy już ponad 12 milionów chorych i ponad 8000 zgonów. Przyczyną jest zarówno zmiana klimatu, jak i zachowanie ludzi, dzięki którym komar łatwiej się rozmnaża i rozprzestrzenia.
      Autorzy nowych badań stworzyli bardziej szczegółowy model niż dotychczas używane, który już prawidłowo przewidział miejscowości, w których w bieżącym roku nastąpią pierwsze zachorowania na dengę. Są wśród nich La Colle-sur-Loup, Baho i Montpellier-Pérols we Francji czy Vila-seca w Hiszpanii. Prognozujemy, że najbardziej narażone na dengę pozostaną południowe regiony Francji oraz północ Włoch. Są tam sprzyjające warunki klimatyczne, stabilna populacja komarów oraz duża liczba osób wracających z krajów tropikalnych, gdzie denga występuje, stwierdził główny autor badań, Dominic Brass. Dotychczas najbardziej na północ wysuniętym miastem, w którym wystąpiła denga, był Paryż. Pierwszego komara tygrysiego zaobserwowano tam w 2015 roku, a w roku ubiegłym zanotowano lokalne zachorowania. Co więcej, w bieżącym roku w Paryżu doszło też do lokalnego zachorowania na chikungunyę, inną tropikalną chorobę przenoszoną przez komary.
      Autorzy badań ostrzegają jednak, że obszar występowania ryzyka zachorowań przesuwa się na północ. Z ich modelu wynika, że lokalnych zachorowań można spodziewać się też w Warszawie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas badań archeologicznych na stanowisku Łysa Góra (Rembielin) w pobliżu miejscowości Chorzele w powiecie przasnyskim dokonano sensacyjnego odkrycia. Eksperci z Państwowego Muzeum Archeologicznego, pracujący pod kierunkiem doktorów Wojciecha Borkowskiego i Bartłomieja Kaczyńskiego, znaleźli celtycki hełm z IV wieku przed naszą erą. To zaledwie drugie tego typu znalezisko na terenie naszego kraju. Pierwszy hełm celtycki znaleziono ponad 50 lat temu w Siemiechowie.
      Łysa Góra to piaszczysta wydma na bagnach w dolinie rzeki Orzyc. Około VI wieku przed Chrystusem osiedlili się tam przedstawiciele kultury kurhanów zachodniobałtyjskich. Osadę odkryto w 1959 roku i od tej pory, z przerwą w latach 1971–1984, jest ona przedmiotem badań archeologicznych. Podczas obecnego sezonu wykopalisk znaleziono między innymi pozostałości umocnień, w tym kamienne licowania i ślady drewnianej palisady. Świadczą one o tym, że osada miała charakter obronny. Umocnienia były zapewne szczególnie przydatne zimą, gdy mokradła zamarzały.
      Najważniejszym jednak ze znalezionych artefaktów jest wspomniany hełm. Ma on łukowaty nakarczek i stożkowatą kalotę (górną część) zakończoną podwójnym guzkiem. Wstępna analiza wykazała, że to hełm z brązu zbliżony do typu Berru, co pozwoliło datować go na IV w. p.n.e. Kompletne przykłady takich hełmów można obejrzeć w Muzeum Celtów w Hallein (Keltenmuseum Hallein). Zabytek jest w złym stanie, trafił do Działu Konserwacji Muzealiów Państwowego Muzeum Archeologicznego. Będzie się nim zajmował Mikołaj Organek, który specjalizuje się w konserwacji przedmiotów z brązu i żelaza. Prace konserwatorskie potrwają kilka miesięcy, po czym hełm trafi na przygotowywaną wystawę stałą.
      Oprócz hełmu i umocnień archeolodzy znaleźli nożyce, siekiery, ciosła, półkoski oraz fibule, naszyjniki i bransolety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...