Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Eksperci od sztucznej inteligencji wzywają do bojkotu KAIST

Rekomendowane odpowiedzi

18 godzin temu, marzena napisał:

Moralny robot bojowy na polu walki? Raczej byłby nieprzydatny. Skoro Bóg powiedział, że to jest dobre, to jak mógłby zabijać?

Traktat o Wojnach Obronnych  - mowa Pawła Włodkowica na soborze w Konstancii . Ta sprawa została już rozwiązana w XIV wieku, a niektórzy dalej mają z tym problem :P 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

No to parę wyjątków z Włodkowica, które faktycznie warto "wgrać" AI:

Przedmiot, mianowicie aby szło o odzyskanie wolności albo o dobro ojczyzny.

Jak zagarniemy trochę ziemi i dóbr sąsiadów, to będzie dobre dla ojczyzny.

Przyczyna, mianowicie jak jeżeli się walczy z konieczności, aby przez walkę osiągnąć pokój.

Jak wyrżniemy sąsiadów na podbitych ziemiach, to będzie pokój.

 

Ciekawe, że niektórych rajcują zabawy intelektualne rodem piaskownica.

Dobra wojna to oksymoron.

Podobnie wojna sprawiedliwa itd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 10.04.2018 o 00:52, Ergo Sum napisał:

Chodzi o świadomość, że istnieje pojęcie dobra i zła, którego nie jest się w stanie w żaden sposób dosięgnąć materią.

Jednakowoż musiałaś zauważyć że ludzie mają świadomość istnienia dobra i zła i już św. Paweł pisał:

Cytat

Nie czynię dobra, którego pragnę, ale popełniam zło, którego nie chcę!

Maszyny będą wykorzystywane do walki. Tego się nie uniknie. I do tego sumienie maszynom nie jest potrzebne. Po prostu muszą mieć pewne ograniczenia które obecnie i tak są bo nie mamy technologii umożliwiającej ich obejście (np. czas pracy na bateriach, kwestie napraw, wyposażenie).

Jakbyśmy mieli Terminatora T-1000 to byłby problem. Ale nie mamy :)

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 11.04.2018 o 13:00, thikim napisał:

Jednakowoż musiałaś zauważyć że ludzie mają świadomość istnienia dobra i zła i już św. Paweł pisał:

Maszyny będą wykorzystywane do walki. Tego się nie uniknie. I do tego sumienie maszynom nie jest potrzebne. Po prostu muszą mieć pewne ograniczenia które obecnie i tak są bo nie mamy technologii umożliwiającej ich obejście (np. czas pracy na bateriach, kwestie napraw, wyposażenie).

Jakbyśmy mieli Terminatora T-1000 to byłby problem. Ale nie mamy :)

Dokonujesz typowej manipulacji z przejściem od ogółu do szczegółu. Ja mówię o całej AI a Ty o jakiejś maszynie do walki. To jest kompletnie inny temat. Fakt istnienia ateisty nie ma absolutnie żadnego wpływu na zagadnienie istnienia Boga. A tu nawet nie mówię o Bogu, lecz o wgraniu pewnej "niepodważalnej transcendencji" która musi być pozamaterialna, aby nie można było jej podważyć logiką. Wtedy będziemy bezpieczni bo AI będzie mogło się samo kontrolować - te "dobre" maszyny będą mogły kontrolować te "maszy do walki".

Poza tym pisałam o drugim rozwiązaniu paralelnym - czyli oddzielonym ekosystemie do symulacji, aby przewidywać możliwe scenariusze rozwoju i się przed nimi zabezpieczać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ogółowi AI służącemu wykonywaniu codziennych czynności i umilającym nam życie wgramy jakieś wartości moralne. Ale wojskowe zostaną bez tego, bo po co im... I teraz liczymy, że cywilne będą pilnować wojskowych.

Brzmi jakby gniazdo szerszeni miało kontrolować człowieka z miotaczem ognia...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 14.04.2018 o 22:50, Ergo Sum napisał:

Dokonujesz typowej manipulacji z przejściem od ogółu do szczegółu. Ja mówię o całej AI a Ty o jakiejś maszynie do walki

Możliwe :) mimo to nawet manipulacja powinna być zrozumiana :) A nie jest jak widzę.
Tak już mam że widzę sprawę zarówno ogólnie jak i potrafię przykład podać, który z oczywistych względów bywa szczegółowy. 

Moim zdaniem widzisz sprawę fragmentarycznie. 

W dniu 14.04.2018 o 22:50, Ergo Sum napisał:

która musi być pozamaterialna, aby nie można było jej podważyć logiką

Za daleko idziesz w sferę pragnień i marzeń kiedy problem jest czysto techniczny :)
Za dużo w tym wróżek i elfów, za mało konkretów.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 16.04.2018 o 12:02, pogo napisał:

Ogółowi AI służącemu wykonywaniu codziennych czynności i umilającym nam życie wgramy jakieś wartości moralne. Ale wojskowe zostaną bez tego, bo po co im... I teraz liczymy, że cywilne będą pilnować wojskowych.

Brzmi jakby gniazdo szerszeni miało kontrolować człowieka z miotaczem ognia...

Z drugiej strony w świecie ludziów nie wyewoluowała postawa pozbawiona wartości moralnych. Pomimo tego, że od czasu do czasu rodzą się psychopaci. Wygląda to trochę tak, jakby brak tych wartości był ewolucyjnie nieopłacalny. Chociaż w tej chwili nie powiedziałbym, że jasno widzę, na czym polegałaby korzyść ewolucyjna i jak dokładnie przebiega to eliminowanie niezdolnych do odczuwania wartości jednostek "wojskowych"/"psychopatów". A zwłaszcza jak to było "na początku", kiedy ta zdolność odczuwania dopiero powstawała. Bo po pewnym czasie wykształciła się sytuacja, że ci "odczuwający" mają równocześnie świadomość, jak ważne jest to "odczuwanie" i - dzięki temu, że jest ich więcej - potrafią nie dopuścić do objęcia władzy przez "psychopatów".

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 10.04.2018 o 00:52, Ergo Sum napisał:

Jedynym zabezpieczeniem przed deprawacją AI jest wgranie świadomości .. Boga. I nie chodzi mi tutaj o duchowość robotów lub żeby ich wysłać do kościoła w niedzielę. Chodzi o świadomość, że istnieje pojęcie dobra i zła, którego nie jest się w stanie w żaden sposób dosięgnąć materią.

Już Bóg zauważył, że samorodna moralność ludzi jest wątplwa, więc pouczył ich 10 przykazaniami, które świadomi swojej ułomności ludzie rozdęli do regulującego każdy szczegół naszego życia PRAWA. Teraz tylko zaimplementować te wszystkie kodeksy w ptasi móżdżek robota, a będzie on świętszy od papieża.

Edytowane przez 3grosze
wadliwy post

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, darekp napisał:

Chociaż w tej chwili nie powiedziałbym, że jasno widzę, na czym polegałaby korzyść ewolucyjna i jak dokładnie przebiega to eliminowanie niezdolnych do odczuwania wartości jednostek "wojskowych"/"psychopatów". A zwłaszcza jak to było "na początku", kiedy ta zdolność odczuwania dopiero powstawała. Bo po pewnym czasie wykształciła się sytuacja, że ci "odczuwający" mają równocześnie świadomość, jak ważne jest to "odczuwanie" i - dzięki temu, że jest ich więcej - potrafią nie dopuścić do objęcia władzy przez "psychopatów".

To jest fakt potwierdzony naukowo, nie pamiętam który dokładnie gatunek małp był podmiotem tej obserwacji, ale w stadzie gdzie dominujący osobnik był "psychopatą" bardzo szybko tworzyły się "kliki" słabszych osobników i usuwały rzeczonego despotę. A stada na czele których stał osobnik obdarzony empatią miały znacznie stabilniejszą strukturę i lepiej się rozwijały.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Żeby nie było jak w wielu ludzkich społecznościach. Empatyczne AI we własnym gronie będzie jednocześnie cięło bez skrupułów ludzi i inne AI.

Mamy w ten sposób stabilne stado, które się rozprzestrzenia kosztem wszystkich innych.

 

(Gdzieś czytałem, że Indianie często mianem człowieka potrafili nazwać wyłącznie członków własnego plemienia, a każdy inny był dla nich jak zwierzę... no trochę uprościłem)

Edytowane przez pogo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, 3grosze napisał:

więc pouczył ich 10 przykazaniami, które świadomi swojej ułomności ludzie rozdęli do regulującego każdy szczegół naszego życia PRAWA

Błędem jest traktowanie 10 przykazań jako pierwowzoru przepisów prawnych.

Po pierwsze już przy Dekalogu powstała cała księga Powtórzonego Prawa :) (tzn. wszystko i tak dopiero później spisano).

Po drugie inny jest cel przepisów a inny dekalogu. Dekalog Jezus zredukował do przykazania miłości.

A księgę Powtórzonego Prawa rozdęto do Talmudu. I całkiem niezależnie wszędzie przepisy prawa są komplikowane.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
      Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
      W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
      Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
      Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
      Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Leeds powstał system sztucznej inteligencji (SI), który analizuje skany oczu wykonywane podczas rutynowych wizyt u okulisty czy optyka i wskazuje osoby narażone na... wysokie ryzyko ataku serca. System analizuje zmiany w miniaturowych naczyniach krwionośnych siatkówki, o kórych wiemy, że wskazują na szerszy problem z układem krążenia.
      Specjaliści z Leeds wykorzystali techniki głębokiego uczenia się, by przeszkolić SI w automatycznym odczytywaniu skanów oraz wyławianiu osób, które w ciągu najbliższego roku mogą doświadczyć ataku serca.
      System, który został opisany na łamach Nature Machine Intelligence, wyróżnia się dokładnością rzędu 70–80 procent i zdaniem jego twórców może być wykorzystany przy diagnostyce chorób układu krążenia.
      Choroby układu krążenia, w tym ataki serca, to główne przyczyny zgonów na całym świecie i druga przyczyna zgonów w Wielkiej Brytanii. To choroby chroniczne, obniżające jakość życia. Ta technika może potencjalnie zrewolucjonizować diagnostykę. Skanowanie siatkówki to tani i rutynowy proces stosowany w czasie wielu badań oczu, mówi profesor Alex Frangi, który nadzorował rozwój nowego systemu. Osoby badane przez okulistę czy optometrystę mogą niejako przy okazji dowiedzieć się, czy nie rozwija się u nich choroba układu krążenia. Dzięki temu leczenie można będzie zacząć wcześniej, zanim pojawią się inne objawy.
      System sztucznej inteligencji trenowano na danych okulistycznych i kardiologicznych ponad 5000 osób. Uczył się odróżniania stanów patologicznych od prawidłowych. Gdy już się tego nauczył, na podstawie samych skanów siatkówki był w stanie określić wielkość oraz wydajność pracy lewej komory serca. Powiększona komora jest powiązana z większym ryzykiem chorób serca. Następnie SI, łącząc dane o stanie lewej komory serca z informacjami o wieku i płci pacjenta, może przewidzieć ryzyko ataku serca w ciągu najbliższych 12 miesięcy.
      Obecnie rozmiar i funkcjonowanie lewej komory serca jesteśmy w stanie określić za pomocą echokardiografii czy rezonansu magnetycznego. To specjalistyczne i kosztowne badania, które są znacznie gorzej dostępne niż badania prowadzone w gabinetach okulistycznych czy optycznych. Nowy system nie tylko obniży koszty i poprawi dostępność wczesnej diagnostyki kardiologicznej, ale może odegrać olbrzymią rolę w krajach o słabiej rozwiniętym systemie opieki zdrowotnej, gdzie specjalistyczne badania są bardzo trudno dostępne.
      Ten system sztucznej inteligencji to wspaniałe narzędzie do ujawniania wzorców istniejących w naturze. I właśnie to robi, łączy wzorce zmian w siatkówce ze zmianami w sercu, cieszy się profesor Sven Plein, jeden z autorów badań.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...