Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Unia Europejska chce regulować sztuczną inteligencję

Rekomendowane odpowiedzi

Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.

Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.

Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.

Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.

Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.

Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.

Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.

Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ot i popadli my w kałabanie, a czort karty rozdaje.

Tzn., że asystent googla, alexa, siri etc. też będzie zakazana? Pytanie jak zdefiniują AI...

18 godzin temu, KopalniaWiedzy.pl napisał:

Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

no bo już się zaczyna jak ze ślimakiem-rybą i krzywizną banana :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 godzin temu, KopalniaWiedzy.pl napisał:

Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

Ależ to proste! Zakazać reklamy, całej, wszędzie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, Jajcenty napisał:

Ależ to proste! Zakazać reklamy, całej, wszędzie. 

Bardziej by mnie ucieszyło, gdyby zakazali pytać o ciasteczka, tylko domyślnie mają być minimalne, a jak chcesz zwiększyć to sam musisz wejść w ustawienia (bez pop-upów). Do tego zakazać udostępniania "swojej" listy kontaktów z moim numerem telefonu wszelkiej maści aplikacjom/firmom. Cóż, bez reklamy nie miałbyś też i kopalni i gdzie byś to napisał? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest bardzo zły i niebezpieczny kierunek. Jesteśmy naiwni skoro myślimy że takie rozwiązania są w trosce o naszą prywatność. Rozwiązania które chce wprowadzić Unia prowadzą do zwiększenia nierównowagi między koncernami i zwykłymi osobami. De facto są to rozwiązania, które uniemożliwiają ludziom wykorzystywać pozytywne walory AI - a które mogły by być ochroną przed działalnością koncernów, zmuszać koncerny do dzielenia się zyskami, i prowadzić aby każdy użytkownik był partnerem koncernu a nie dojną krową.

Podam prosty przykład. Załóżmy, że jest w pewnym miejscu inteligentny bilbord. Koncern chce aby mógł być spersonalizowany. Jeśli lubimy łowić ryby będzie wyświetlana reklama wędek, a jeśli górskich wędrówek to reklama plecaków. UE ogranicza naszą prywatność - więc koncern nie może posłużyć się naszymi danymi. AU wnioskuje o naszych preferencjach na podstawie np. sposobu chodzenia i tak personalizuje tą reklamę. Ma to 90% skuteczności. Strata dla koncernu żadna. Gdyby jednak prywatność nie była ograniczona, ustawodawca mógłby nakazać koncernowi aby każdemu oglądającemu bilbord płacić 0,03 grosza za przejście obok bilbordu. W przypadku tzw "ochrony prywatności" taka regulacja jest niemożliwa. W efekcie koncerny nie mają kosztu innego jak tylko opłata za miejsce i wyprodukowanie bilbordów. Zasr***ają każdą przestrzeń bilbordami, nie mają kosztów z tym związanych a my tracimy coś na czym moglibyśmy zarobić, a co byłoby po prostu uczciwe. Gdyby takie nano-płatności były możliwe, można by wręcz nieźle zarobić chodząc po całym mieście i oglądając bilbordy, a koncerny zaczęły by się zastanawiać czy na prawdę warto zasłaniać każdy jeden widok swoimi plakatami.

Przedstawiony przykład nie dotyczy tylko bilbordów, ale także wszelkich reklam np. w inteligentnej TV. Można to oczywiście rozszerzyć na całą gamę innych zjawisk jak nano-płatności za aktywność na wielu polach - w pracy, biznesie, rozrywce itp itd.

Ochrona prywatność dla koncernów jest szansą na darmowe dojenie nas, a my tracimy możliwość rekompensaty.

Chcę przez to powiedzieć, że to wszystko nie jest takie różowe jak przestawia to Unia, a jestem 100% przekonana o tym, że robi to pod naciskiem koncernów a nie zwykłych ludzi. To koncernom zależy na wprowadzeniu tych przepisów - a oni dobrze wiedzą co jest ich zyskiem a naszą stratą.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Ergo Sum napisał:

Ochrona prywatność dla koncernów jest szansą na darmowe dojenie nas, a my tracimy możliwość rekompensaty.

Trochę Cię poniosło.

1. Koncern traci na "wyświetlaniu" reklam niespersonalizowanych, bo już płaci za ten bilbord, ale reklama niekoniecznie trafia do odbiorcy (bo ja łowić nie lubię więc wędki nie kupię).

2. Ja nie tracę możliwości rekompensaty, bo nie potrzebuję rekompensaty za utratę prywatności, bo tej prywatności nie tracę.

Cały sęk w tym, żeby uniemożliwić śledzenie (bezwarunkowe), a nie żeby ktoś mi za to zapłacił. Jak ktoś chce to ok, a nie tak jak teraz.

5 minut temu, Ergo Sum napisał:

jestem 100% przekonana

hmm, ja tam "wiem, że nic nie wiem"

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, radar napisał:

Cóż, bez reklamy nie miałbyś też i kopalni i gdzie byś to napisał? :)

Też tu. Skłonny jestem płacić za treść. Może wystarczy osobna domena? Szukam reklama.com:plecak+wędka

Mnie w reklamie dźga (w moją komunistyczną część światopoglądu) absurdalne pieniądze jakie się tam przewijają. Znaleziono sposób by za pomocą mikropłatności golić i absolutnie przeceniać pracę. Jeśli aktor otrzymuje 100 tys za 20 sekundową reklamę, której nakręcenie kosztowało go godzinę z dojazdem, to daje absurdalnie wysoką stawkę godzinową. Podobnie jest ze sportem, skąd te kwoty w piłce nożnej? Nikt przy zdrowych zmysłach nie zapłaci 30 tys za prywatny, półgodzinny występ na urodzinach syna - ta praca nie jest tyle warta, chyba że masz zaburzoną ocenę wartości pieniądza, o co łatwo skoro zarabiasz na reklamowaniu kremiku na młodość i wieczność. 

Wiem, stary komunista ze mnie :D Ale naprawdę wkurza mnie, że kupując proszek do prania, czy mając konto w banku finansuję czyjeś baseny z szampanem. Chętnie zobaczyłbym jak pozbawiona wpływów z reklam piłka pada na pysk i staje się normalną rozrywką starszych panów z brzuszkami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, Jajcenty napisał:

Ależ to proste! Zakazać reklamy, całej, wszędzie. 

Tylko człowiekom, czy innym zwierzakom też i roślinom tak samo? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
      Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
      Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
      Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
      Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Unii Europejskiej transport drogowy jest jedynym ważnym sektorem działalności gospodarczej, w którym emisja CO2 wciąż rośnie od 1990 roku. Niewykluczone jednak, że właśnie jesteśmy świadkami zmiany tego trendu. Międzynarodowa Rada Czystego Transportu (International Council on Clean Transportation, ICCT), niedochodowa organizacja doradczo-badawcza, opublikowała nową edycję swojego raportu Vision 2050, w którym analizuje globalne polityki dotyczące czystego transportu oraz rozwoju rynkowego.
      Analizie poddawane są trendy w sprzedaży samochodów, przepisy prawne, rozwiązania polityczne, zużycie energii, analizowane możliwe scenariusze rozwoju wydarzeń do roku 2050. W tegorocznym raporcie szczególnie skupiono się na rozwiązaniach politycznych wprowadzonych w ciągu ostatnich 3 lat. Analitycy ICCT przewidują, że w bieżącym roku emisja z transportu drogowego sięgnie na terenie UE niemal 800 milionów ton dwutlenku węgla i będzie to maksymalna wartość historyczna. Od przyszłego roku emisja z pojazdów będzie spadała i około roku 2035 zmniejszy się o około 25% w porównaniu z rokiem bieżącym.
      Z naszej analizy wynika, że europejski sektor transportowy znajduje się w historycznym punkcie przegięcia. Dekadę po podpisaniu Porozumienia Paryskiego w Europie dochodzi do zmiany i przejścia na pojazdy elektryczne, które są bardziej efektywne energetycznie i charakteryzują się znacznie mniejszą emisją. Jednak nasza analiza zawiera też ostrzeżenie, odejście od obecnych celów redukcji CO i złagodzenie wymagań wobec producentów samochodów może spowodować, że do spadku emisji nie dojdzie, stwierdził Felipe Rodriguez, zastępca dyrektora ICCT na Europę.
      Analitycy ICCT porównali stan prawny obowiązujący w Unii Europejskiej w 2021 roku z przepisami wprowadzonymi w ciągu kolejnych 3 lat. Stwierdzili, że nowe przepisy i standardy emisji dla ciężarówek w znaczący sposób zbliżają kraje UE do osiągnięcia celów Porozumienia Paryskiego. Podobny pozytywny trend widać też w skali globalnej. Być może i w skali całego globu konsumpcja paliw płynnych i emisja z transportu osiągną szczyt w 2025 roku, a później zaczną spadać. Dużo bowiem wskazuje na to, że zmniejszenie emisji z transportu w Chinach, UE i USA będzie większe, niż jej zwiększenie na pozostałych obszarach planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...