Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Sztuczna inteligencja może bardzo się mylić. Warto uważać na jej zastosowania w medycynie

Recommended Posts

Autorzy badań opublikowanych na łamach PNAS ostrzegają, że nie można ufać technikom obrazowania medycznego rekonstruowanym za pomocą sztucznej inteligencji. Międzynarodowy zespół naukowy pracujący pod kierunkiem Andersa Hansena z Uniwersytetu w Cambridge stwierdził, że narzędzia do głębokiego uczenia się, które rekonstruują obrazy wysokiej jakości na podstawie szybkich skanów, tworzą liczne przekłamania i artefakty, które mogą wpływać na diagnozę.

Jak niejednokrotnie informowaliśmy, systemy sztucznej inteligencji są już na tyle zaawansowane, że równie dobrze jak radiolodzy, a często i lepiej, potrafią opisywać zdjęcia RTG, obrazy tomografii komputerowej czy rezonansu magnetycznego. W związku z tym pojawił się pomysł, by SI zaprząc do rekonstrukcji obrazów.

Pomysł polega na tym, by wykonywać obrazowanie o niższej rozdzielczości, czyli pobierać dane z mniejszej liczby punktów, a następnie, by wytrenowane systemy algorytmy sztucznej inteligencji rekonstruowały na tej postawie obraz o wysokiej rozdzielczości. W ten sposób można by zaoszczędzić czas i pieniądze potrzebny na wykonanie badania. Wykorzystywane tutaj algorytmy były trenowana na dużej bazie danych obrazów wysokiej jakości, co stanowi znaczne odejście od klasycznych technik rekonstrukcji bazujących na teoriach matematycznych.

Okazuje się jednak, że takie systemy SI mają poważne problemy. Mogą one bowiem przegapić niewielkie zmiany strukturalne, takie jak małe guzy nowotworowe, podczas gdy niewielkie, niemal niewidoczne zakłócenia spowodowane np. poruszeniem się pacjenta, mogą zostać odtworzone jako poważne artefakty na obrazie wyjściowym.

Zespół w skład którego weszli Vegard Antun z Uniwersytetu w Oslo, Francesco Renna z Uniwersytetu w Porto, Clarice Poon z Uniwersytetu w Bath, Ben Adcock z Simon Fraser University oraz wspomniany już Anders Hansen, przetestował sześć sieci neuronowych, wykorzystywanych do rekonstrukcji obrazów tomografii i rezonansu. Sieciom zaprezentowano dane odpowiadają trzem potencjalnym problemom, które mogą się pojawić: niewielkim zakłóceniom, niewielkim zmianom strukturalnym oraz zmianom w próbkowaniu w porównaniu z danymi, na których system był trenowany.

Wykazaliśmy, że niewielkie zakłócenia, których nie widać gołym okiem, mogą nagle stać się poważnym artefaktem, który pojawia się na obrazie, albo coś zostaje przez nie usunięte. Dostajemy więc fałszywie pozytywne i fałszywie negatywne dane, wyjaśnia Hansen.

Uczeni, chcą sprawdzić zdolność systemu do wykrycia niewielkich zmian, dodali do skanów niewielkie litery i symbole z kart do gry. Tylko jedna z sieci była w stanie je prawidłowo zrekonstruować. Pozostałe sieci albo pokazały w tym miejscu niewyraźny obraz, albo usunęły te dodatki.

Okazało się też, że tylko jedna sieć neuronowa radziła sobie ze zwiększaniem tempa skanowania i tworzyła lepszej jakości obrazy niż wynikałoby to z otrzymanych przez nią danych wejściowych. Druga z sieci nie była w stanie poprawić jakości obrazów i pokazywała skany niskiej jakości, a trzy inne rekonstruowały obrazy w gorszej jakości niż otrzymały do obróbki. Ostatni z systemów nie pozwalał na zwiększenie szybkości skanowania.

Hansen stwierdza też, że badacze muszą zacząć testować stabilność takich systemów. Wówczas przekonają się, że wiele takich systemów jest niestabilnych. Jednak największym problemem jest fakt, że nie potrafimy w sposób matematyczny zrozumieć, jak działają tego typu systemy. Są one dla nas tajemnicą. Jeśli ich porządnie nie przetestujemy, możemy otrzymać katastrofalnie złe wyniki.

Na szczęście takie systemy nie są jeszcze wykorzystywane w praktyce klinicznej. Zespół Hansena stworzył odpowiednie testy do ich sprawdzenia. Uczeni mówią, że nie chcą, by takie systemy zostały dopuszczone do użycia jeśli nie przejdą szczegółowych testów.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Każdy chromosom ludzkiego organizmu jest zakończony sekwencjami telomerowymi. Ponieważ skracają się one przy każdym podziale komórki, przyciągały od lat wyobraźnię badaczy. Stawiali oni sobie pytanie: co stanie się, kiedy telomery skrócą się tak bardzo, że podział będzie niemożliwy? W istocie, związek między skracaniem telomerów a maksymalną liczbą podziałów komórki (limitem Hayflicka) został potwierdzony. Istnieje zatem związek między długością telomerów a starzeniem się.
      Wiele chorób ma cechy przyspieszonego starzenia – dezorganizacji procesów, które normalnie utrzymują równowagę niezbędną dla funkcjonowania organizmu. Wobec tego można też postulować, że długość telomerów mogłaby okazać się przydatna w medycynie, służąc jako marker stanu zdrowia.
      Krótsze telomery leukocytarne to eksperymentalny biomarker ryzyka sercowo-naczyniowego [1], w znacznym stopniu niezależny od typowych czynników ryzyka ocenianych w wywiadzie i analizach biochemicznych. Może to być pośrednio związane z czynnikami dietetycznymi, jako że większa długość telomerów koreluje ze spożyciem warzyw i owoców [2], większą aktywnością fizyczną [3] i czystością powietrza [4]. Jednak liczba chorób, w których wykazano zmiany długości telomerów, jest obszerna.
      Większa długość telomerów w tkance raka piersi jest związana z lepszą prognozą niezależnie od szeregu innych czynników zazwyczaj branych przy takiej ocenie pod uwagę [5]. Wykazano również zależność między długością telomerów a ryzykiem raka żołądka, chorobą Alzheimera i cukrzycą [10]. Telomery są krótsze u palaczy, proporcjonalnie do liczby paczkolat, a efekt ten zdaje się w jakimś stopniu utrzymywać nawet po zaprzestaniu palenia [6]. Zaburzenia wzrastania wewnątrzmacicznego korelują ze skróceniem telomerów łożyska [7]. Wiadomo także, że kobiety mają dłuższe telomery niż mężczyźni [8]. Osoby z krótszymi telomerami zdają się reagować silniejszą produkcją kortyzolu na czynniki stresowe [9].
      Temat długości telomerów jest również aktywnie zgłębiany w Polsce. W Klinice Gastroenterologii Dziecięcej i Chorób Metabolicznych Uniwersytetu Medycznego w Poznaniu realizowany jest projekt Narodowego Centrum Nauki „Preludium” dotyczący długości telomerów w mukowiscydozie (2017/25/N/NZ5/02126). Mukowiscydoza jest najczęstszą poważną chorobą genetyczną w populacji osób białych.
      Polski program badań przesiewowych w kierunku mukowiscydozy należy do najlepszych na świecie (ok. 99% skuteczność). Dodatni wynik stwierdza się u ok. 1 na 5000 nowo urodzonych dzieci. Łącznie w Polsce na mukowiscydozę choruje ponad 2000 osób. Dzięki postępom w intensywnym leczeniu, jakie jest wymagane w tej chorobie, przeciętna długość życia polskich chorych wydłużyła się z ok. 20 lat dekadę temu do niemal 30 lat dziś. U znaczącej większości chorych można dokładnie poznać mutacje genu CFTR, którego mutacje są odpowiedzialne za chorobę. Niemniej, zależności między tymi mutacjami a przebiegiem choroby nie są ścisłe, co stanowi jedną z wielkich zagadek biomedycyny w ogóle. Z tego powodu potrzebne są dokładne narzędzia pozwalające charakteryzować chorych i przewidywać u nich przebieg choroby, a także uprzedzająco stosować odpowiednie interwencje.
      Prowadzone w Poznaniu badania mają na celu scharakteryzowanie długości telomerów oraz przebiegu klinicznego choroby w grupie dzieci i osób dorosłych z mukowiscydozą. Długość telomerów oznaczana jest metodą ilościowej reakcji polimerazy (qPCR), co wymaga znacznego stopnia precyzji. Publikacji wyników badań można spodziewać się w przyszłym roku. Tymczasem coraz wyraźniej widać, że telomery budzą szerokie zainteresowanie w środowisku naukowym i przyciągają uwagę jako potencjalne biomarkery. Ich wprowadzenie do praktyki będzie jednak wymagało licznych badań i weryfikacji przydatności w dużych grupach.
      Bibliografia
      1.     Haycock PC, Heydon EE, Kaptoge S, Butterworth AS, Thompson A, Willeit P. Leucocyte telomere length and risk of cardiovascular disease: systematic review and meta-analysis. BMJ. 8 lipiec 2014;349:g4227.

      2.     Rafie N, Golpour Hamedani S, Barak F, Safavi SM, Miraghajani M. Dietary patterns, food groups and telomere length: a systematic review of current studies. Eur J Clin Nutr. 2017;71(2):151–8.

      3.     Lin X, Zhou J, Dong B. Effect of different levels of exercise on telomere length: A systematic review and meta-analysis. J Rehabil Med. 8 lipiec 2019;51(7):473–8.

      4.     Miri M, Nazarzadeh M, Alahabadi A, Ehrampoush MH, Rad A, Lotfi MH, i in. Air pollution and telomere length in adults: A systematic review and meta-analysis of observational studies. Environ Pollut. styczeń 2019;244:636–47.

      5.     Ennour-Idrissi K, Maunsell E, Diorio C. Telomere Length and Breast Cancer Prognosis: A Systematic Review. Cancer Epidemiol Biomarkers Prev. 2017;26(1):3–10.

      6.     Astuti Y, Wardhana A, Watkins J, Wulaningsih W, PILAR Research Network. Cigarette smoking and telomere length: A systematic review of 84 studies and meta-analysis. Environ Res. 2017;158:480–9.

      7.     Niu Z, Li K, Xie C, Wen X. Adverse Birth Outcomes and Birth Telomere Length: A Systematic Review and Meta-Analysis. J Pediatr. 2019;215:64-74.e6.

      8.     Gardner M, Bann D, Wiley L, Cooper R, Hardy R, Nitsch D, i in. Gender and telomere length: systematic review and meta-analysis. Exp Gerontol. marzec 2014;51:15–27.

      9.     Jiang Y, Da W, Qiao S, Zhang Q, Li X, Ivey G, i in. Basal cortisol, cortisol reactivity, and telomere length: A systematic review and meta-analysis. Psychoneuroendocrinology. 2019;103:163–72.

      10.     Smith L, Luchini C, Demurtas J, Soysal P, Stubbs B, Hamer M, i in. Telomere length and health outcomes: An umbrella review of systematic reviews and meta-analyses of observational studies. Ageing Res Rev. 2019;51:1–10.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach.
      Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów.
      Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat.
      W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF.
      JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft.
      Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jeden z najlepszych amerykańskich pilotów myśliwców przegrał 5:0 w serii symulowanych walk powietrznych ze sztuczną inteligencją. O pilocie, który zmierzył się z SI wiemy tylko, że jego znak wywoławczy to „Banger” i ukończył on kurs instruktorski obsługi broni pokładowej, do którego dopuszczani są wyłącznie najlepsi piloci. Jego pogromca, SI autorstwa niewielkiej firmy Heron Systems, pokonał wcześniej kilka innych systemów sztucznej inteligencji.
      Symulowane walki odbywały sie w ramach prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Systemów Obronnych) programu AlphaDogfight Trials. Program składał się z czterech etapów. W pierwszym z nich osiem algorytmów SI kontrolujących myśliwiec F-16 zmierzyło się z pięcioma algorytmami stworzonymi przez naukowców z Applied Physics Laboratory na Uniwersytecie Johnsa Hopkinsa. W drugim etapie osiem wspomnianych algorytmów – autorstwa Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI i SoarTech – starło się każdy z każdym. Na tej podstawie wyłoniono cztery najlepsze algorytmy, które zmierzyły się o prawo do walki z ludzkim przeciwnikiem. W półfinale algorytm Heron Systems pokonał sztuczną inteligencję twórcy F-16, firmy Lockheed Martin.
      Tym samym SI Heron System zakwalifikował się do walki z jednym z czołowych pilotów US Air Force. Rozegrano 5 symulowanych pojedynków. Łącznie trwały one nie dłużej niż 2 minuty. Człowiek przegrał wszystkie.
      W czasie pojedynków pilot miał hełm, który dawał mu taki sam widok, jak podczas prawdziwej walki. Symulowano samoloty poruszające się z prędkością ponad 800 km/h i przeciążenia dochodzące do 9G. Każdy z wirtualnych samolotów był uzbrojony w laser, który symulował broń pokładową.
      Chociaż SI odniosła miażdżące zwycięstwo, eksperci mówią, że niekoniecznie stałoby się tak w rzeczywistej walce. Warunki eksperymentu były bowiem ściśle kontrolowane. Pułkownik Daniel Javorsek, który nadzoruje w DARPA projekt rozwojów SI pilotujących samoloty stwierdził: My piloci, nigdy nie wierzymy do końca samym symulacjom i modelom komputerowym.
      Jednym z celów prowadzenia tego typu badań jest rozwój systemów sztucznej inteligencji, które będą wspomagały pilotów w walce. Program komputerowy potrafi bowiem znacznie szybciej niż człowiek zareagować na manewry przeciwnika. Systemy SI mogą też zwiększyć możliwości wojskowych dronów, które wciąż wymagają zdalnego pilotażu.
      Jak zauważyli specjaliści, jednym z elementów, który zapewnił SI Heron Systems zwycięstwo, była umiejętność lepszego celowania podczas szybko odbywającego się pojedynku. Jednak nie tylko. Jak przyznał „Banger” system był trudnym przeciwnikiem. Standardowe manewry, jakie wykorzystują piloci myśliwców, nie działały. Pilot zauważył, że SI potrafiła znacznie łatwiej usiąść mu na ogonie, niż jest to w stanie wykonać ludzki przeciwnik.
      Przed czterema laty sensacją było doniesienie, że algorytm sztucznej inteligencji pokonał doświadczonego pilota i wykładowcę taktyki walki myśliwców, pułkownika Lee.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy z Chin zaprezentowali wersję gry go opierającą się na mechanice kwantowej. W swojej symulacji naukowcy wykorzystali splątane fotony do ustawiania kamieni na planszy, zwiększając w ten sposób trudność gry. Ich technologia może posłużyć jako pole testowe dla sztucznej inteligencji.
      Wielkim wydarzeniem końca XX wieku było pokonanie arcymistrza szachowego Garry'ego Kasparowa przez superkomputer Deep Blue. Jednak go stanowiło znacznie trudniejsze wyzwanie. Ta gra o bardzo prostych zasadach posiada bowiem więcej kombinacji niż szachy. Jednak 20 lat później, w 2016 roku dowiedzieliśmy się, że SI pokonała mistrza go.
      Jednak szachy i go to gry o tyle łatwe dla komputerów, że na bieżąco znany jest stan rozgrywki. Nie ma tutaj ukrytych elementów. Wiemy co znajduje się na planszy i co znajduje się poza nią. Zupełnie inne wyzwanie stanowią takie gry jak np. poker czy mahjong, gdzie dochodzi element losowy, nieznajomość aktualnego stanu rozgrywki – nie wiemy bowiem, co przeciwnik ma w ręku – czy też w końcu blef. Także i tutaj maszyny radzą sobie lepiej. Przed rokiem informowaliśmy, że sztuczna inteligencja wygrała w wieloosobowym pokerze.
      Xian-Min Jin z Szanghajskiego Uniwersytetu Jiao Tong i jego koledzy postanowili dodać element niepewności do go. Wprowadzili więc doń mechanikę kwantową. „Kwantowe go” zostało po raz pierwszy zaproponowane w 2016 roku przez fizyka Andre Ranchina do celów edukacyjnych. Chińczycy wykorzystali tę propozycję do stworzenia systemu, który ma podnosić poprzeczkę sztucznej inteligencji wyspecjalizowanej w grach.
      W standardowej wersji go mamy planszę z 19 liniami poziomymi i 19 pionowymi. Na przecięciach linii gracze na przemian układają swoje kamienie, starając się ograniczyć nimi jak największy obszar planszy. W kwantowej wersji go ustawiana jest natomiast para splątanych kamieni. Oba kamienie pozostają na planszy dopóty, dopóki nie zetkną się z kamieniem z sąsiadującego pola. Wówczas dochodzi do „pomiaru”, superpozycja kamieni zostaje zniszczona i na planszy pozostaje tylko jeden kamień, a nie splątana para.
      W go gracz może zbić kamienie przeciwnika wówczas, gdy ustawi swoje kamienie na wszystkich sąsiadujących z przeciwnikiem polach. Jednak by do takiej sytuacji doszło w „kwantowym go” wszystkie otoczone kamienie przeciwnika muszą być kamieniami klasycznymi, żaden z nich nie może pozostawać w superpozycji z innym kamieniem na planszy. Jednak gracze nie wiedzą, który z kamieni w jakim stanie się znajduje, dopóki nie dokonają pomiaru.
      Jin i jego koledzy wyjaśniają, że ich symulacja pozwala na dostrojenie procesu pomiaru poprzez manipulacje splątaniem. Jeśli kamienie w danej parze są splątane w sposób maksymalny, to wynik pomiaru będzie całkowicie przypadkowy, nie potrafimy przewidzieć, który z kamieni po pomiarze pozostanie na planszy. Jeśli jednak splątanie będzie mniej doskonałe, jeden z kamieni będzie miał większą szansę na pozostanie na planszy. To prawdopodobieństwo będzie znane tylko temu graczowi, do którego kamień należy. Gra traci w tym momencie swoją całkowitą nieprzewidywalność, jednak pozostaje w niej duży element niedoskonałej informacji.
      Chińczycy przekuli teorię na praktykę tworząc pary splątanych fotonów, które były wysyłane do rozdzielacza wiązki, a wynik takiego działania był mierzony za pomocą czterech wykrywaczy pojedynczych fotonów. Jeden zestaw wyników reprezentował „0” a inny „1”. W ten sposób oceniano prawdopodobieństwo zniknięcia jednej z części pary wirtualnych kamieni ustawianych na przypadkowo wybranych przecięciach linii przez internetowe boty.
      Poprzez ciągłe generowanie splątanych fotonów i przechowywaniu wyników pomiarów naukowcy zebrali w ciągu godziny około 100 milionów możliwych wyników zniknięcia stanu splątanego. Taka ilość danych pozwala na przeprowadzenie dowolnej rozgrywki w go. Uczeni, analizując rozkład zer i jedynek w czasie potwierdzili, że nie występuje znacząca korelacja pomiędzy następującymi po sobie danymi. Tym samym, dane są rzeczywiście rozłożone losowo.
      Jin mówi, że rzeczywista złożoność i poziom trudności kwantowego go pozostają kwestią otwartą. Jednak, zwiększając rozmiary wirtualnej planszy i włączając do tego splątanie, można – jego zdaniem – zwiększyć trudność samej gry do takiego stopnia, by dorównywała ona takim grom jak mahjong, gdzie większość informacji jest ukrytych. Dzięki temu kwantowe go może stać się obiecującą platformą do testowania nowych algorytmów sztucznej inteligencji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wielki sukces inżynierów z Uniwersytetu Technologiczno-Przyrodniczego w Bydgoszczy. Pierwszego lipca zespół Koła Naukowego Sonda - dr inż. Damian Ledziński, mgr inż. Sandra Śmigiel, mgr inż. Gracjan Kątek, mgr inż. Karol Hartwig i inż. Marta Gackowska - jako pierwszy w Polsce dokonał zdalnego lotu dronem online z niewyobrażalnej, jak do tej pory, odległości 333 km. Wydarzenie miało miejsce podczas tegorocznego konkursu DRONIADA GZM2020 w Katowicach.
      Dzięki wykorzystaniu chmury obliczeniowej i autorskiemu rozwiązaniu problemu, całość lotu drona była bezpośrednio sterowana i kontrolowana zza biurka znajdującego się w budynku kampusu UTP w bydgoskim Fordonie. W Katowicach dron został uruchomiony przez Dariusza Werschnera, prezesa Polskiej Izby Systemów Bezzałogowych, po czym bydgoscy naukowcy przejęli nad nim kontrolę i wykonali trzykrotnie pełną misję nad lotniskiem. Maszynę kontrolował algorytm. Zastosowane rozwiązanie umożliwia lot dronem każdego typu opartym o kontroler lotu PIXHAWK.
      Ta innowacyjna technologia tworzona jest przez zespół naukowców z Wydziału Inżynierii Mechanicznej i Wydziału Telekomunikacji, Informatyki i Elektrotechniki Uniwersytetu Technologiczno-Przyrodniczego w Bydgoszczy.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...