Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Profesor Braziewicz: AI w medycynie nuklearnej wkroczyła na III i IV poziom 5-stopniowej skali

Rekomendowane odpowiedzi

W medycynie nuklearnej sztuczna inteligencja wkroczyła już na III i IV poziom w pięciostopniowej skali. Oznacza ona oszczędność czasu, szansę uniknięcia błędów ludzkich i skuteczniejsze terapie dla pacjentów – ocenia prof. Janusz Braziewicz z Polskiego Towarzystwa Medycyny Nuklearnej.

Wkraczająca do nowoczesnej medycyny sztuczna inteligencja budzi skrajne emocje: w środowisku medycznym jak i w społeczeństwie jedni wiążą z nią duże nadzieje, inni mają obawy i wątpliwości. Tak jest np. z medycyną nuklearną, w której wykorzystywane są nowoczesne technologie.

Prof. Janusz Braziewicz, kierownik Zakładu Medycyny Nuklearnej z Ośrodkiem PET w Świętokrzyskim Centrum Onkologii twierdzi, że zaawansowanie automatyzacji i sztucznej inteligencji w medycynie nuklearnej jest już na tyle duże, ze wkroczyło na III i IV poziom w pięciostopniowej skali.

Pierwszy poziom oznacza jedynie działania manualne, drugi – maszynowo-manualne, a trzeci – zautomatyzowane działania maszynowo-manualne. Na czwartym poziomie pojawia się automatyzacja, ale „z ludzką ręką”, piąty oznacza pełną automatyzację.

W diagnostyce obrazowej wygląda to w ten sposób, że na poziomie III (warunkowej automatyzacji) skaner czy system opisowy pod wpływem operatora dostosowuje się do narzucanych mu warunków i wykonuje zlecone zadanie.

Obecnie obserwujemy duże przyspieszenie technologiczne i wejście na poziom IV (wysokiej automatyzacji), kiedy to system automatycznie przetwarza samodzielnie pozyskane dane i dostarcza specjaliście wstępnie przeanalizowane informacje. Ma to miejsce na przykład wówczas, kiedy system zeskanuje ułożonego na stole skanera PET/TK pacjenta i na podstawie swego rodzaju skanu topogramowego, w oparciu o analizę danych anatomicznych chorego zaproponuje wykonanie skanu PET i tomografu komputerowego z uwzględnieniem wskazania klinicznego i sylwetki pacjenta – wyjaśnia w informacji przekazanej PAP prof. Braziewicz, członek Zarządu Polskiego Towarzystwa Medycyny Nuklearnej.

Odbywa się to z użyciem automatycznie dostosowanych parametrów akwizycji, z minimum wymaganej dawki promieniowania ze strony tomografu komputerowego. Algorytm po stronie PET ustala: szybkość przesuwu łóżka podczas płynnego skanowania różnych części ciała pacjenta, zastosowanie różnych matryc rekonstrukcyjnych, zastosowanie bramkowania oddechowego dla odpowiedniego obszaru klatki piersiowej i tułowia.

Według prof. Braziewicza bezzasadne są zatem obawy, że komputery zastąpią lekarzy. W przypadku diagnostyki obrazowej stają się one wręcz niezbędne. Powodem jest choćby lawinowy wzrost diagnostycznych badań obrazowych, w tym również z zakresu medycyny nuklearnej. Jedynie w latach 2000-2010 liczba badań tomografii komputerowej i rezonansu magnetycznego wzrosła dziesięciokrotnie. Z kolei w medycynie nuklearnej taki gwałtowny wzrost liczby badań SPECT i PET przypada na okres po 2010 r.

W ślad za tym nie następuje niestety proporcjonalny wzrost liczby dostępnych lekarzy specjalistów, którzy mogliby je szybko i rzetelnie przeprowadzić. Brakuje także wyszkolonych techników, korzystających z zaawansowanych metod akwizycji z zastosowaniem narzędzi, jakie oferuje dany skaner. Efektem jest przeciążenie ilością pracy poszczególnych grup specjalistów i często coraz dłuższy czas oczekiwania na opisanie badań. Co istotne, presja obniża jakość pracy. Jak pokazują badania, jeśli skróci się o 50 proc. czas na interpretację badania radiologicznego, to stosunek błędów interpretacyjnych wzrośnie o niemal 17 proc. – zaznacza prof. Janusz Braziewicz.

Sztuczna inteligencja w coraz bardziej skomplikowanej i wymagającej diagnostyce obrazowej może zatem usprawnić i wspomóc pracę lekarza. Wdrożenia algorytmów opartych na Artificial Intelligence (AI) przynoszą oszczędność czasu i szansę na pełną standaryzację procedur, ale także na uniknięcie błędów ludzkich i skuteczniejsze, spersonalizowane terapie dla pacjentów – twierdzi specjalista.

Obecnie medycy nuklearni rozwijają nowy trend teranostyki, który wydaje się być przyszłością personalizowanej medycyny poprzez ścisłe połączenie diagnostyki i terapii w celu dobrania do potrzeb konkretnego pacjenta celowanego leczenia. W obszarze sztucznej inteligencji medycy nuklearni coraz częściej wspierają proces terapii, pomagając w ocenie trafności i zasadności zaleconego leczenia już w początkowej jego fazie. Nie bez znaczenia jest w tym kontekście wykorzystywanie hybrydowych badań PET/CT na przykład w planowaniu radioterapii – tłumaczy prof. Janusz Braziewicz.

Sztuczna inteligencja określa proces, w którym maszyna, czyli komputer, uczy się i naśladuje funkcje poznawcze specyficzne dla człowieka, aby wykonywać zadania, jakie zwyczajowo wykonywane są przez ludzki umysł: rozpoznawanie obrazów, identyfikacja różnic czy stawianie logicznych wniosków i prognozowanie. W procesie deep learning komputer już nie organizuje danych i nie wykonuje wcześniej zdefiniowanych ciągów równań, ale zbiera podstawowe parametry dotyczące tych danych i jest tak zaprogramowany, że przygotowuje się do samodzielnego uczenia się przez rozpoznawanie wzorców przy użyciu wielu kolejnych warstw przetwarzania.

Trzeba mieć zatem świadomość, że algorytmy AI będą tak dobre, jak dane, na których były trenowane. Wyzwaniem będzie zatem zgromadzenie odpowiednio opracowanych dużych zestawów danych oraz odpowiednio wydajnych centrów obliczeniowych – uważa przedstawiciel Polskiego Towarzystwa Medycyny Nuklearnej.

Jego zdaniem szanse zastosowania sztucznej inteligencji w medycynie to przede wszystkim digitalizacja wszystkich danych dotyczących konkretnego pacjenta, z uwzględnieniem takich aspektów, jak miejsce zamieszkania, historia chorób w rodzinie, dotychczasowe hospitalizacje, podejmowane wcześniej terapie lekowe i obecnie przyjmowane leki, styl życia, rodzaj wykonywanej pracy, kondycja psychofizyczna.

Ta ilość danych może być przetworzona przez wydajne komputery. Jeśli maszyny będą miały zaimplementowane algorytmy deep learning, jest szansa, że wesprą specjalistów w szybszej i trafniejszej diagnostyce oraz lepszej opiece farmakologicznej. Korzyści z wdrożeń sztucznej inteligencji może odnieść zatem cały system opieki zdrowotnej, w tym: świadczeniodawca, lekarz, ale przede wszystkim – sam pacjent – uważa specjalista.

Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać. Tym bardziej, że w nowoczesnych rozwiązaniach nie mówimy już o wielkości danych generowanych przy badaniach i dalej poddawanych processingowi w gigabajtach, terabajtach czy nawet petabajtach. Bardzo szybko nadchodzi era eksabajtów danych – dodaje prof. Janusz Braziewicz.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, KopalniaWiedzy.pl napisał:

Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać.

Ha ha, to jakby powiedzieć że taksówkarze którzy wykorzystują autonomiczne samochody zastąpią tych którzy ich nie wykorzystują :P
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
      Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
      W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
      Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
      Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
      Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Leeds powstał system sztucznej inteligencji (SI), który analizuje skany oczu wykonywane podczas rutynowych wizyt u okulisty czy optyka i wskazuje osoby narażone na... wysokie ryzyko ataku serca. System analizuje zmiany w miniaturowych naczyniach krwionośnych siatkówki, o kórych wiemy, że wskazują na szerszy problem z układem krążenia.
      Specjaliści z Leeds wykorzystali techniki głębokiego uczenia się, by przeszkolić SI w automatycznym odczytywaniu skanów oraz wyławianiu osób, które w ciągu najbliższego roku mogą doświadczyć ataku serca.
      System, który został opisany na łamach Nature Machine Intelligence, wyróżnia się dokładnością rzędu 70–80 procent i zdaniem jego twórców może być wykorzystany przy diagnostyce chorób układu krążenia.
      Choroby układu krążenia, w tym ataki serca, to główne przyczyny zgonów na całym świecie i druga przyczyna zgonów w Wielkiej Brytanii. To choroby chroniczne, obniżające jakość życia. Ta technika może potencjalnie zrewolucjonizować diagnostykę. Skanowanie siatkówki to tani i rutynowy proces stosowany w czasie wielu badań oczu, mówi profesor Alex Frangi, który nadzorował rozwój nowego systemu. Osoby badane przez okulistę czy optometrystę mogą niejako przy okazji dowiedzieć się, czy nie rozwija się u nich choroba układu krążenia. Dzięki temu leczenie można będzie zacząć wcześniej, zanim pojawią się inne objawy.
      System sztucznej inteligencji trenowano na danych okulistycznych i kardiologicznych ponad 5000 osób. Uczył się odróżniania stanów patologicznych od prawidłowych. Gdy już się tego nauczył, na podstawie samych skanów siatkówki był w stanie określić wielkość oraz wydajność pracy lewej komory serca. Powiększona komora jest powiązana z większym ryzykiem chorób serca. Następnie SI, łącząc dane o stanie lewej komory serca z informacjami o wieku i płci pacjenta, może przewidzieć ryzyko ataku serca w ciągu najbliższych 12 miesięcy.
      Obecnie rozmiar i funkcjonowanie lewej komory serca jesteśmy w stanie określić za pomocą echokardiografii czy rezonansu magnetycznego. To specjalistyczne i kosztowne badania, które są znacznie gorzej dostępne niż badania prowadzone w gabinetach okulistycznych czy optycznych. Nowy system nie tylko obniży koszty i poprawi dostępność wczesnej diagnostyki kardiologicznej, ale może odegrać olbrzymią rolę w krajach o słabiej rozwiniętym systemie opieki zdrowotnej, gdzie specjalistyczne badania są bardzo trudno dostępne.
      Ten system sztucznej inteligencji to wspaniałe narzędzie do ujawniania wzorców istniejących w naturze. I właśnie to robi, łączy wzorce zmian w siatkówce ze zmianami w sercu, cieszy się profesor Sven Plein, jeden z autorów badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zróżnicowanie komórek mózgowych może prowadzić do szybszego uczenia się, odkryli naukowcy z Imperial College London (ICL). Spostrzeżenie to może zwiększyć wydajność systemów sztucznej inteligencji. Uczeni zauważyli, że gdy w symulowanych sieciach neuronowych indywidualnie dobierali właściwości elektryczne poszczególnych komórek, sieci takie uczyły się szybciej, niż sieci złożone z komórek o identycznych parametrach.
      Okazało się również, że gdy mamy zróżnicowane komórki, sieć neuronowa potrzebuje ich mniej, a całość zużywa mniej energii niż sieć o identycznych komórkach.
      Zdaniem autorów badań, może to wyjaśniać, dlaczego mózgi tak efektywnie potrafią się uczyć. Mózg musi być wydajny energetycznie, a jednocześnie zdolnym do rozwiązywania złożonych zadań. Nasza praca sugeruje, że zróżnicowanie neuronów – zarówno w mózgach jak i w systemach sztucznej inteligencji – pozwala spełnić oba warunki, mówi główny autor badań, doktorant Nicolas Perez z Wydziału Inżynierii Elektrycznej i elektronicznej.
      Odkrycie powinno też zachęcić twórców sieci neuronowych do budowania ich tak, by były bardziej podobne do mózgu. Nasze mózgi składają się z neuronów. Pozornie są one identyczne, ale przy bliższym przyjrzeniu się, widoczne są liczne różnice. Z kolei każda komórka sztucznych sieci neuronowych jest identyczna, różnią się one tylko połączeniami. Pomimo dużych postępów w rozwoju systemów sztucznej inteligencji, bardzo daleko im do mózgów. Dlatego też uczeni z ICL zastanawiali się, czy przyczyną nie jest brak zróżnicowania komórek sztucznych sieci neuronowych.
      Rozpoczęli więc badania, w ramach których emulowali różne właściwości komórek składających się na siec sztucznej inteligencji. Zauważyli, że zróżnicowanie komórek spowodowało zwiększenie szybkości uczenia się i spadek zapotrzebowania na energię. Ewolucja dała nam niesamowicie funkcjonujący mózg. Dopiero zaczynamy rozumieć, jak on działa, stwierdził doktor Dan Goodman.
      W ramach badań uczeni manipulowali „stałą czasową”, czyli tym, jak szybko każda komórka sztucznej sieci neuronowej decyduje, co ma zrobić w zależności od tego, co robią połączone z nią komórki. Niektóre z tak manipulowanych komórek podejmowały decyzję bardzo szybko, natychmiast po tym, jak działania podjęły komórki z nimi połączone. Inne zaś odczekały chwilę i podejmowały decyzję na podstawie tego, co przez pewien czas robiły komórki z nimi połączone.
      Po zróżnicowaniu „stałej czasowej” swoich komórek, naukowcy przeprowadzili zestaw testów dla uczenia maszynowego się, takich jak rozpoznawanie gestów, pogrupowanie ubrań czy ręcznie napisanych cyfr oraz zidentyfikowanie wypowiadanych komend oraz cyfr.
      Eksperymenty pokazały, że połączenie komórek o różnej „stałej czasowej” powoduje, że cała sieć lepiej rozwiązuje złożone zadania. Okazało się przy okazji, że najlepiej sprawuje się sieć o takiej konfiguracji, której zróżnicowanie jest najbliższe zróżnicowaniu komórek w mózgu. To z kolei sugeruje, że nasz mózg ewoluował w kierunku osiągnięcia najlepszego poziomu zróżnicowania dla optymalnego uczenia się.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...