Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Naukowcy trenują sieci neuronowe do wykrywania uwolnień toksyn w czasie rzeczywistym

Rekomendowane odpowiedzi

W sytuacji, gdy dochodzi do wykrycia uwolnienia substancji niebezpiecznych, najważniejsze jest szybkie i precyzyjne zlokalizowanie źródła uwolnienia oraz przewidzenie kierunku rozchodzenia się substancji. Używane obecnie modele dyspersyjne wymagają bardzo dużych zasobów obliczeniowych. Mogą jednak zostać zastąpione przez modele bazujące na Sztucznych Sieciach Neuronowych, SSN (ang. Artificial Neutral Networks, ANN), co pozwoli na monitorowanie skażenia w czasie rzeczywistym. W badaniu możliwości wykorzystania takich modeli uczestniczą naukowcy z Departamentu Układów Złożonych NCBJ.

Obszar odpowiadający części centralnego Londynu, będący podstawą do przygotowania danych dla SSN, jak również wykorzystany w eksperymencie DAPPLE (skrzyżowanie Marylebone Road i Gloucester Place, 51.5218N 0.1597W)

Od kilku lat w Centrum Analiz Zagrożeń MANHAZ prowadzone są prace nad algorytmami umożliwiającymi lokalizację źródła skażenia, w oparciu o, pochodzące z sieci detektorów, dane na temat stężeń uwolnionej substancji. Głównym zadaniem istniejących we wszystkich miastach grup reagowania kryzysowego, jest szybkie odpowiadanie na wszelkie zagrożenia dla ludzi i środowiska. Podstawowym czynnikiem decydującym o powodzeniu lub niepowodzeniu danego działania jest czas reakcji.

Obecnie różne substancje chemiczne są używane w większości dziedzin przemysłu, co sprawia, że transport i przechowywanie materiałów toksycznych wiąże się z ciągłym ryzykiem uwolnienia ich do atmosfery i do zajścia skażenia. Dużym wyzwaniem są sytuacje, w których czujniki rozmieszczone na terenie miasta zgłaszają niezerowe stężenie niebezpiecznej substancji, której źródło nie jest znane. W takich przypadkach ważne jest, aby system był w stanie w czasie rzeczywistym oszacować najbardziej prawdopodobną lokalizację źródła zanieczyszczenia, wyłącznie w oparciu o dane o stężeniu, pochodzące z sieci czujników.

Algorytmy, które radzą sobie z zadaniem można podzielić na dwie kategorie. Pierwszą są algorytmy opierające się na podejściu wstecznym, czyli analizie problemu zaczynając od jego ostatniego etapu, ale są one dedykowane obszarom otwartym lub problemowi w skali kontynentalnej. Drugą kategorię stanowią algorytmy, które bazują na próbkowaniu parametrów odpowiedniego modelu dyspersji (parametrów takich, jak lokalizacja źródła), aby wybrać ten, który daje najmniejszą różnicę między danymi wyjściowymi, a rzeczywistymi pomiarami stężeń, wykonywanymi przez sieć detektorów. Podejście to sprowadza się do wykorzystania algorytmów próbkowania, w celu znalezienia optymalnych parametrów modelu dyspersji, na podstawie porównania wyników modelu i detekcji zanieczyszczeń.

Ze względu na efektywność zastosowanego algorytmu skanowania parametrów, każda rekonstrukcja wymaga wielokrotnych uruchomień modelu. Rekonstrukcja w terenie zurbanizowanym, która jest głównym przedmiotem zainteresowania badaczy, wymaga zaawansowanych modeli dyspersji, uwzględniających turbulencje pola wiatru wokół budynków. Najbardziej niezawodne i dokładne są modele obliczeniowej dynamiki płynów (ang. Computational Fluid Dynamics, CFD). Stanowią one jednak bardzo wymagające obliczeniowo wyzwanie. Musimy zdawać sobie sprawę z tego, że aby znaleźć najbardziej prawdopodobne źródło skażenia, model dyspersji trzeba uruchomić dziesiątki tysięcy razy. Oznacza to, że użyty model musi być szybki, aby można go było zastosować w systemie awaryjnym, pracującym w czasie rzeczywistym. Zakładając na przykład, że średni czas potrzebny na wykonanie samych obliczeń modelu dyspersji w terenie zurbanizowanym wynosi 10 minut, pełna rekonstrukcja z jego wykorzystaniem będzie trudna do przeprowadzenia w dopuszczalnie krótkim czasie.

Rozwiązaniem tego problemu, nad którym pracuje dr Anna Wawrzyńczak-Szaban z Centrum Analiz Zagrożeń MANHAZ w NCBJ, przy współpracy z Instytutem Informatyki UPH w Siedlcach, jest wykorzystanie w systemie rekonstrukcji sztucznej sieci neuronowej, zamiast modelu dyspersji, w terenie zurbanizowanym. Chodzi o to, by sztuczna sieć neuronowa była skuteczna w symulacji transportu zanieczyszczeń w powietrzu, na terenie zurbanizowanym. Jeśli to się powiedzie, SSN może działać jako model dyspersji w systemie lokalizującym w czasie rzeczywistym źródło skażenia. Podstawową zaletą SSN jest bardzo krótki czas odpowiedzi – opisuje dr Anna Wawrzyńczak-Szaban. Oczywiście SSN musi być wytrenowana w stałej topologii miasta, przy użyciu rzeczywistych warunków meteorologicznych z wykorzystaniem odpowiedniego i zwalidowanego modelu dyspersji. Proces ten wymaga wielu symulacji, służących jako zestawy danych treningowych dla SSN. Proces uczenia sieci SSN jest kosztowny obliczeniowo, ale po przeszkoleniu, metoda byłaby szybkim narzędziem do szacowania stężeń punktowych dla danego źródła zanieczyszczenia.

W pracy opublikowanej przez naukowców1) przedstawiono wyniki trenowania sieci neuronowej w oparciu o dane, uczące rozprzestrzeniania się toksyn w powietrzu w centrum Londynu, wykorzystując domenę testową eksperymentu polowego DAPPLE2). Dane uczące SSN wygenerowano za pomocą modelu dyspersji Quick Urban & Industrial Complex (QUIC). Przetestowaliśmy różne struktury SSN, czyli liczby jej warstw, neuronów i funkcji aktywacji. Wykonane testy potwierdziły, że wyszkolona SSN może w wystarczającym stopniu symulować turbulentny transport toksyn, unoszących się w powietrzu na obszarze silnie zurbanizowanym – objaśnia dr Anna Wawrzyńczak-Szaban. Ponadto pokazaliśmy, że wykorzystując SSN można skrócić czas odpowiedzi systemu rekonstrukcji. Czas wymagany, przez prezentowaną w pracy SSN, do oszacowania trzydziestominutowych stężeń gazu w 196 000 punktów sensorowych wyniósł 3 s W przypadku modelu QUIC, czas został oszacowany jako co najmniej 300 s, co daje nam 100-krotne przyspieszenie obliczeń. Biorąc to pod uwagę, czas rekonstrukcji w rzeczywistej sytuacji awaryjnej może być krótki, co skutkuje szybką lokalizacją źródła zanieczyszczenia.

W trakcie badań okazało się, że zapewnienie trenowanej SSN pełnej informacji prowadzi czasami do pewnych wyzwań obliczeniowych. Na przykład w pojedynczej symulacji rozproszenia toksyn w powietrzu, na obszarze miejskim, nawet 90% odczytów z czujników może mieć wartość zerową. Prowadzi to do sytuacji, w której postać docelowa SSN obejmuje kilka procent wartości dodatnich i większość zer. W efekcie SSN skupia się na tym, czego jest więcej – na zerach, co sprawia, że nie dostosowuje się do szukanych elementów badanego problemu. Uwzględniając zerową wartość koncentracji w danych treningowych, musimy zmierzyć się z kilkoma pytaniami: jak uwzględnić zero? Jak przeskalować dany przedział, aby „ukryć” zera? Czy w ogóle uwzględniać zera? Czy ograniczyć ich liczbę? – podkreśla dr Wawrzyńczak-Szaban.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie.
      Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna.
      W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB).
      Ograniczenie liczby bolesnych biopsji
      Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych.
      Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć.
      Sieci neuronowe zastąpią lekarzy?
      W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB.
      Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe.
      Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość.
      1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny
      2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia.
      3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów.
      4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty.
      5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów.
      Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji.
      Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny.
      Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów.
      System opracowany przez naukowców, lekarzy i studentów
      Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej.
      W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku.
      Sztuczna inteligencja pomocna w ocenie złośliwości guzów
      System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych.
      Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych.
      To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji.
      Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów.
      Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości.
      Pierwsze testy w gdańskim szpitalu
      System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego.
      System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Młode dziewczyny, które stykają się z dymem papierosowym, mogą mieć w przyszłości problemy z poczęciem. Naukowcy z University of Newcastle wykazali bowiem na modelu mysim, że 3 związki z dymu papierosowego wpływają na geny uruchamiające apoptozę, czego skutkiem jest przedwczesne starzenie jajników i wytwarzanie dysfunkcyjnych jajeczek.
      Nasze [3-letnie] badania laboratoryjne wykazały, że wdychanie tych toksyn na wczesnych etapach życia może prowadzić do spadku jakości i liczby komórek jajowych u samic - podkreśla Eileen McLaughlin.
      Obecnie pani profesor ubiega się o fundusze na zbadanie kwestii, w jaki sposób palenie przez ciężarną wpływa na płodność przyszłych pokoleń. Sądzimy, że kontakt z tymi toksynami na etapie życia płodowego [także] zmniejsza jakość i liczbę oocytów, a obniżona płodność może być przekazywana z pokolenia na pokolenie. W odniesieniu do ludzi oznaczałoby to, że jeśli twoja babcia paliła, gdy była w ciąży z twoją matką lub w jej pobliżu, gdy ta była dzieckiem, ty i prawdopodobnie twoje dzieci możecie się znajdować w grupie podwyższonego ryzyka zmniejszonej płodności.
    • przez KopalniaWiedzy.pl
      U wielu bakterii wykształciła się lekooporność. Tempo jej narastania jest wyższe od tempa opracowywania nowych antybiotyków. Naukowcy z University of Wisconsin–Milwaukee (UMW) opracowali jednak coś nowego: związek, który blokuje działanie występującego u Gram-ujemnych bakterii systemu sekrecji typu III (ang. type III secretion system, T3SS). Jego część przypomina żądło, za pomocą którego patogeny wprowadzają do komórek gospodarza białka efektorowe, np. toksyny. Eliminując wypustkopodobne filamenty, sprawiamy, że bakterie nie mają nam jak zagrozić.
      Prof. Ching-Hong Yang z UWM i prof. Xin Chen z Changzhou University przetestowali nowy związek na dwóch gatunkach bakterii atakujących rośliny i na pałeczkach ropy błękitnej, które jako bakterie oportunistyczne wywołują zakażenie u osób z obniżoną odpornością, np. pacjentów z nowotworami albo AIDS. Zauważyli, że jest skuteczny w odniesieniu do wszystkich 3 bakterii.
      Wynikami zespołu zainteresowały się dwie firmy, które prowadzą testy oryginalnej substancji i pochodnych w nadziei na ich komercjalizację.
      Z relacji prasowej uniwersytetu wynika, że naukowcy uzyskali więcej niż jeden tego typu związek. Omówiono jednak tylko ten działający na T3SS. Białka wchodzące w skład systemu można podzielić na 2 grupy: białka zakotwiczone w błonie i zewnątrzkomórkowe wypustkopodobne filamenty. Te ostatnie nazywa się niekiedy kanałem translokującym. Patogeny z T3SS są bardzo sprytne. Wytwarzają wąski wyrostek, który działa jak igła [...]. Komórka gospodarza nie umie rozpoznać igły patogenu dlatego mechanizmy obronne nie zostają uruchomione - wyjaśnia Yang.
      Mimo że Yang i Chen testowali swój związek tylko na 3 gatunkach bakterii, wierzą, że zadziała on na o wiele szersze spektrum. T3SS występuje bowiem u szeregu bakterii Gram-ujemnych, np. pałeczek z rodzaju Shigella, które wywołują zatrucia pokarmowe, E. coli czy chlamydii.
    • przez KopalniaWiedzy.pl
      Najbardziej toksyczni, a więc najbardziej jaskrawo ubarwieni przedstawiciele rodziny drzewołazowatych są również najbardziej sprawni fizycznie.
      Skóra tych płazów zawiera alkaloidy. Jak tłumaczy Juan Santos z National Evolutionary Synthesis Center w Durham, jaskrawe wzory stanowią dla drapieżników ostrzeżenie w stylu kontrastujących żółtych i czarnych pasów na odwłoku osy – uwaga, jestem niejadalny(a).
      W lasach Kolumbii, Ekwadoru, Wenezueli i Panamy zespół Santosa badał ok. 500 drzewołazów, które reprezentowały ponad 50 gatunków. Wszystkie poddano testom sprawnościowym. Naukowcy oceniali pobór tlenu przy ćwiczeniach z użyciem obracającej się plastikowej rurki (przypominała ona kołowrotek dla chomików). Wyliczano wskaźnik przemiany materii – spoczynkowy i po 4 minutach ćwiczeń. Okazało się, że bardziej jaskrawo ubarwione i toksyczne gatunki mają większy pułap tlenowy (VO2 max.) od jednolicie ubarwionych łagodnych płazów. Są w stanie lepiej wykorzystać tlen z każdego wdechu i skuteczniej transportują go do mięśni, całkiem jak dobrze wytrenowani sportowcy – tłumaczy Santos.
      Toksyczne drzewołazy zawdzięczają swoją superformę zwyczajom żywieniowym. Nie produkują bowiem trucizn, ale czerpią je z pokarmu. Zdobywają alkaloidy, zjadając mrówki i roztocze – dodaje David Cannatella z Uniwersytetu Teksańskiego. Z powodu tak ograniczonego menu płazy muszą się przemieszczać daleko i na dużym obszarze, a bez dobrej formy jest to niemożliwe. Nietoksyczne drzewołazy prowadzą bardziej osiadły tryb życia i polują na wszystkie owady, które się pojawią w ich zasięgu.
      Połączenie ubarwienia ostrzegawczego, wyspecjalizowanej diety i sprawności fizycznej wyewoluowało u drzewołazów kilkakrotnie (w dodatku niezależnie). Czasem tężyzna fizyczna poprzedzała zwrot ku specyficznemu menu, umożliwiała bowiem schwytanie czy znalezienie określonych pokarmów.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...