Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' sieci neuronowe' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 3 wyniki

  1. W sytuacji, gdy dochodzi do wykrycia uwolnienia substancji niebezpiecznych, najważniejsze jest szybkie i precyzyjne zlokalizowanie źródła uwolnienia oraz przewidzenie kierunku rozchodzenia się substancji. Używane obecnie modele dyspersyjne wymagają bardzo dużych zasobów obliczeniowych. Mogą jednak zostać zastąpione przez modele bazujące na Sztucznych Sieciach Neuronowych, SSN (ang. Artificial Neutral Networks, ANN), co pozwoli na monitorowanie skażenia w czasie rzeczywistym. W badaniu możliwości wykorzystania takich modeli uczestniczą naukowcy z Departamentu Układów Złożonych NCBJ. Obszar odpowiadający części centralnego Londynu, będący podstawą do przygotowania danych dla SSN, jak również wykorzystany w eksperymencie DAPPLE (skrzyżowanie Marylebone Road i Gloucester Place, 51.5218N 0.1597W) Od kilku lat w Centrum Analiz Zagrożeń MANHAZ prowadzone są prace nad algorytmami umożliwiającymi lokalizację źródła skażenia, w oparciu o, pochodzące z sieci detektorów, dane na temat stężeń uwolnionej substancji. Głównym zadaniem istniejących we wszystkich miastach grup reagowania kryzysowego, jest szybkie odpowiadanie na wszelkie zagrożenia dla ludzi i środowiska. Podstawowym czynnikiem decydującym o powodzeniu lub niepowodzeniu danego działania jest czas reakcji. Obecnie różne substancje chemiczne są używane w większości dziedzin przemysłu, co sprawia, że transport i przechowywanie materiałów toksycznych wiąże się z ciągłym ryzykiem uwolnienia ich do atmosfery i do zajścia skażenia. Dużym wyzwaniem są sytuacje, w których czujniki rozmieszczone na terenie miasta zgłaszają niezerowe stężenie niebezpiecznej substancji, której źródło nie jest znane. W takich przypadkach ważne jest, aby system był w stanie w czasie rzeczywistym oszacować najbardziej prawdopodobną lokalizację źródła zanieczyszczenia, wyłącznie w oparciu o dane o stężeniu, pochodzące z sieci czujników. Algorytmy, które radzą sobie z zadaniem można podzielić na dwie kategorie. Pierwszą są algorytmy opierające się na podejściu wstecznym, czyli analizie problemu zaczynając od jego ostatniego etapu, ale są one dedykowane obszarom otwartym lub problemowi w skali kontynentalnej. Drugą kategorię stanowią algorytmy, które bazują na próbkowaniu parametrów odpowiedniego modelu dyspersji (parametrów takich, jak lokalizacja źródła), aby wybrać ten, który daje najmniejszą różnicę między danymi wyjściowymi, a rzeczywistymi pomiarami stężeń, wykonywanymi przez sieć detektorów. Podejście to sprowadza się do wykorzystania algorytmów próbkowania, w celu znalezienia optymalnych parametrów modelu dyspersji, na podstawie porównania wyników modelu i detekcji zanieczyszczeń. Ze względu na efektywność zastosowanego algorytmu skanowania parametrów, każda rekonstrukcja wymaga wielokrotnych uruchomień modelu. Rekonstrukcja w terenie zurbanizowanym, która jest głównym przedmiotem zainteresowania badaczy, wymaga zaawansowanych modeli dyspersji, uwzględniających turbulencje pola wiatru wokół budynków. Najbardziej niezawodne i dokładne są modele obliczeniowej dynamiki płynów (ang. Computational Fluid Dynamics, CFD). Stanowią one jednak bardzo wymagające obliczeniowo wyzwanie. Musimy zdawać sobie sprawę z tego, że aby znaleźć najbardziej prawdopodobne źródło skażenia, model dyspersji trzeba uruchomić dziesiątki tysięcy razy. Oznacza to, że użyty model musi być szybki, aby można go było zastosować w systemie awaryjnym, pracującym w czasie rzeczywistym. Zakładając na przykład, że średni czas potrzebny na wykonanie samych obliczeń modelu dyspersji w terenie zurbanizowanym wynosi 10 minut, pełna rekonstrukcja z jego wykorzystaniem będzie trudna do przeprowadzenia w dopuszczalnie krótkim czasie. Rozwiązaniem tego problemu, nad którym pracuje dr Anna Wawrzyńczak-Szaban z Centrum Analiz Zagrożeń MANHAZ w NCBJ, przy współpracy z Instytutem Informatyki UPH w Siedlcach, jest wykorzystanie w systemie rekonstrukcji sztucznej sieci neuronowej, zamiast modelu dyspersji, w terenie zurbanizowanym. Chodzi o to, by sztuczna sieć neuronowa była skuteczna w symulacji transportu zanieczyszczeń w powietrzu, na terenie zurbanizowanym. Jeśli to się powiedzie, SSN może działać jako model dyspersji w systemie lokalizującym w czasie rzeczywistym źródło skażenia. Podstawową zaletą SSN jest bardzo krótki czas odpowiedzi – opisuje dr Anna Wawrzyńczak-Szaban. Oczywiście SSN musi być wytrenowana w stałej topologii miasta, przy użyciu rzeczywistych warunków meteorologicznych z wykorzystaniem odpowiedniego i zwalidowanego modelu dyspersji. Proces ten wymaga wielu symulacji, służących jako zestawy danych treningowych dla SSN. Proces uczenia sieci SSN jest kosztowny obliczeniowo, ale po przeszkoleniu, metoda byłaby szybkim narzędziem do szacowania stężeń punktowych dla danego źródła zanieczyszczenia. W pracy opublikowanej przez naukowców1) przedstawiono wyniki trenowania sieci neuronowej w oparciu o dane, uczące rozprzestrzeniania się toksyn w powietrzu w centrum Londynu, wykorzystując domenę testową eksperymentu polowego DAPPLE2). Dane uczące SSN wygenerowano za pomocą modelu dyspersji Quick Urban & Industrial Complex (QUIC). Przetestowaliśmy różne struktury SSN, czyli liczby jej warstw, neuronów i funkcji aktywacji. Wykonane testy potwierdziły, że wyszkolona SSN może w wystarczającym stopniu symulować turbulentny transport toksyn, unoszących się w powietrzu na obszarze silnie zurbanizowanym – objaśnia dr Anna Wawrzyńczak-Szaban. Ponadto pokazaliśmy, że wykorzystując SSN można skrócić czas odpowiedzi systemu rekonstrukcji. Czas wymagany, przez prezentowaną w pracy SSN, do oszacowania trzydziestominutowych stężeń gazu w 196 000 punktów sensorowych wyniósł 3 s W przypadku modelu QUIC, czas został oszacowany jako co najmniej 300 s, co daje nam 100-krotne przyspieszenie obliczeń. Biorąc to pod uwagę, czas rekonstrukcji w rzeczywistej sytuacji awaryjnej może być krótki, co skutkuje szybką lokalizacją źródła zanieczyszczenia. W trakcie badań okazało się, że zapewnienie trenowanej SSN pełnej informacji prowadzi czasami do pewnych wyzwań obliczeniowych. Na przykład w pojedynczej symulacji rozproszenia toksyn w powietrzu, na obszarze miejskim, nawet 90% odczytów z czujników może mieć wartość zerową. Prowadzi to do sytuacji, w której postać docelowa SSN obejmuje kilka procent wartości dodatnich i większość zer. W efekcie SSN skupia się na tym, czego jest więcej – na zerach, co sprawia, że nie dostosowuje się do szukanych elementów badanego problemu. Uwzględniając zerową wartość koncentracji w danych treningowych, musimy zmierzyć się z kilkoma pytaniami: jak uwzględnić zero? Jak przeskalować dany przedział, aby „ukryć” zera? Czy w ogóle uwzględniać zera? Czy ograniczyć ich liczbę? – podkreśla dr Wawrzyńczak-Szaban. « powrót do artykułu
  2. Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie. Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB). Ograniczenie liczby bolesnych biopsji Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych. Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć. Sieci neuronowe zastąpią lekarzy? W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB. Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe. Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość. 1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny 2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia. 3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów. 4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty. 5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa.   « powrót do artykułu
  3. Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów. Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji. Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny. Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów. System opracowany przez naukowców, lekarzy i studentów Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej. W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku. Sztuczna inteligencja pomocna w ocenie złośliwości guzów System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych. Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych. To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji. Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów. Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości. Pierwsze testy w gdańskim szpitalu System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego. System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce. « powrót do artykułu
×
×
  • Dodaj nową pozycję...