Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' algorytmy' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 2 wyniki

  1. NCBJ koordynuje polski udział w największym w dotychczasowej historii przedsięwzięciu astronomii obserwacyjnej. W polu widzenia teleskopu budowanego w Chile znajdzie się jednorazowo obszar 40-krotnie większy od tarczy Księżyca. Obserwacje zaplanowane na 10 lat dostarczą m.in. danych o obiektach zmiennych. Naukowcy z NCBJ działający w ramach zespołu ASTROdust już dziś przygotowują algorytmy, które wzbogacą zestaw informacji pozyskanych z obserwacji. We współczesnej astrofizyce i kosmologii obserwacyjnej bardzo istotną rolę pełnią duże przeglądy nieba. Największym obecnie tego typu przeglądem w zakresie optycznym jest SDSS (ang. Sloan Digital Sky Survey), pokrywający ok. 35% całej sfery niebieskiej i obejmujący głównie Wszechświat lokalny. Dalej – czy też głębiej, jak mówią astronomowie – z pokryciem wynoszącym ~1/3 obszaru obejmowanego przez SDSS, sięga powstający obecnie DES (ang. Dark Energy Survey). Przeglądy te mają jednak podstawową wadę – są statyczne, pokazują obiekty w jednym momencie obserwacji. Nie ujmują one wielu informacji o obiektach zmiennych, których Wszechświat jest pełen – kwazarach, gwiazdach, asteroidach. Lukę w obserwacjach zmiennego Wszechświata ma wypełnić nowy międzynarodowy projekt Legacy Survey of Space and Time (LSST), realizowany w budowanym właśnie Obserwatorium Very Rubin (Vera Rubin Observatory) w Chile. Przegląd, do którego obserwacje mają się rozpocząć już w 2024 roku, przez 10 lat co trzy dni będzie skanował obszar 18 000 stopni kwadratowych południowego nieba. Dzięki temu stanie się nie tylko najgłębszym istniejącym katalogiem, ale też stworzy unikalny film pokazujący, jak będzie zmieniało się niebo w tym okresie. Żaden przegląd nie zawiera wszystkich informacji, jakich potrzebujemy, żeby w pełni zrozumieć obserwowane obiekty. LSST będzie tzw. przeglądem fotometrycznym, dostarczającym obrazu nieba w sześciu filtrach optycznych. Jeśli będziemy potrzebowali dodatkowych informacji – np. widm spektroskopowych albo danych zebranych w podczerwieni - będziemy musieli poszukać ich gdzie indziej albo prowadzić dodatkowe obserwacje. Warto jednak wiedzieć z góry, w jakich sytuacjach takie dodatkowe dane będą niezbędne. Badacze z Narodowego Centrum Badań Jądrowych, pod kierunkiem doktoranta Gabriele'a Riccio i jego promotorki prof. Katarzyny Małek, we współpracy z naukowcami z innych międzynarodowych ośrodków postawili sobie pytanie: jak dobrze możemy zmierzyć fizyczne własności galaktyk, korzystając wyłącznie z danych LSST i jak możemy ten pomiar poprawić? W tym celu naukowcy stworzyli symulowany katalog najbardziej typowych galaktyk we Wszechświecie - galaktyk aktywnych gwiazdotwórczo, obserwowanych w przedziale przesunięcia ku czerwieni 0 < z < 2,5 (czyli aż do 11 mld lat świetlnych od nas), tak jak będzie widział je LSST. Symulacje oparto o prawdziwe dane 50 000 galaktyk, zaobserwowanych w ramach przeglądu HELP (ang. Herschel Extragalactic Legacy Project). Dane HELP, zawierające pomiary galaktyk w szerokim zakresie widma od ultrafioletu, przez optykę, do dalekiej podczerwieni, pozwalają mierzyć własności fizyczne galaktyk bardzo dokładnie. Pytanie brzmi: na ile będzie to możliwe, jeśli będziemy mieli do dyspozycji wyłącznie dane LSST? Badacze skupili się na takich parametrach, jak całkowita masa gwiazdowa, masa pyłu, całkowita jasność galaktyki w podczerwieni czy tempo powstawania gwiazd w galaktyce. Parametry wyznaczone z symulowanych obserwacji porównano z parametrami wyznaczonymi na podstawie danych obserwacyjnych z katalogu HELP. Okazało się, że podstawowe parametry charakteryzujące część gwiazdową galaktyki, takie jak masa gwiazdowa, będziemy mierzyć bardzo dokładnie. Natomiast wartości parametrów związanych z zapyleniem galaktyki, czyli na przykład tłumienie pyłu czy tempo powstawania nowych gwiazd w otoczeniu chmur pyłowych, wyznaczone wyłącznie na podstawie danych LSST, będą przeszacowane. Co gorsza, stopień przeszacowania zależy od odległości galaktyki od nas. Nie jest to całkiem zaskakujące, bo zarówno procesy gwiazdotwórcze w galaktykach, jak i powiązaną z nimi emisję pyłu najlepiej obserwować w podczerwieni, który to zakres nie będzie dostępny dla LSST. Wiedząc jednak, jakiego błędu się spodziewać, naukowcy byli w stanie zaproponować poprawki, jakie trzeba będzie stosować w pracy z rzeczywistymi danymi LSST. Zespół ASTROdust, pod kierownictwem prof. Katarzyny Małek, wraz z międzynarodowymi współpracownikami z Francji i Chile rozpoczął prace nad zaimplementowaniem tych poprawek w ogólnodostępnych narzędziach umożliwiających modelowanie galaktyk. Praca ta, dotycząca użycia masy gwiazdowej jako wskazówki niezbędnej do wyznaczenia wartości tłumienia pyłu w ultrafioletowym zakresie widma galaktyki, pomoże w poprawnym opisie podstawowych parametrów fizycznych analizowanych galaktyk. Badania zespołu ASTROdust to tylko jedna z wielu aktywności naukowców z polskich instytucji, które planowane są w ramach polskiego udziału w Obserwatorium Very Rubin i projekcie LSST. Obecnie w skład polskiego konsorcjum LSST wchodzą: NCBJ jako jednostka koordynująca, UJ, UMK, UW, CAMK PAN oraz CFT PAN. W ramach polskiego wkładu własnego planowana jest m.in. budowa lokalnego centrum danych w Polsce - mówi prof. Agnieszka Pollo kierująca Zakładem Astrofizyki NCBJ i jednocześnie projektem polskiego konsorcjum LSST. Grupa zainteresowanych w Polsce ciągle rośnie, a lista afiliowanych naukowców liczy kilkadziesiąt osób. Wszyscy jesteśmy podekscytowani projektem i nie możemy się doczekać tych petabajtów danych oraz badań i licznych publikacji na ich podstawie. To dane, jakich jeszcze nie było, więc i szansa na zupełnie nowe, nieoczekiwane odkrycia. Ale będą też i wyzwania logistyczne: jak radzić sobie z ogromnymi zbiorami danych? Jak adaptować do nich metody uczenia maszynowego? A wreszcie - jak pokazała omawiana wyżej praca Riccio et al. (2021) - dane LSST same w sobie nie zawsze wystarczą. LSST będzie kluczowym elementem układanki wielu zestawów danych – wyjaśnia dr hab. Katarzyna Małek z Zakładu Astrofizyki NCBJ. Co prawda dane pozyskane w ramach LSST będą bardzo dokładne i bardzo szczegółowe, jednak nadal będą to tylko optyczne dane fotometryczne. Będziemy musieli je uzupełniać danymi z innych obserwatoriów - na przykład pozyskanymi przy pomocy teleskopów Europejskiego Obserwatorium Południowego (ESO), wystrzelonego 25 grudnia 2021 roku Teleskopu Jamesa Webba (JWST) albo teleskopu SALT (ang. Southern African Large Telescope), na którym polscy astronomowie mają prawo do 10% czasu obserwacyjnego. Dlatego staramy się teraz dobrze zaplanować nasze miejsce w tej układance. Badania astronomiczne i astrofizyczne należą do grupy badań podstawowych, które przede wszystkim poszerzają naszą wiedzę o świecie i prawach nim rządzących. Dzięki badaniom LSST spodziewamy się lepiej zrozumieć naturę materii i energii we Wszechświecie i zweryfikować podstawowe prawa fizyki" – tłumaczy profesor Pollo. "Obserwacje będą też dotyczyć naszej bezpośredniej kosmicznej okolicy - w ramach przeglądu prowadzony będzie monitoring asteroid bliskich Ziemi, co znacząco zwiększy szanse wczesnego wykrycia potencjalnie niebezpieczniej dla nas asteroidy. Od jeszcze bardziej praktycznej strony - dane zebrane przez LSST, bezprecedensowo duże i złożone, będą wymagały rozwinięcia wyrafinowanych metod i algorytmów uczenia maszynowego, które potem zapewne znajdą zastosowanie także i w narzędziach wykorzystywanych w naszym codziennym życiu. Informacje o projekcie LSST: Legacy Survey of Space and Time (LSST) to międzynarodowy projekt obserwacyjny, który będzie realizowany za pomocą teleskopu o średnicy 8,4 m w Obserwatorium Very Rubin (Vera C. Rubin Observatory), umiejscowionym 2 682 m n.p.m. na górze Cerro Pachón w Chile. Teleskop o polu widzenia ponad 9 stopni kwadratowych (obserwujący jednorazowo ok. 40 razy większy obszar nieba niż tarcza Księżyca w pełni) w ciągu 10 lat mapowania całego południowego nieba dostarczy ok. 500 petabajtów danych w formie zdjęć oraz danych liczbowych – wartości strumieni fotometrycznych. Szacuje się, że w ciągu tygodnia będzie zbierał tyle danych, ile obejmuje cały przegląd SDSS! Główne projekty realizowane w ramach LSST skupione będą na: badaniu ciemnej materii i ciemnej energii, poszukiwaniu bliskich asteroid potencjalnie zagrażających Ziemi (tzw. Near Earth Objects, NEO), badaniu zmienności obiektów kosmicznych oraz mapowaniu Drogi Mlecznej. « powrót do artykułu
  2. Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów. Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji. Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny. Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów. System opracowany przez naukowców, lekarzy i studentów Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej. W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku. Sztuczna inteligencja pomocna w ocenie złośliwości guzów System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych. Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych. To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji. Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów. Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości. Pierwsze testy w gdańskim szpitalu System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego. System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce. « powrót do artykułu
×
×
  • Dodaj nową pozycję...