Jump to content
Forum Kopalni Wiedzy

Recommended Posts

NCBJ koordynuje polski udział w największym w dotychczasowej historii przedsięwzięciu astronomii obserwacyjnej. W polu widzenia teleskopu budowanego w Chile znajdzie się jednorazowo obszar 40-krotnie większy od tarczy Księżyca. Obserwacje zaplanowane na 10 lat dostarczą m.in. danych o obiektach zmiennych. Naukowcy z NCBJ działający w ramach zespołu ASTROdust już dziś przygotowują algorytmy, które wzbogacą zestaw informacji pozyskanych z obserwacji.

We współczesnej astrofizyce i kosmologii obserwacyjnej bardzo istotną rolę pełnią duże przeglądy nieba. Największym obecnie tego typu przeglądem w zakresie optycznym jest SDSS (ang. Sloan Digital Sky Survey), pokrywający ok. 35% całej sfery niebieskiej i obejmujący głównie Wszechświat lokalny. Dalej – czy też głębiej, jak mówią astronomowie – z pokryciem wynoszącym ~1/3 obszaru obejmowanego przez SDSS, sięga powstający obecnie DES (ang. Dark Energy Survey). Przeglądy te mają jednak podstawową wadę – są statyczne, pokazują obiekty w jednym momencie obserwacji. Nie ujmują one wielu informacji o obiektach zmiennych, których Wszechświat jest pełen – kwazarach, gwiazdach, asteroidach. Lukę w obserwacjach zmiennego Wszechświata ma wypełnić nowy międzynarodowy projekt Legacy Survey of Space and Time (LSST), realizowany w budowanym właśnie Obserwatorium Very Rubin (Vera Rubin Observatory) w Chile. Przegląd, do którego obserwacje mają się rozpocząć już w 2024 roku, przez 10 lat co trzy dni będzie skanował obszar 18 000 stopni kwadratowych południowego nieba. Dzięki temu stanie się nie tylko najgłębszym istniejącym katalogiem, ale też stworzy unikalny film pokazujący, jak będzie zmieniało się niebo w tym okresie.

Żaden przegląd nie zawiera wszystkich informacji, jakich potrzebujemy, żeby w pełni zrozumieć obserwowane obiekty. LSST będzie tzw. przeglądem fotometrycznym, dostarczającym obrazu nieba w sześciu filtrach optycznych. Jeśli będziemy potrzebowali dodatkowych informacji – np. widm spektroskopowych albo danych zebranych w podczerwieni - będziemy musieli poszukać ich gdzie indziej albo prowadzić dodatkowe obserwacje. Warto jednak wiedzieć z góry, w jakich sytuacjach takie dodatkowe dane będą niezbędne. Badacze z Narodowego Centrum Badań Jądrowych, pod kierunkiem doktoranta Gabriele'a Riccio i jego promotorki prof. Katarzyny Małek, we współpracy z naukowcami z innych międzynarodowych ośrodków postawili sobie pytanie: jak dobrze możemy zmierzyć fizyczne własności galaktyk, korzystając wyłącznie z danych LSST i jak możemy ten pomiar poprawić? W tym celu naukowcy stworzyli symulowany katalog najbardziej typowych galaktyk we Wszechświecie - galaktyk aktywnych gwiazdotwórczo, obserwowanych w przedziale przesunięcia ku czerwieni 0 < z < 2,5 (czyli aż do 11 mld lat świetlnych od nas), tak jak będzie widział je LSST. Symulacje oparto o prawdziwe dane 50 000 galaktyk, zaobserwowanych w ramach przeglądu HELP (ang. Herschel Extragalactic Legacy Project). Dane HELP, zawierające pomiary galaktyk w szerokim zakresie widma od ultrafioletu, przez optykę, do dalekiej podczerwieni, pozwalają mierzyć własności fizyczne galaktyk bardzo dokładnie. Pytanie brzmi: na ile będzie to możliwe, jeśli będziemy mieli do dyspozycji wyłącznie dane LSST?

Badacze skupili się na takich parametrach, jak całkowita masa gwiazdowa, masa pyłu, całkowita jasność galaktyki w podczerwieni czy tempo powstawania gwiazd w galaktyce. Parametry wyznaczone z symulowanych obserwacji porównano z parametrami wyznaczonymi na podstawie danych obserwacyjnych z katalogu HELP. Okazało się, że podstawowe parametry charakteryzujące część gwiazdową galaktyki, takie jak masa gwiazdowa, będziemy mierzyć bardzo dokładnie. Natomiast wartości parametrów związanych z zapyleniem galaktyki, czyli na przykład tłumienie pyłu czy tempo powstawania nowych gwiazd w otoczeniu chmur pyłowych, wyznaczone wyłącznie na podstawie danych LSST, będą przeszacowane. Co gorsza, stopień przeszacowania zależy od odległości galaktyki od nas. Nie jest to całkiem zaskakujące, bo zarówno procesy gwiazdotwórcze w galaktykach, jak i powiązaną z nimi emisję pyłu najlepiej obserwować w podczerwieni, który to zakres nie będzie dostępny dla LSST. Wiedząc jednak, jakiego błędu się spodziewać, naukowcy byli w stanie zaproponować poprawki, jakie trzeba będzie stosować w pracy z rzeczywistymi danymi LSST. Zespół ASTROdust, pod kierownictwem prof. Katarzyny Małek, wraz z międzynarodowymi współpracownikami z Francji i Chile rozpoczął prace nad zaimplementowaniem tych poprawek w ogólnodostępnych narzędziach umożliwiających modelowanie galaktyk. Praca ta, dotycząca użycia masy gwiazdowej jako wskazówki niezbędnej do wyznaczenia wartości tłumienia pyłu w ultrafioletowym zakresie widma galaktyki, pomoże w poprawnym opisie podstawowych parametrów fizycznych analizowanych galaktyk.

Badania zespołu ASTROdust to tylko jedna z wielu aktywności naukowców z polskich instytucji, które planowane są w ramach polskiego udziału w Obserwatorium Very Rubin i projekcie LSST. Obecnie w skład polskiego konsorcjum LSST wchodzą: NCBJ jako jednostka koordynująca, UJ, UMK, UW, CAMK PAN oraz CFT PAN. W ramach polskiego wkładu własnego planowana jest m.in. budowa lokalnego centrum danych w Polsce - mówi prof. Agnieszka Pollo kierująca Zakładem Astrofizyki NCBJ i jednocześnie projektem polskiego konsorcjum LSST. Grupa zainteresowanych w Polsce ciągle rośnie, a lista afiliowanych naukowców liczy kilkadziesiąt osób. Wszyscy jesteśmy podekscytowani projektem i nie możemy się doczekać tych petabajtów danych oraz badań i licznych publikacji na ich podstawie. To dane, jakich jeszcze nie było, więc i szansa na zupełnie nowe, nieoczekiwane odkrycia. Ale będą też i wyzwania logistyczne: jak radzić sobie z ogromnymi zbiorami danych? Jak adaptować do nich metody uczenia maszynowego? A wreszcie - jak pokazała omawiana wyżej praca Riccio et al. (2021) - dane LSST same w sobie nie zawsze wystarczą.

LSST będzie kluczowym elementem układanki wielu zestawów danych – wyjaśnia dr hab. Katarzyna Małek z Zakładu Astrofizyki NCBJ. Co prawda dane pozyskane w ramach LSST będą bardzo dokładne i bardzo szczegółowe, jednak nadal będą to tylko optyczne dane fotometryczne. Będziemy musieli je uzupełniać danymi z innych obserwatoriów - na przykład pozyskanymi przy pomocy teleskopów Europejskiego Obserwatorium Południowego (ESO), wystrzelonego 25 grudnia 2021 roku Teleskopu Jamesa Webba (JWST) albo teleskopu SALT (ang. Southern African Large Telescope), na którym polscy astronomowie mają prawo do 10% czasu obserwacyjnego. Dlatego staramy się teraz dobrze zaplanować nasze miejsce w tej układance.

Badania astronomiczne i astrofizyczne należą do grupy badań podstawowych, które przede wszystkim poszerzają naszą wiedzę o świecie i prawach nim rządzących. Dzięki badaniom LSST spodziewamy się lepiej zrozumieć naturę materii i energii we Wszechświecie i zweryfikować podstawowe prawa fizyki" – tłumaczy profesor Pollo. "Obserwacje będą też dotyczyć naszej bezpośredniej kosmicznej okolicy - w ramach przeglądu prowadzony będzie monitoring asteroid bliskich Ziemi, co znacząco zwiększy szanse wczesnego wykrycia potencjalnie niebezpieczniej dla nas asteroidy. Od jeszcze bardziej praktycznej strony - dane zebrane przez LSST, bezprecedensowo duże i złożone, będą wymagały rozwinięcia wyrafinowanych metod i algorytmów uczenia maszynowego, które potem zapewne znajdą zastosowanie także i w narzędziach wykorzystywanych w naszym codziennym życiu.

Informacje o projekcie LSST:

Legacy Survey of Space and Time (LSST) to międzynarodowy projekt obserwacyjny, który będzie realizowany za pomocą teleskopu o średnicy 8,4 m w Obserwatorium Very Rubin (Vera C. Rubin Observatory), umiejscowionym 2 682 m n.p.m. na górze Cerro Pachón w Chile. Teleskop o polu widzenia ponad 9 stopni kwadratowych (obserwujący jednorazowo ok. 40 razy większy obszar nieba niż tarcza Księżyca w pełni) w ciągu 10 lat mapowania całego południowego nieba dostarczy ok. 500 petabajtów danych w formie zdjęć oraz danych liczbowych – wartości strumieni fotometrycznych. Szacuje się, że w ciągu tygodnia będzie zbierał tyle danych, ile obejmuje cały przegląd SDSS! Główne projekty realizowane w ramach LSST skupione będą na: badaniu ciemnej materii i ciemnej energii, poszukiwaniu bliskich asteroid potencjalnie zagrażających Ziemi (tzw. Near Earth Objects, NEO), badaniu zmienności obiektów kosmicznych oraz mapowaniu Drogi Mlecznej.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Szanghajskie Obserwatorium Astronomiczne zaproponowało umieszczenie w przestrzeni kosmicznej teleskopu, którego zadaniem byłoby poszukiwanie egzoplanet. Jeśli propozycja zostanie zaakceptowana – a decyzja ma zapaść latem bieżącego roku – Chiny rozpoczną budowę swojego pierwszego teleskopu kosmicznego wykrywającego egzoplanety.
      Zgodnie z propozycją Earth 2.0 Telescope miałby zostać umieszczony w punkcie libracyjnym L2 – tym samym w którym znajduje się Teleskop Webba – gdzie miałby spędzić cztery lata. Uczeni z Szanghaju chcą, by Earth 2.0 obserwował część kosmosu w kierunku centrum Drogi Mlecznej poszukując tam tranzytu planet na tle ich gwiazd macierzystych. Głównym celem zainteresowania teleskopu miałyby być egzoplanety wielkości Ziemi, krążące wokół gwiazd podobnych do Słońca po orbicie podobnej do orbity Ziemi. To oznacza, że teleskop musi być bardzo czuły oraz zdolny do długotrwałej obserwacji tych samych gwiazd, by odnotować tranzyty mające miejsce raz na kilkanaście miesięcy.
      Ge Jian, profesor z Szanghaju mówi, że Earth 2.0 nie byłby w stanie samodzielnie rozpoznawać planet bliźniaczych Ziemi. Zadaniem urządzenia byłoby odnalezienie planety, określenie jej wielkości i czasu obiegu wokół gwiazdy. Dane te byłyby następnie wykorzystywane podczas kolejnych obserwacji za pomocą innych urządzeń. I dopiero te obserwacje powiedziałyby nam, czy Earth 2.0 Telescope znalazł planetę podobną do naszej, która znajduje się w ekosferze swojej gwiazdy. Tacy kandydaci na planety byliby obserwowani za pomocą teleskopów naziemnych, dzięki którym określilibyśmy ich masę oraz gęstość. Następnie niektóre z nich można by dalej śledzić za pomocą naziemnych i kosmicznych spektroskopów w celu określenia widma światła pochodzącego z planety, co pozwoli na zbadanie składu ich atmosfery, mówi uczony.
      Chiński teleskop skupiłby się na tym samym obszarze, który badał słynny Teleskop Keplera. jednak miałby znacznie większe pole widzenia, zatem mógłby obserwować większy obszar i więcej gwiazd.
      Pole widzenia Keplera wynosi 115 stopni kwadratowych. Teleskop obserwował ponad pół miliona gwiazd, odkrył około 2600 egzoplanet, a drugie tyle czeka na potwierdzenie. Earth 2.0. Telescope miałby mieć 500-stopniowe pole widzenia. Warto nadmienić, że cały nieboskłon to około 41 000 stopni kwadratowych. Chiński teleskop byłby zdolny do monitorowania 1,2 miliona gwiazd. Mógłby też obserwować bardziej odległych i mniej jasnych gwiazd niż Teleskop Keplera.
      Profesor Ge mówi, że z obliczeń jego zespołu wynika, iż taki teleskop mógłby odkryć około 30 000 nowych planet, z czego około 5000 byłoby podobnych do Ziemi.
      Zgodnie z projektem Earth 2.0 Telescope składałby się z 6 teleskopów poszukujących planet podobnych do Ziemi i 1 szukającego zimnych lub swobodnych planet wielkości Marsa.
      Decyzja odnośnie ewentualnego sfinansowania projektu ma zapaść w czerwcu. Jeśli zostanie wydana zgoda na przeprowadzenie misji, Earth 2.0 Telescope mógłby zostać wystrzelony już w 2026 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wulkaniczne szczyty Hawajów, pustynia Atacama w Chile i góry Wysp Kanaryjskich to najlepsze na Ziemi miejsca do uprawiania astronomii. To tam znajdują się najbardziej zaawansowane teleskopy. Teraz nauka może zyskać kolejne takie idealne miejsce. Chińscy specjaliści poinformowali, że znajduje się ono w pobliżu miasta Lenghu w prowincji Qinghai.
      Wyżyna Tybetańska ma wiele zalet z punktu widzenia astronomii. Jest położona wysoko nad poziomem morza, jest tam niewielkie zanieczyszczenie sztucznym światłem i niska wilgotność. Astronomowie od wielu lat mieli nadzieję, że uda się na niej zlokalizować miejsce nadające się do prowadzenia obserwacji. Jednak warunki środowiskowe powodują, że prowadzenie zaawansowanych badań astronomicznych byłoby tam zbyt trudne lub niemożliwe. Opinie takie są tym bardziej uzasadnione, że przed kilkunastu laty prowadzono badania w Ngari, Muztagh Ata i Daocheng. Żadne z tych miejsce nie miało warunków dobrych dla astronomii. Wielu specjalistów uważa też, że przechodzące w pobliżu Lenghu burze piaskowe wykluczają ten obszar jako miejsce wybudowania wielkich teleskopów.
      Jednak Licai Deng i jego koledzy z Narodowych Obserwatoriów Astronomicznych Chin Chińskiej Akademii Nauk postanowili spróbować szczęścia. Od 2018 roku monitorują zachmurzenie, jasność nocnego nieba, temperaturę powietrza, wilgotność oraz siłę i kierunek wiatru wiejącego na wierzchołku C góry Saishiteng, położonego na wysokości 4200 m. n.p.m.
      Naukowcy stwierdzili, że podczas około 70% nocy niebo jest na tyle wolne od chmur, że można prowadzić obserwacje. Jeśli zaś chodzi o widzialność (seeing), czyli kluczowy parametr określający, w jaki stopniu turbulencje atmosfery prowadzą do rozmazywania się obrazu gwiazd, to mediana wzdłuż promienia świetlnego wynosi 0,75 sekundy kątowej, czyli 1/4800 stopnia. Mediana nocnych zmian temperatury na szczycie to 2,4 stopnia Celsjusza, a opad pary wodnej jest przeważnie nie większy niż 2 mm.
      Parametry na wierzchołku C Saishiteng są więc porównywalne do tak znanych miejsc prowadzenia obserwacji astronomicznych jak Manua Kea na Hawajach, Cerro Paranal w Chile czy La Palma na Wyspach Kanaryjskich. To właśnie tam znajdują się najpotężniejsze ziemskie teleskopy. Badane przez Chińczyków miejsce wydaje się mieć też kilka wyjątkowych zalet. Jedną z nich są niewielkie fluktuacje temperatury, co wskazuje na bardzo stabilne powietrze. Kolejna zaleta to fakt, że w zimie temperatura spada tam poniżej -20 stopni Celsjusza, co czyni Saishiteng świetnym miejscem dla obserwacji w podczerwieni. A niewielka ilość pary wodnej oznacza, że może być to idealne miejsce dla urządzeń działających w paśmie teraherców, za pomocą których badany jest ośrodek międzygwiezdny, co pozwala na lepsze zrozumienie pochodzenia gwiazd, galaktyk i samego wszechświata.
      Chiny mają spore ambicje odnośnie badań astronomicznych. Jednak Państwo Środka wyraźnie odstaje od innych. Znajduje się tam niewiele większych teleskopów, a głównym problemem jest właśnie brak dobrego miejsca do obserwacji. Dlatego też chińskie środowisko naukowe już chce rozpocząć prace nad teleskopami, które staną na Saishiteng. Uniwersytet Nauki i Technologii buduje właśnie teleskop optyczny o aperturze 2,5 metra, który ma rozpocząć pracę w 2023 roku. Pojawiły się też propozycje budowy obserwatorium słonecznego i zespołu teleskopów o nazwie Near Earth Object Hunter. Całe chińskie środowisko astronomiczne zaproponowało też rządowi w Pekinie budowę teleskopu o aperturze 12 metrów.
      Chińczycy mają nadzieję, że w Saishiteng w przyszłości staną międzynarodowe teleskopy. Dobre miejsca do obserwacji astronomicznych zawsze są w cenie. A ostatnio stały się jeszcze bardziej cenne, gdyż rdzenni mieszkańcy Hawajów nie chcą, by na Mauna Kea powstawały kolejne teleskopy.
      Nowe miejsce nie tylko przysłużyłoby się nauce, wypełniło istniejącą lukę jeśli chodzi o obserwatoria na wschodniej półkuli, ale byłoby też niezwykle ważne z punktu widzenia Chin. Pozwoliłoby ono zwiększyć współpracę Państwa Środka z międzynarodowym środowiskiem naukowym.
      Historia badań wierzchołka C Saishiteng pod kątem przydatności dla astronomii sięga roku 2017, kiedy to Licai Deng stwierdził, że rosnące zanieczyszczenie sztucznym światłem znacznie utrudnia mu obserwacje. Zaczął poszukiwać innego miejsca. Został wówczas zaproszony przez władze miasta Lenghu do oceny warunków na Saishiteng. Lenghu było w przeszłości 100-tysięcznym miastem, którego gospodarka opierała się na polach naftowych. Gdy jednak ropa się skończyła, pozostało kilkuset mieszkańców.
      Deng podpisał pięcioletni kontrakt, w ramach którego miał sprawdzić warunki panujące na górze Saishiteng, na którą nikt wcześniej się nie wspinał. Gdy uczony wraz z zespołem weszli na szczyt, okazało się, że główne obawy astronomów dotyczące tego miejsca – dotyczące burz piaskowych – są bezpodstawne. Piasek pozostał poniżej. Niebo oczyszczało się na wysokości 3800–4000 metrów. A 200 metrów wyżej, tam, gdzie można by prowadzić obserwacje, piasek nie stanowił problemu. "Nikt nie mógł tego wiedzieć bez wdrapania się na szczyt", stwierdził uczony.
      Deng i jego koledzy dziesiątki razy wspinali się na szczyt, wnosząc tam sprzęt. Miejscowe władze wynajęły śmigłowiec, by im pomóc i rozpoczęły budowę drogi, która po 18 miesiącach dotarła do wierzchołka C. Deng przeniósł tam swój teleskop, a władze wprowadziły już zakaz zanieczyszczania sztucznym światłem obszaru 18 000 kilometrów kwadratowych wokół wierzchołka.
      Licai Deng i jego zespół opublikowali wyniki swoich badań na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Powstała największa mapa ciemnej materii, niewidzialnego materiału, który – jak sądzą naukowcy – stanowi ok. 80% materii wszechświata. Jako że materia zagina światło astronomowie, obserwując światło dochodzące do nas z odległych galaktyk, wnioskują o obecności materii na podstawie zaburzeń jego drogi.
      W ramach Dark Energy Survey (DES) naukowcy zaprzęgli do pracy sztuczną inteligencję, której zadaniem była analiza światła ze 100 milionów galaktyk. W ten sposób powstała wielka mapa materii wykrytej pomiędzy nami a obserwowanymi galaktykami. Obejmuje ona 25% nieboskłonu półkuli południowej.
      Większość materii we wszechświecie to ciemna materia. To wspaniale, że możemy rzucić okiem na te rozległe ukryte struktury na tak dużym obszarze nieboskłonu. Nasza mapa, która pokazuje głównie ciemną materię, wykazuje podobne wzorce do mapy tworzonej z samej widocznej materii. Mamy tutaj podobną do pajęczej sieci strukturę gęstych zbitek materii z wielkimi pustymi przestrzeniami pomiędzy nimi, mówi Niall Jeffrey z University College London (UCL).
      Widoczne galaktyki tworzą się w najgęstszych regionach występowania ciemnej materii. Gdy patrzymy na nocne niebo widzimy światło galaktyk, ale nie dostrzegamy otaczającego ich dysku materii. Wykorzystując soczewkowanie grawitacyjne, czyli obliczając, jak materia zaburza światło, otrzymujemy pełny obraz. Zarówno materii widzialnej jak i niewidzialnej, dodaje Ofer Lahav z UCL.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Teleskopy umieszczone na wysoko latających balonach stratosferycznych prowadzą obserwacje, jakich z Ziemi wykonać nie sposób. Jednak konieczność zabrania dużych systemów chłodzących ogranicza ilość sprzętu naukowego, jaki mogą zabrać balony. Naukowcy  NASA opracowali właśnie technologię pozwalającą na znaczne zmniejszenie wagi takich systemów. Została ona przetestowana podczas misji Balloon-Borne Cryogenic Testbed (BOBCAT).
      Wiele interesujących obiektów znajdujących się w przestrzeni kosmicznej – jak odległe galaktyki czy chmury gazu i pyłu, z którego powstają gwiazdy oraz układy planetarne – emituje promieniowanie podczerwone. Jednak atmosfera Ziemi blokuje większość takiego promieniowania, przez co obiekty te trudno jest badać z powierzchni planety. Teleskopy można wysyłać w przestrzeń kosmiczną, jednak jest to niezwykle kosztowne przedsięwzięcie. Bardzo dobrą i znacznie tańszą alternatywą są więc teleskopy wynoszone przez balony.
      Lustra takich teleskopów podróżujących w balonie mogłyby mieć nawet 5 metrów średnicy, czyli tyle co średnica pokoju w mieszkaniu. To jednak poważne wyzwanie, gdyż zarówno lustro jak i reszta teleskopu muszą być schłodzone do temperatur bliskich zeru absolutnemu. Jeśli ich się nie schłodzi, ich własne ciepło może zakłócać uzyskany obraz. To efekt podobny do prześwietlenia zdjęcia, wyjaśnia lider zespołu badawczego, Alan Kogut.
      Ciekły hel z łatwością chłodzi teleskop, ale żeby tego dokonać, musimy wsadzić urządzenie do gigantycznego termosu zwanego dewarem. Termos wielkości pokoju ważyłby wiele ton, a to przekracza możliwości największych balonów, dodaje Kogut. Waga dewara wynika z faktu, że musi on mieć wystarczająco grube ściany, by wytrzymały różnicę ciśnień próżni pomiędzy ściankami termosu a ciśnieniem na poziomie morza.
      Kogut i jego koledzy stwierdzili jednak, że tak naprawdę dewary mogłyby być znacznie lżejsze, gdyż pracują na wysokości 40 km, gdzie ciśnienie wynosi zaledwie 0,3% ciśnienia na poziomie morza.
      Dewary opracowane na potrzeby misji BOBCAT składają się z części wewnętrznej zawierającej chłodziwo otoczonej przez część zewnętrzną. Pomiędzy obiema częściami jest próżnia. To standardowa architektura termosu. Jednak dewary Koguta i jego kolegów są niezwykłe, gdyż ich wykonane ze stali nierdzewnej ścianki mają zaledwie 0,5 mm grubości. Są więc niewiele grubsze niż ścianki standardowej puszki do napojów.
      Urządzenie Koguta może być wystrzeliwane w temperaturze pokojowej. Jest wyposażone w zintegrowane zawory, przez który powietrze ciągle ucieka w miarę wznoszenia się urządzenia. Wyeliminowano w ten sposób problem pojawiania się dużej różnicy ciśnień. Gdy balon osiągnie wysokość 40 km. zawory są zamykane. Dopiero wówczas ze specjalnych zbiorników do termosu jest pompowany ciekły hel lub azot. Zbiorniki mają standardową konstrukcję, są niewielkie i niezbyt ciężkie.
      Kogut i jego zespół rozpoczęli testy swojego urządzenia w sierpniu 2019 roku, wysyłając balon z 827-kilogramowym ładunkiem. Test miał dwa cele. Po pierwsze miał udowodnić, że płyny kriogeniczne (14 litrów ciekłego azotu i 268 litrów ciekłego helu) można rzeczywiście przepompowywać na docelowej wysokości. Po drugie zaś, naukowcy chcieli sprawdzić, jak wiele energii cieplnej przeniknie do dewara w czasie tej operacji. Okazało się, że do termosu trafiło około 2,7 wata, czyli więcej niż 1–2 watów uzyskanych dla tego samego dewara w idealnych warunkach laboratoryjnych.
      Teraz naukowcy przygotowują kolejny test. Wykorzystają z nim lżejszy dewar o takiej samej wielkości i sprawdzą, czy uzyskane wyniki się potwierdzą.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów.
      Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji.
      Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny.
      Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów.
      System opracowany przez naukowców, lekarzy i studentów
      Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej.
      W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku.
      Sztuczna inteligencja pomocna w ocenie złośliwości guzów
      System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych.
      Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych.
      To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji.
      Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów.
      Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości.
      Pierwsze testy w gdańskim szpitalu
      System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego.
      System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...