Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Grafen posłuży jako biosensor do monitorowania zdrowia pacjentów
dodany przez
KopalniaWiedzy.pl, w Medycyna
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Każdy pojedynczy genom ludzki zawiera tysiące zmian genetycznych. Tylko nieliczne z nich prowadzą do zmian fenotypowych. Dlatego tak ważna jest ocena prognostyczna ich konsekwencji biologicznych oraz klinicznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz jego rodziny. Liczba i różnorodność diagnozowanych wariantów sprawia, że ocena ich konsekwencji funkcjonalnych wymaga wsparcia przez wieloelementową analizę obliczeniową. Obecnie dostępnych jest wiele narzędzi predykcji in silico. Wykorzystują one różnorodne modele obliczeniowe oraz źródła danych genetycznych.
Genom człowieka jest to całkowita informacja genetyczna zawarta w zestawie 23 par chromosomów obecnych w jądrze komórkowym (genom jądrowy) oraz w mitochondriach (genom mitochondrialny) [1]. Haploidalny ludzki genom jądrowy ma długość około 3 miliardów par zasad i koduje około 30 000 genów [2]. Genom zbudowany jest z kwasu dezoksyrybonukleinowego (DNA). Składa się z części kodujących białka tzw. eksonów obejmujących
Dla przetrwania oraz prawidłowego rozrodu wymagana jest stabilność genetyczna. Jest ona zapewniana przez proces replikacji oraz mechanizmy naprawy wychwytujące i korygujące błędy wynikające z pomyłek aparatu replikacyjnego oraz z przypadkowych uszkodzeń DNA. Czasem jednak mechanizmy naprawy okazują się zawodne i wtedy zamiast zmiany przejściowej dochodzi do utrwalenia błędu. Takie trwałe zmiany, które mogą lecz nie muszą, prowadzić do poważnych konsekwencji, nazywamy mutacjami. Efekty wpływu mutacji na komórkę, organizm zależą od wielu czynników m.in. rodzaju wariantu, miejsca powstania [4]. Mutacje zgodnie z definicją, są to wszelkie trwałe zmiany w sekwencji nukleotydowej o częstości populacyjnej poniżej 1%. Termin polimorfizm jest zdefiniowany jako wariant występujący w populacji z częstością 1% lub większą. Warianty genetyczne można sklasyfikować na podstawie wielu różnych parametrów m.in.: ze względu na zakres jaki obejmują, mechanizm powstawania, miejsca powstania lub konsekwencje jakie wywołują [5].
Wśród mutacji genowych dodatkowo wyróżnić można mutacje punktowe, które dotyczą zmian pojedynczych nukleotydów.
Dynamiczny rozwój diagnostyki molekularnej wymusił konieczność wprowadzenia ujednoliconego oraz jednoznacznego zapisu wariantów sekwencji nukleotydowej. Na podstawie zestawu standardowych kryteriów powstała międzynarodowa, referencyjna nomenklatura wariantów genetycznych. Za utrzymywanie i wersjonowanie nomenklatury odpowiedzialna jest organizacja Human Genome Variation Society (HGVS). Opracowane wytyczne umożliwiają efektywne współdzielenie oraz użytkowanie informacji genomowych. Wszystkie laboratoria genetyczne zobligowane są do zapisu wyniku badania genetycznego zgodnie z wytycznymi HGVS [5,6]. Przyjęte rekomendacje dostępne są do publicznej wiadomości na stronie internetowej www.varnomen.hgvs.org [7].
Celem diagnostyki genetycznej jest wsparcie oceny klinicznej oraz podejmowanych decyzji medycznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz błędną stratyfikację ryzyka dla członków jego rodziny. W 2013 r. organizacja American College of Medical Genetics and Genomics (ACMG) zwołała specjalną grupę roboczą złożoną z przedstawicieli ACMG, American Association for Molecular Pathology (AMP) oraz College of American Pathologists (CAP). Grupa ta składała się z klinicystów oraz dyrektorów laboratoriów klinicznych. Celem było opracowanie międzynarodowych wytycznych dotyczących klasyfikacji znaczenia wariantów genetycznych wykrywanych w analizach sekwencjonowania genomu ludzkiego. W 2015 roku został opublikowany specjalny raport przedstawiający szczegółowe rekomendacje dotyczące testów genetycznych wykonywanych w laboratoriach klinicznych. Warianty identyfikowane w chorobach monogenowych, dziedziczonych zgodnie z prawami Mendla zaklasyfikowano do pięciu kategorii:
● wariant patogenny (ang. pathogenic),
● wariant potencjalnie patogenny (ang. likely pathogenic),
● wariant o niepewnym znaczeniu (ang. uncertain significance),
● wariant potencjalnie łagodny (ang. likely benign),
● wariant łagodny (ang. benign) [6].
“In silico” jest to termin naukowy określający sposób wykonania czynności, badania, testu. Oznacza, że analiza została przeprowadzona za pomocą komputera i urządzeń informatycznych. Nazwa powstała analogicznie do terminów in vitro i in vivo [10]. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Wykorzystuje analizę asocjacji polegającą na łączeniu określonego wariantu z wystąpieniem danej cechy [11]. Analiza bioinformatyczna wyniku pacjenta składa się z wielu etapów. Obejmuje m.in. następujące analizy in silico:
● porównywanie sekwencji badanej z sekwencją referencyjną - sekwencje referencyjne dostępne są w wielu przeglądarkach genomowych, do najczęściej stosowanych należą m.in. GenBank, LRG oraz Ensembl,
● przeszukiwanie baz danych populacyjnych, gromadzących informacje o częstościach wariantów np.1000 Genomes,, Exome Aggregation Consortium (ExAC), Exome Variant Server,
● przeszukiwanie biomedycznych baz danych, gromadzących informacje o klinicznym znaczeniu wariantów, powiązaniu fenotypowym, zaburzeniach genetycznych m.in. ClinVar, OMIM, Human Gene Mutation Database (HGMD)
● przeszukiwaniu biomedycznych publikacji naukowych,
● interpretację wpływu wykrytego wariantów na genom oraz kodowane białko z zastosowaniem programów predykcyjnych [6,7,8].
W chwili obecnej dostępnych jest wiele narzędzi predykcji in silico, a analiza patogenności wariantów genetycznych jest kluczowa w skutecznej diagnostyce genetycznej i następującej po niej terapii.
Piśmiennictwo
[1] Brown, T. A.: The Human Genome. Oxford: Wiley-Liss 2002
[2] National Human Genome Research Institute (NHGRI). Human Genome Project Completion: Frequently Asked Questions. https://www.genome.gov
[3] Friedman J.M., Dill F.J. , Hayden M.R., McGillivaray B.C.: Genetyka. Wydawnictwo medyczne Urban & Partner, Wydanie I polskie pod redakcją Limona J., Wrocław 1996
[4] Alberts B., Bray D., Johnson A., Lewis J., Raff M., Roberts K., Walter P.: Podstawy biologii komórki. Wprowadzenie do biologii molekularnej. Wydawnictwo Naukowe PWN, przekład pod redakcją Michejdy J. i Augustyniaka J., Warszawa 1999
[5] Claustres M., Kozich V., Dequeker E., Fowler B., Hehir-Kwa J.Y., Miller K., Oosterwijk C., Peterlin B., van Ravenswaaij-Arts C., Zimmermann U., Zuffardi O., Hastings R.J. and David E., Barton D.E., on behalf of the ESHG Quality committee: Recommendations for reporting results of diagnostic genetic testing (biochemical, cytogenetic and molecular genetic). European Journal of Human Genetics 2014; 22
[6] Richards S., Aziz N., Bale S., Bick D., Das S., Gastier-Foster J., Grody W.W., Hegde M., Lyon E., Spector E., Voelkerding K., Rehm H.L., on behalf of the ACMG Laboratory Quality Assurance Committee: Standards and Guidelines for the Interpretation of Sequence Variants: A Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology. Genetics in Medicine 2015; 17
[7] https://varnomen.hgvs.org
[8] den Dunnen J.T., Dalgleish R. , Maglott D.R., Hart R.K., Greenblatt M.S., McGowan-Jordan J., Roux A.F., Smith T., Antonarakis S.E., Taschner P.E.: HGVS Recommendations for the Description of Sequence Variants. Hum Mutat. 2016; 37(6)
[9] Kim Y.E., Ki C.S., Jang M.A.: Challenges and Considerations in Sequence Variant Interpretation for Mendelian Disorders. Ann Lab Med 2019; 39(5)
[10] Colquitt R.B., Colquhoun D.A., Thiele R.H.: In silico modelling of physiologic systems. Best Practice & Research Clinical Anaesthesiology 2011; 25
[11] Słomski R.: Analiza DNA - Teoria i Praktyka. Wydawnictwo Uniwersytetu Przyrodniczego w Poznaniu, Poznań 2008
« powrót do artykułu -
przez KopalniaWiedzy.pl
W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Uniwersytet im. Adama Mickiewicza w Poznaniu (UAM), Politechnika Poznańska oraz neurolodzy i psychiatrzy chcą opracować nową, bezinwazyjną metodę diagnozowania choroby Alzheimera na wczesnym etapie. Jak podkreślono na stronie UAM, w celu przeprowadzenia badań pilotażowych w projekcie naukowcy planują zgromadzić grupę około 50 osób zagrożonych rozwojem choroby, a także podobną grupę kontrolną.
Choroba Alzheimer przez dekady może rozwijać się bez żadnych objawów. Tymczasem, jak w przypadku większości chorób, wczesne rozpoznanie ma olbrzymie znaczenie dla rokowań. Im zatem szybciej schorzenie zostanie zdiagnozowane, tym większa szansa na wyleczenie czy powstrzymanie dalszych postępów choroby. Wszyscy mamy nadzieję, że prędzej czy później będziemy dysponować skutecznym lekiem, jednak może się okazać, że największą barierą w jego zastosowaniu będzie dostęp do wczesnej diagnostyki - obecnie drogiej i trudno osiągalnej, mówi profesor Jędrzej Kociński z UAM.
Naukowcy zapraszają więc do wzięcia udziału w bezpłatnych anonimowych badaniach wszystkich, którzy podejrzewają, że coś złego dzieje się z ich pamięcią, oraz osoby po 50. roku życia bez zaburzeń pamięci, ale w rodzinach których są lub były osoby z wczesnym otępieniem (czyli takie, u których rozwinęło się one przed 65. rokiem życia). W badaniach nie mogą wziąć udział osoby z wyraźnymi objawami otępienia, ani z już zdiagnozowaną chorobą Alzheimera. Szczegółowe informacje o projekcie znajdziemy na stronach Alzheimer Prediction Project, a chęć udziału w badaniu można zgłosić pisząc na adres kierownika projektu, doktora Marcina Górniaka, lekarz.marcin.gorniak[at]gmail.com.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Cukrzycą określa się grupę chorób metabolicznych charakteryzującą się przewlekłą hiperglikemią czyli podwyższonym poziomem glukozy we krwi. Istotną rolę w regulacji gospodarki węglowodanowej we krwi odgrywa insulina - hormon który wydzielany jest przez trzustkę. Insulina odpowiada za regulację transportu glukozy do komórek zmniejszając jej poziom we krwi obwodowej.
Obecnie wyróżniamy dwa główne typy cukrzycy:
Cukrzycę typu 1, w której dochodzi do zniszczenia komórek beta trzustki co prowadzi z reguły do bezwzględnego braku insuliny.
Cukrzycę typu 2, nabytą, która spowodowana jest najczęściej opornością tkanek na insulinę. Cukrzyca charakteryzuje się objawami klinicznymi tj.: zwiększenie częstości oddawania moczu, wzmożone pragnienie, osłabienie, nieuzasadnione zmniejszenie masy ciała. U większości osób objawy te występują późno zatem konieczne jest wykonywanie badań przesiewowych.
Współczesna medycyna posiada szeroki wachlarz badań dzięki, którym możemy diagnozować cukrzycę, stany przedcukrzycowe, insulinooporność oraz funkcje wydzielnicze trzustki. Wśród tych badań można wyróżnić: badanie glukozy na czczo, badanie glikemii przygodnej, badanie glukozy w moczu, doustny test obciążenia glukozą (OGTT), badanie peptydu-c, badanie odsetka hemoglobiny glikowanej (HbA1c), monitorowanie poziomu glukozy za pomocą glukometru oraz CGM.
Według stanowiska Polskiego Towarzystwa Diabetologicznego z 2019 roku, podstawą do rozpoznania cukrzycy jest występowanie 1 z 3 kryteriów:
– objawy hiperglikemii i glikemia przygodna ≥ 200 mg/dl,
– dwukrotna glikemia na czczo ≥ 126 mg/dl,
– glikemia 2h po posiłku ≥ 200 mg/dl.
W roku 2021 Polskie Towarzystwo Diabetologiczne zdecydowało się umieścić w Zaleceniach dotyczących postępowania u chorych na cukrzycę badanie odsetka hemoglobiny glikowanej (HbA1c) w kryteriach rozpoznania cukrzycy. Do tej pory badanie to było stosowane do określania wyrównania cukrzycy u pacjentów na przełomie ostatnich trzech miesięcy. Aktualne zalecenia podają, iż lekarz może rozpoznać cukrzycę u pacjenta z wynikiem HbA1c powyżej 6,5%.
Nasuwa się pytanie, czy badane odsetka hemoglobiny glikowanej może zastąpić doustny test obciążenia glukozą (OGTT) w rozpoznawaniu zaburzeń gospodarki węglowodanowej?
Doustny test tolerancji glukozy (OGTT) został stworzony, aby określać tolerancję węglowodanów w organizmie. Badanie polega na pobraniu krwi żylnej na czczo oraz po 1 i 2 godzinach od wypicia 75g roztworu glukozy (*może się różnić w zależności od zaleceń lekarza). Podczas tego testu można równocześnie oznaczyć poziom glukozy i insuliny. Dzięki temu jest stosowany do określania tolerancji węglowodanów, zdolności komórek beta trzustki do wydzielania insuliny oraz wrażliwości tkanek na insulinę.
Badane odsetka hemoglobiny glikowanej HbA1c jest stabilnym wskaźnikiem ekspozycji na glikemię przez okres ostatnich 3 miesięcy. Używano go do tej pory do monitorowania terapii u pacjentów z zdiagnozowaną cukrzycą. Za prawidłowo wyrównaną
glikemię uznaje się poziom HbA1c < 7%
Powszechnie wiadomo, że na wynik doustnego testu tolerancji glukozy (OGTT) wpływ ma wiele czynników. Jednym z najważniejszych jest przygotowanie pacjenta do badania.Pacjent musi być bezwzględnie na czczo (12h przerwy od ostatniego posiłku). Badania nie można wykonywać w czasie choroby, ciężkich treningów, ani w czasie stosowania nagłych restrykcji pokarmowych. Czas trwania badania to około 2 godziny i może się on wydłużyć w zależności od zaleceń lekarza. W tym czasie nie można nic jeść ani pić, nie można także wykonywać nadmiernej aktywności fizycznej. Zaleca się pozostanie w przychodni bądź laboratorium przez cały czas trwania badania.Obowiązkiem personelu jest zwrócić szczególną uwagę na przeprowadzenie z pacjentem dokładnego wywiadu oraz staranne przygotowanie do pobrania krwi gdyż częste powtarzanie tego badania nie pozostaje bez wpływu na organizm.
Natomiast badanie HbA1c jest mniej wrażliwe na błędy fazy przedanalitycznej i analitycznej. Badanie to można wykonać o każdej porze dnia bez konieczności bycia na czczo. Parametr oznaczany jest z jednego pobrania, a badanie można również wykonać z materiału krew EDTA pobranego do badania morfologii krwi.
Analizując tylko fazę przed analityczną i analityczną badań można stwierdzić, że test HbA1c jest rokującym kandydatem do skriningu pacjentów w celu rozpoznania cukrzycy. Czy zatem występuje istotna korelacja pomiędzy wynikami tych badań u diagnozowanych pacjentów?
Esther Y T Yu i wsp. na Uniwersytecie w Hong Kongu przeprowadzili badania wśród 1128 osób, z których 229 miało zdiagnozowaną cukrzycą na podstawie testu OGTT. Czułość i swoistość testu HbA1c ≥ 6.5% wynosiły odpowiednio 33,2% i 93,5% u osób z wcześniej zdiagnozowaną cukrzycą na podstawie testu OGTT. Kiedy progiem odcięcia różnicowania chorych na cukrzycę było HbA1c ≥ 6,3% czułość i swoistość wynosiła odpowiednio 56,3% i 85,5%. Dla progu HbA1c ≥ 5,6% ma najwyższą czułość i swoistość wynoszącą odpowiednio 96,1% oraz 94.5%
X. L. Dong i wsp. również przeprowadzili badania porównując wyniki badania HbA1c oraz testu OGTT. Wśród 701 uczestników badania, u 65 z nich została zdiagnozowana cukrzyca na podstawie badania HbA1c ≥ 6.5 % natomiast u 94 uczestników zdiagnozowano cukrzycę testem OGTT. W porównaniu z testem OGTT czułość i swoistość przy HbA1c > 6.5 % była odpowiednio 48.2% oraz 97.8%. Aż u 30,7% uczestników u których wynik badania HbA1c był powyżej 6.5% nie została zdiagnozowana cukrzyca na podstawie testu OGTT. Natomiast u 52%, u których na podstawie testu OGTT została zdiagnozowana cukrzyca, nie wykryto jej badaniem HbA1c ≥ 6.5 %
Specyfika testu OGTT powoduje bardzo sceptyczne nastawienie pacjentów do niego. Łatwiejsze i bardziej komfortowe wydaje się być wykonanie badania HbA1c. Badanie odsetka hemoglobiny glikowanej może mieć istotne zastosowanie w monitorowaniu leczenia cukrzycy oraz może być jednym z badań wskazujących rozpoznanie choroby, ale wyniki HbA1c poniżej 6,5% nie wskazują na brak cukrzycy lub stanu przedcukrzycowego u pacjenta ze względu na niską czułość badania. U tych pacjentów należy przeprowadzić dodatkową diagnostykę.
BIBLIOGRAFIA:
Current Topics in Diabetes 2022 | Curr Top Diabetes, 2022; 2 (1): 1–134 Dong XL, Liu Y, Sun Y, Sun C, Fu FM, Wang SL, Chen L. Comparison of HbA1c and OGTT criteria to diagnose diabetes among Chinese. Exp Clin Endocrinol Diabetes. 2011 Jun;119(6):366-9. doi: 10.1055/s-0030-1267183. Epub 2010 Nov 19. PMID: 21104578 Solnica B., Dembińska-Kieć A., W. Naskalski J. (2017) Diagnostyka laboratoryjna z elementami biochemii klinicznej. Wrocław: Edra Urban & Partner Yu EY, Wong CK, Ho SY, Wong SY, Lam CL. Can HbA1c replace OGTT for the diagnosis of diabetes mellitus among Chinese patients with impaired fasting glucose? Fam Pract. 2015 Dec;32(6):631-8. doi: 10.1093/fampra/cmv077. Epub 2015 Oct 14. PMID: 26467644; PMCID: PMC5926458.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Ruszyła największa w Europie sieć koordynująca badania astronomiczne - OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego. Projekt o wartości 15 mln euro jest finansowany z programu Komisji Europejskiej Horyzont 2020.
Połączenie dwóch sieci
Dotąd w Europie działały 2 główne sieci, które koordynowały współpracę instrumentów naziemnych. OPTICON był związany z obserwacjami w zakresie widzialnym, zaś RadioNet w zakresie radiowym. Powstała w wyniku ich połączenia ORP zapewni europejskim naukowcom dostęp do szerokiej gamy teleskopów oraz, co ważne, wesprze rozwój naukowy młodych astronomów.
Jak podkreślono w komunikacie na stronie Uniwersytetu Mikołaja Kopernika, projekt ORP ma na celu rozwój tzw. astronomii wieloaspektowej, obejmującej nie tylko badania w szerokim zakresie promieniowania elektromagnetycznego, ale także fale grawitacyjne, promieniowanie kosmiczne i neutrina. Dlatego duży nacisk kładzie się na ujednolicenie metod i narzędzi obserwacyjnych oraz rozszerzenie dostępu do wielu różnych instrumentów astronomicznych.
OPTICON-RadioNet Pilot
Projektem kierują Centre National de la Recherche Scientifique (CNRS), Uniwersytet w Cambridge oraz Instytut Radioastronomii im. Maxa Plancka w Bonn. Współpraca obejmuje 37 instytucji z 15 krajów europejskich, Australii i RPA.
W ramach opisywanego przedsięwzięcia zaplanowano opracowanie standardów obserwacji nieba i analizy danych dla teleskopów optycznych i radioteleskopów. Projekt ma też ułatwić europejskim astronomom dostęp do najlepszych teleskopów na świecie, np. 100-metrowego radioteleskopu z Bonn.
Zadania zespołów z Torunia i Warszawy
Badania naukowe w ramach ORP na Uniwersytecie Mikołaja Kopernika będą prowadzone zarówno w zakresie radiowym, jak i widzialnym przy użyciu instrumentów znajdujących się w Obserwatorium Astronomicznym UMK w Piwnicach pod Toruniem. Całość prac naukowych na UMK będzie koordynowana przez dr hab. Agnieszkę Słowikowską [...]. W zakresie radiowym użyty zostanie największy polski radioteleskop o średnicy 32 metrów, który w 2020 r. przeszedł gruntowną renowację. Natomiast do pomiarów w zakresie widzialnym wykorzystany zostanie największy w Polsce teleskop optyczny (zwierciadło główne o średnicy 90 cm). Dr Słowikowska została wybrana na przewodniczącą zespołu koordynującego ORP (w jego skład wchodzi 37 reprezentantów wszystkich zaangażowanych instytucji).
Zespół z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którym kieruje prof. Łukasz Wyrzykowski, będzie z kolei odpowiadać za koordynację działania rozproszonych po całym świecie małych i średnich teleskopów naziemnych; jego celem będzie monitorowanie zmienności czasowej interesujących obiektów. Sieć składa się z ok. 100 teleskopów, w tym 50 robotycznych. Jednym z jej elementów jest 60-centymetrowy teleskop, znajdujący się w Północnej Stacji Obserwacyjnej UW w Ostrowiku pod Warszawą - wyjaśniono w relacji prasowej UW.
Od 2013 r. zespół prof. Wyrzykowskiego brał udział w pracach sieci OPTICON. Opierając się na zdobytym doświadczeniu, opracowano system internetowy do obsługi licznych teleskopów i wysyłania zamówień na systematyczne obserwacje tych samych obiektów (w ten sposób można badać ich zmienności). Takie narzędzie ułatwia naukowcom prowadzenie badań obiektów tymczasowych i zmiennych w czasie, np. supernowych czy zjawisk soczewkowania grawitacyjnego wywołanych przez czarne dziury. Tego typu obserwacje niejednokrotnie muszą być prowadzone przez wiele miesięcy, a nawet lat. Sieć wielu małych teleskopów rozmieszczonych na całym świecie zapewnia możliwość obserwacji obu półkul nieba przez całą dobę - tłumaczą astronomowie z Warszawy.
Zespół, który z ramienia Obserwatorium Astronomicznego UW bierze w projekcie ORP, tworzą: dr Mariusz Gromadzki, mgr Krzysztof Rybicki, mgr Monika Sitek i prof. dr hab. Łukasz Wyrzykowski.
Należy podkreślić, że astronomowie z UW od wielu lat zajmują się systematycznym monitorowaniem zmienności obiektów. To tu w latach 60. zeszłego stulecia Bohdan Paczyński prowadził badania nad obserwacyjnymi aspektami fal grawitacyjnych w układach podwójnych gwiazd. Od 1996 r. astronomowie prowadzą zaś pod przewodnictwem prof. Andrzeja Udalskiego długotrwałe obserwacje nieba za pomocą Teleskopu Warszawskiego w Chile (odkrywają planety i gwiazdy zmienne).
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.