Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Polscy naukowcy szukają metod wczesnej diagnostyki alzheimera

Recommended Posts

Uniwersytet im. Adama Mickiewicza w Poznaniu (UAM), Politechnika Poznańska oraz neurolodzy i psychiatrzy chcą opracować nową, bezinwazyjną metodę diagnozowania choroby Alzheimera na wczesnym etapie. Jak podkreślono na stronie UAM, w celu przeprowadzenia badań pilotażowych w projekcie naukowcy planują zgromadzić grupę około 50 osób zagrożonych rozwojem choroby, a także podobną grupę kontrolną.

Choroba Alzheimer przez dekady może rozwijać się bez żadnych objawów. Tymczasem, jak w przypadku większości chorób, wczesne rozpoznanie ma olbrzymie znaczenie dla rokowań. Im zatem szybciej schorzenie zostanie zdiagnozowane, tym większa szansa na wyleczenie czy powstrzymanie dalszych postępów choroby. Wszyscy mamy nadzieję, że prędzej czy później będziemy dysponować skutecznym lekiem, jednak może się okazać, że największą barierą w jego zastosowaniu będzie dostęp do wczesnej diagnostyki - obecnie drogiej i trudno osiągalnej, mówi profesor Jędrzej Kociński z UAM.

Naukowcy zapraszają więc do wzięcia udziału w bezpłatnych anonimowych badaniach wszystkich, którzy podejrzewają, że coś złego dzieje się z ich pamięcią, oraz osoby po 50. roku życia bez zaburzeń pamięci, ale w rodzinach których są lub były osoby z wczesnym otępieniem (czyli takie, u których rozwinęło się one przed 65. rokiem życia). W badaniach nie mogą wziąć udział osoby z wyraźnymi objawami otępienia, ani z już zdiagnozowaną chorobą Alzheimera. Szczegółowe informacje o projekcie znajdziemy na stronach Alzheimer Prediction Project, a chęć udziału w badaniu można zgłosić pisząc na adres kierownika projektu, doktora Marcina Górniaka, lekarz.marcin.gorniak[at]gmail.com.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Choroba Alzheimera niszczy mózg w dwóch etapach, ogłosili badacze z amerykańskich Narodowych Instytutów Zdrowia. Ich zdaniem pierwszy etap przebiega powoli i niezauważenie, zanim jeszcze pojawią się problemy z pamięcią. Wówczas dochodzi do uszkodzeń tylko kilku typów wrażliwych komórek. Etap drugi jest znacznie bardziej niszczący i w nim dochodzi do pojawienia się objawów choroby, szybkiej akumulacji blaszek amyloidowych, splątków i innych cech charakterystycznych alzheimera.
      Jednym z problemów związanych z diagnozowaniem i leczeniem choroby Alzheimera jest fakt, że do znacznej części szkód dochodzi na długo zanim pojawią się objawy. Możliwość wykrycia tych szkód oznacza, że po raz pierwszy możemy obserwować to, co dzieje się w mózgu chorej osoby na najwcześniejszych etapach choroby. Uzyskane przez nas wyniki w znaczący sposób zmienią rozumienie, w jaki sposób choroba uszkadza mózg i ułatwią opracowanie nowych metod leczenia, mówi doktor Richar J. Hodes, dyrektor Narodowego Instytutu Starzenia Się.
      Badacze przeanalizowali mózgu 84 osób i stwierdzili, że uszkodzenie na wczesnym etapie choroby neuronów hamujących może być tym czynnikiem, który wyzwala całą kaskadę reakcji prowadzących do choroby.
      Badania potwierdziły też wcześniejsze spostrzeżenia dotyczące alzheimera. Naukowcy wykorzystali zaawansowane narzędzia do analizy genetycznej, by bliżej przyjrzeć się komórkom w zakręcie skroniowym środkowym, gdzie znajdują się ośrodki odpowiedzialne za pamięć, język i widzenie. Obszar ten jest bardzo wrażliwy na zmiany zachodzące w chorobie Alzheimera.
      Porównując dane z analizowanych mózgów z danymi z mózgów osób, które cierpiały na alzheimera, naukowcy byli w stanie odtworzyć linię czasu zmian zachodzących w komórkach i genach w miarę rozwoju choroby.
      Wcześniejsze badania sugerowały, że do uszkodzeń dochodzi z kilkunastu etapach charakteryzujących się coraz większą liczbą umierających komórek, zwiększającym się stanem zapalnym i akumulacją białka w postaci blaszek amyloidowych i splątków. Z nowych badań wynika, że występują jedynie dwa etapy, a do wielu uszkodzeń dochodzi w drugim z nich i to wówczas pojawiają się widoczne objawy.
      W pierwszej, wolno przebiegającej ukrytej fazie, powoli gromadzą się blaszki, dochodzi do aktywowania układu odpornościowego mózgu, osłonki mielinowej oraz śmierci hamujących neuronów somatostatynowych. To ostatnie odkrycie jest zaskakujące. Dotychczas uważano bowiem, że szkody w alzheimerze są powodowane głównie poprzez uszkodzenia neuronów pobudzających, które aktywują komórki, a nie je uspokajają. W opublikowanym na łamach Nature artykule możemy zapoznać się z hipotezą opisującą, w jaki sposób śmierć neuronów somatostatynowych może przyczyniać się do rozwoju choroby.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Każdy pojedynczy genom ludzki zawiera tysiące zmian genetycznych. Tylko nieliczne z nich prowadzą do zmian fenotypowych. Dlatego tak ważna jest ocena prognostyczna ich konsekwencji biologicznych oraz klinicznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz jego rodziny. Liczba i różnorodność diagnozowanych wariantów sprawia, że ocena ich konsekwencji funkcjonalnych wymaga wsparcia przez wieloelementową analizę obliczeniową. Obecnie dostępnych jest wiele narzędzi predykcji in silico. Wykorzystują one różnorodne modele obliczeniowe oraz źródła danych genetycznych.
      Genom człowieka jest to całkowita informacja genetyczna zawarta w zestawie 23 par chromosomów obecnych w jądrze komórkowym (genom jądrowy) oraz w mitochondriach (genom mitochondrialny) [1]. Haploidalny ludzki genom jądrowy ma długość około 3 miliardów par zasad i koduje około 30 000 genów [2]. Genom zbudowany jest z kwasu dezoksyrybonukleinowego (DNA). Składa się z części kodujących białka tzw. eksonów obejmujących
      Dla przetrwania oraz prawidłowego rozrodu wymagana jest stabilność genetyczna. Jest ona zapewniana przez proces replikacji oraz mechanizmy naprawy wychwytujące i korygujące błędy wynikające z pomyłek aparatu replikacyjnego oraz z przypadkowych uszkodzeń DNA. Czasem jednak mechanizmy naprawy okazują się zawodne i wtedy zamiast zmiany przejściowej dochodzi do utrwalenia błędu. Takie trwałe zmiany, które mogą lecz nie muszą, prowadzić do poważnych konsekwencji, nazywamy mutacjami. Efekty wpływu mutacji na komórkę, organizm zależą od wielu czynników m.in. rodzaju wariantu, miejsca powstania [4]. Mutacje zgodnie z definicją, są to wszelkie trwałe zmiany w sekwencji nukleotydowej o częstości populacyjnej poniżej 1%. Termin polimorfizm jest zdefiniowany jako wariant występujący w populacji z częstością 1% lub większą. Warianty genetyczne można sklasyfikować na podstawie wielu różnych parametrów m.in.: ze względu na zakres jaki obejmują, mechanizm powstawania, miejsca powstania lub konsekwencje jakie wywołują [5].
      Wśród mutacji genowych dodatkowo wyróżnić można mutacje punktowe, które dotyczą zmian pojedynczych nukleotydów.
      Dynamiczny rozwój diagnostyki molekularnej wymusił konieczność wprowadzenia ujednoliconego oraz jednoznacznego zapisu wariantów sekwencji nukleotydowej. Na podstawie zestawu standardowych kryteriów powstała międzynarodowa, referencyjna nomenklatura wariantów genetycznych. Za utrzymywanie i wersjonowanie nomenklatury odpowiedzialna jest organizacja Human Genome Variation Society (HGVS). Opracowane wytyczne umożliwiają efektywne współdzielenie oraz użytkowanie informacji genomowych. Wszystkie laboratoria genetyczne zobligowane są do zapisu wyniku badania genetycznego zgodnie z wytycznymi HGVS [5,6]. Przyjęte rekomendacje dostępne są do publicznej wiadomości na stronie internetowej www.varnomen.hgvs.org [7].
      Celem diagnostyki genetycznej jest wsparcie oceny klinicznej oraz podejmowanych decyzji medycznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz błędną stratyfikację ryzyka dla członków jego rodziny. W 2013 r. organizacja American College of Medical Genetics and Genomics (ACMG) zwołała specjalną grupę roboczą złożoną z przedstawicieli ACMG, American Association for Molecular Pathology (AMP) oraz College of American Pathologists (CAP). Grupa ta składała się z klinicystów oraz dyrektorów laboratoriów klinicznych. Celem było opracowanie międzynarodowych wytycznych dotyczących klasyfikacji znaczenia wariantów genetycznych wykrywanych w analizach sekwencjonowania genomu ludzkiego. W 2015 roku został opublikowany specjalny raport przedstawiający szczegółowe rekomendacje dotyczące testów genetycznych wykonywanych w laboratoriach klinicznych. Warianty identyfikowane w chorobach monogenowych, dziedziczonych zgodnie z prawami Mendla zaklasyfikowano do pięciu kategorii:
      ● wariant patogenny (ang. pathogenic),
      ● wariant potencjalnie patogenny (ang. likely pathogenic),
      ● wariant o niepewnym znaczeniu (ang. uncertain significance),
      ● wariant potencjalnie łagodny (ang. likely benign),
      ● wariant łagodny (ang. benign) [6].
      “In silico” jest to termin naukowy określający sposób wykonania czynności, badania, testu. Oznacza, że analiza została przeprowadzona za pomocą komputera i urządzeń informatycznych. Nazwa powstała analogicznie do terminów in vitro i in vivo [10]. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Wykorzystuje analizę asocjacji polegającą na łączeniu określonego wariantu z wystąpieniem danej cechy [11]. Analiza bioinformatyczna wyniku pacjenta składa się z wielu etapów. Obejmuje m.in. następujące analizy in silico:
      ● porównywanie sekwencji badanej z sekwencją referencyjną - sekwencje referencyjne dostępne są w wielu przeglądarkach genomowych, do najczęściej stosowanych należą m.in. GenBank, LRG oraz Ensembl,
      ● przeszukiwanie baz danych populacyjnych, gromadzących informacje o częstościach wariantów np.1000 Genomes,, Exome Aggregation Consortium (ExAC), Exome Variant Server,
      ● przeszukiwanie biomedycznych baz danych, gromadzących informacje o klinicznym znaczeniu wariantów, powiązaniu fenotypowym, zaburzeniach genetycznych m.in. ClinVar, OMIM, Human Gene Mutation Database (HGMD)
      ● przeszukiwaniu biomedycznych publikacji naukowych,
      ● interpretację wpływu wykrytego wariantów na genom oraz kodowane białko z zastosowaniem programów predykcyjnych [6,7,8].
      W chwili obecnej dostępnych jest wiele narzędzi predykcji in silico, a analiza patogenności wariantów genetycznych jest kluczowa w skutecznej diagnostyce genetycznej i następującej po niej terapii.
      Piśmiennictwo

      [1] Brown, T. A.: The Human Genome. Oxford: Wiley-Liss 2002

      [2] National Human Genome Research Institute (NHGRI). Human Genome Project Completion: Frequently Asked Questions. https://www.genome.gov

      [3] Friedman J.M., Dill F.J. , Hayden M.R., McGillivaray B.C.: Genetyka. Wydawnictwo medyczne Urban & Partner, Wydanie I polskie pod redakcją Limona J., Wrocław 1996

      [4] Alberts B., Bray D., Johnson A., Lewis J., Raff M., Roberts K., Walter P.: Podstawy biologii komórki. Wprowadzenie do biologii molekularnej. Wydawnictwo Naukowe PWN, przekład pod redakcją Michejdy J. i Augustyniaka J., Warszawa 1999

      [5] Claustres M., Kozich V., Dequeker E., Fowler B., Hehir-Kwa J.Y., Miller K., Oosterwijk C., Peterlin B., van Ravenswaaij-Arts C., Zimmermann U., Zuffardi O., Hastings R.J. and David E., Barton D.E., on behalf of the ESHG Quality committee: Recommendations for reporting results of diagnostic genetic testing (biochemical, cytogenetic and molecular genetic). European Journal of Human Genetics 2014; 22

      [6] Richards S., Aziz N., Bale S., Bick D., Das S., Gastier-Foster J., Grody W.W., Hegde M., Lyon E., Spector E., Voelkerding K., Rehm H.L., on behalf of the ACMG Laboratory Quality Assurance Committee: Standards and Guidelines for the Interpretation of Sequence Variants: A Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology. Genetics in Medicine 2015; 17

      [7] https://varnomen.hgvs.org

      [8] den Dunnen J.T., Dalgleish R. , Maglott D.R., Hart R.K., Greenblatt M.S., McGowan-Jordan J., Roux A.F., Smith T., Antonarakis S.E., Taschner P.E.: HGVS Recommendations for the Description of Sequence Variants. Hum Mutat. 2016; 37(6)

      [9] Kim Y.E., Ki C.S., Jang M.A.: Challenges and Considerations in Sequence Variant Interpretation for Mendelian Disorders. Ann Lab Med 2019; 39(5)

      [10] Colquitt R.B., Colquhoun D.A., Thiele R.H.: In silico modelling of physiologic systems. Best Practice & Research Clinical Anaesthesiology 2011; 25

      [11] Słomski R.: Analiza DNA - Teoria i Praktyka. Wydawnictwo Uniwersytetu Przyrodniczego w Poznaniu, Poznań 2008

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cukrzycą określa się grupę chorób metabolicznych charakteryzującą się przewlekłą hiperglikemią czyli podwyższonym poziomem glukozy we krwi. Istotną rolę w regulacji gospodarki węglowodanowej we krwi odgrywa insulina - hormon który wydzielany jest przez trzustkę. Insulina odpowiada za regulację transportu glukozy do komórek zmniejszając jej poziom we krwi obwodowej.
      Obecnie wyróżniamy dwa główne typy cukrzycy:
      Cukrzycę typu 1, w której dochodzi do zniszczenia komórek beta trzustki co prowadzi z reguły do bezwzględnego braku insuliny.
      Cukrzycę typu 2, nabytą, która spowodowana jest najczęściej opornością tkanek na insulinę. Cukrzyca charakteryzuje się objawami klinicznymi tj.: zwiększenie częstości oddawania moczu, wzmożone pragnienie, osłabienie, nieuzasadnione zmniejszenie masy ciała. U większości osób objawy te występują późno zatem konieczne jest wykonywanie badań przesiewowych.
      Współczesna medycyna posiada szeroki wachlarz badań dzięki, którym możemy diagnozować cukrzycę, stany przedcukrzycowe, insulinooporność oraz funkcje wydzielnicze trzustki. Wśród tych badań można wyróżnić: badanie glukozy na czczo, badanie glikemii przygodnej, badanie glukozy w moczu, doustny test obciążenia glukozą (OGTT), badanie peptydu-c, badanie odsetka hemoglobiny glikowanej (HbA1c), monitorowanie poziomu glukozy za pomocą glukometru oraz CGM.
      Według stanowiska Polskiego Towarzystwa Diabetologicznego z 2019 roku, podstawą do rozpoznania cukrzycy jest występowanie 1 z 3 kryteriów:
      – objawy hiperglikemii i glikemia przygodna ≥ 200 mg/dl,
      – dwukrotna glikemia na czczo ≥ 126 mg/dl,
      – glikemia 2h po posiłku ≥ 200 mg/dl.
      W roku 2021 Polskie Towarzystwo Diabetologiczne zdecydowało się umieścić w Zaleceniach dotyczących postępowania u chorych na cukrzycę badanie odsetka hemoglobiny glikowanej (HbA1c) w kryteriach rozpoznania cukrzycy. Do tej pory badanie to było stosowane do określania wyrównania cukrzycy u pacjentów na przełomie ostatnich trzech miesięcy. Aktualne zalecenia podają, iż lekarz może rozpoznać cukrzycę u pacjenta z wynikiem HbA1c powyżej 6,5%.
      Nasuwa się pytanie, czy badane odsetka hemoglobiny glikowanej może zastąpić doustny test obciążenia glukozą (OGTT) w rozpoznawaniu zaburzeń gospodarki węglowodanowej?
      Doustny test tolerancji glukozy (OGTT) został stworzony, aby określać tolerancję węglowodanów w organizmie. Badanie polega na pobraniu krwi żylnej na czczo oraz po 1 i 2 godzinach od wypicia 75g roztworu glukozy (*może się różnić w zależności od zaleceń lekarza). Podczas tego testu można równocześnie oznaczyć poziom glukozy i insuliny. Dzięki temu jest stosowany do określania tolerancji węglowodanów, zdolności komórek beta trzustki do wydzielania insuliny oraz wrażliwości tkanek na insulinę.
      Badane odsetka hemoglobiny glikowanej HbA1c jest stabilnym wskaźnikiem ekspozycji na glikemię przez okres ostatnich 3 miesięcy. Używano go do tej pory do monitorowania terapii u pacjentów z zdiagnozowaną cukrzycą. Za prawidłowo wyrównaną
      glikemię uznaje się poziom HbA1c < 7%
      Powszechnie wiadomo, że na wynik doustnego testu tolerancji glukozy (OGTT) wpływ ma wiele czynników. Jednym z najważniejszych jest przygotowanie pacjenta do badania.Pacjent musi być bezwzględnie na czczo (12h przerwy od ostatniego posiłku). Badania nie można wykonywać w czasie choroby, ciężkich treningów, ani w czasie stosowania nagłych restrykcji pokarmowych. Czas trwania badania to około 2 godziny i może się on wydłużyć w zależności od zaleceń lekarza. W tym czasie nie można nic jeść ani pić, nie można także wykonywać nadmiernej aktywności fizycznej. Zaleca się pozostanie w przychodni bądź laboratorium przez cały czas trwania badania.Obowiązkiem personelu jest zwrócić szczególną uwagę na przeprowadzenie z pacjentem dokładnego wywiadu oraz staranne przygotowanie do pobrania krwi gdyż częste powtarzanie tego badania nie pozostaje bez wpływu na organizm.
      Natomiast badanie HbA1c jest mniej wrażliwe na błędy fazy przedanalitycznej i analitycznej. Badanie to można wykonać o każdej porze dnia bez konieczności bycia na czczo. Parametr oznaczany jest z jednego pobrania, a badanie można również wykonać z materiału krew EDTA pobranego do badania morfologii krwi.
      Analizując tylko fazę przed analityczną i analityczną badań można stwierdzić, że test HbA1c jest rokującym kandydatem do skriningu pacjentów w celu rozpoznania cukrzycy. Czy zatem występuje istotna korelacja pomiędzy wynikami tych badań u diagnozowanych pacjentów?
      Esther Y T Yu i wsp. na Uniwersytecie w Hong Kongu przeprowadzili badania wśród 1128 osób, z których 229 miało zdiagnozowaną cukrzycą na podstawie testu OGTT. Czułość i swoistość testu HbA1c ≥ 6.5% wynosiły odpowiednio 33,2% i 93,5% u osób z wcześniej zdiagnozowaną cukrzycą na podstawie testu OGTT. Kiedy progiem odcięcia różnicowania chorych na cukrzycę było HbA1c ≥ 6,3% czułość i swoistość wynosiła odpowiednio 56,3% i 85,5%. Dla progu HbA1c ≥ 5,6% ma najwyższą czułość i swoistość wynoszącą odpowiednio 96,1% oraz 94.5%
      X. L. Dong i wsp. również przeprowadzili badania porównując wyniki badania HbA1c oraz testu OGTT. Wśród 701 uczestników badania, u 65 z nich została zdiagnozowana cukrzyca na podstawie badania HbA1c ≥ 6.5 % natomiast u 94 uczestników zdiagnozowano cukrzycę testem OGTT. W porównaniu z testem OGTT czułość i swoistość przy HbA1c > 6.5 % była odpowiednio 48.2% oraz 97.8%. Aż u 30,7% uczestników u których wynik badania HbA1c był powyżej 6.5% nie została zdiagnozowana cukrzyca na podstawie testu OGTT. Natomiast u 52%, u których na podstawie testu OGTT została zdiagnozowana cukrzyca, nie wykryto jej badaniem HbA1c ≥ 6.5 %
      Specyfika testu OGTT powoduje bardzo sceptyczne nastawienie pacjentów do niego. Łatwiejsze i bardziej komfortowe wydaje się być wykonanie badania HbA1c. Badanie odsetka hemoglobiny glikowanej może mieć istotne zastosowanie w monitorowaniu leczenia cukrzycy oraz może być jednym z badań wskazujących rozpoznanie choroby, ale wyniki HbA1c poniżej 6,5% nie wskazują na brak cukrzycy lub stanu przedcukrzycowego u pacjenta ze względu na niską czułość badania. U tych pacjentów należy przeprowadzić dodatkową diagnostykę.
      BIBLIOGRAFIA:
      Current Topics in Diabetes 2022 | Curr Top Diabetes, 2022; 2 (1): 1–134 Dong XL, Liu Y, Sun Y, Sun C, Fu FM, Wang SL, Chen L. Comparison of HbA1c and OGTT criteria to diagnose diabetes among Chinese. Exp Clin Endocrinol Diabetes. 2011 Jun;119(6):366-9. doi: 10.1055/s-0030-1267183. Epub 2010 Nov 19. PMID: 21104578 Solnica B., Dembińska-Kieć A., W. Naskalski J. (2017) Diagnostyka laboratoryjna z elementami biochemii klinicznej. Wrocław: Edra Urban & Partner Yu EY, Wong CK, Ho SY, Wong SY, Lam CL. Can HbA1c replace OGTT for the diagnosis of diabetes mellitus among Chinese patients with impaired fasting glucose? Fam Pract. 2015 Dec;32(6):631-8. doi: 10.1093/fampra/cmv077. Epub 2015 Oct 14. PMID: 26467644; PMCID: PMC5926458.
      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy ze Scripps Research oraz Massachusetts Institute of Technology (MIT) dokonali odkrycia, które może wyjaśniać, dlaczego to kobiety dwukrotnie częściej zapadają na chorobę Alzheimera. Na łamach Science Advances opublikowali oni artykuł, w którym informują, że w mózgach kobiet, które zmarły na alzheimera, znaleziono znacznie więcej szczególnie szkodliwej, chemicznej zmienionej formy białka dopełniacza C3 niż w mózgach mężczyzn. Wykazali też, że estrogen, którego wytwarzanie znacząco spada w czasie menopauzy, chroni kobiety przed tworzeniem się tej formy białka.
      Układ dopełniacza to zespół około 60 białek surowicy i płynów tkankowych, które biorą udział w obronie przeciwzakaźnej organizmu. Jest to jeden z najstarszych mechanizmów odporności nieswoistej. Odpowiada on między innymi za zabijanie komórek bakteryjnych, stymulację rozwoju pamięci immunologicznej czy usuwanie potencjalnie szkodliwych cząsteczek własnych powstających w wyniku śmierci komórkowej. Białko dopełniacza C3 jest bardzo starym białkiem. Występowało już u szkarłupni i osłonic 700 milionów lat temu.
      Nasze odkrycie sugeruje, że chemiczna modyfikacja tego składnika układu dopełniacza napędza chorobę Alzheimera i może – przynajmniej częściowo – wyjaśniać, dlaczego schorzenie to dotyka głównie kobiety, mówi profesor neurologii Stuart Lipton.
      Zespół Liptona bada biochemiczne i molekularne podstawy chorób neurodegeneracyjnych. To oni w przeszłości odkryli proces S-nitrolizacji, któremu poddawane jest białko C3. To reakcja, w czasie której tlenek azotu (NO) przyłącza się do atomu siarki w białku, tworząc zmodyfikowaną formę białka SNO-białko. Modyfikacje białek przez niewielkie grupy atomów są czymś naturalnym i zwykle prowadzą do aktywacji lub dezaktywacji funkcji danego białka. Z przyczyn technicznych S-nitrolizacja jest procesem trudniejszym do badania niż podobne zjawiska.
      Kierowani przez Liptona uczeni wykorzystali nowatorskie metody wykrywania S-nitrolizacji do oceny poziomu protein, które uległy modyfikacji w mózgach 40 zmarłych. Połowa z mózgów pochodziła od osób, które zmarły na chorobę Alzheimera, połowa od osób, które na nią nie cierpiały. Obie grupy były równo podzielone pomiędzy mózgi kobiet i mężczyzn.
      W sumie naukowcy znaleźli 1449 różnych proteiny, które uległy S-nitrolizacji. Wśród tych, które najczęściej ulegały takiej modyfikacji, było kilkanaście łączonych z chorobą Alzheimera, w tym białko dopełniacza C3. Okazało się, że poziom SNO-C3 – czyli białka dopełniacza C3, które uległo S-nitrolizacji – był w mózgach kobiet zmarłych na Alzheimera ponad 6-krotnie wyższy, niż w mózgach mężczyzn, którzy zmarli z tego samego powodu.
      Naukowcy od ponad 30 lat wiedzą, że w mózgach chorych na alzheimera występuje podwyższony poziom białek dopełniacza i innych markerów stanu zapalnego. Badania wykazały też, że białka dopełniacza mogą pobudzić komórki odpornościowe mózgu – mikroglej – do niszczenia synaps.
      Dlaczego jednak SNO-C3 miałoby częściej występować u kobiet z Alzheimerem? Od dawna pojawiają się dowody sugerujące, że estrogen chroni mózgi kobiet. Dlatego też Lipton i jego zespół wysunęli hipotezę, że estrogen chroni mózgi pań szczególnie przed S-nitrolizacją białka C3, a ochrona ta znika wraz z menopauzą. Przeprowadzili więc badania na hodowanych w laboratorium komórkach ludzkiego mózgu. Wykazali w ten sposób, że po zmniejszeniu poziomu estrogenu dochodzi do aktywacji enzymu wytwarzającego NO, co pociąga za sobą wzrost liczby SNO-C3.
      Od dawna było tajemnicą, dlaczego kobiety są bardziej narażone na chorobę Alzheimera. Myślę, że nasze badania to waży element układanki wyjaśniającej tę kwestię, stwierdza profesor Lipton. W kolejnym etapie badań uczony chce sprawdzić, czy zastosowanie środków usuwających modyfikację SNO doprowadzi do ograniczenia rozwoju patologii w tkance mózgowej.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...