Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polscy naukowcy szukają metod wczesnej diagnostyki alzheimera

Rekomendowane odpowiedzi

Uniwersytet im. Adama Mickiewicza w Poznaniu (UAM), Politechnika Poznańska oraz neurolodzy i psychiatrzy chcą opracować nową, bezinwazyjną metodę diagnozowania choroby Alzheimera na wczesnym etapie. Jak podkreślono na stronie UAM, w celu przeprowadzenia badań pilotażowych w projekcie naukowcy planują zgromadzić grupę około 50 osób zagrożonych rozwojem choroby, a także podobną grupę kontrolną.

Choroba Alzheimer przez dekady może rozwijać się bez żadnych objawów. Tymczasem, jak w przypadku większości chorób, wczesne rozpoznanie ma olbrzymie znaczenie dla rokowań. Im zatem szybciej schorzenie zostanie zdiagnozowane, tym większa szansa na wyleczenie czy powstrzymanie dalszych postępów choroby. Wszyscy mamy nadzieję, że prędzej czy później będziemy dysponować skutecznym lekiem, jednak może się okazać, że największą barierą w jego zastosowaniu będzie dostęp do wczesnej diagnostyki - obecnie drogiej i trudno osiągalnej, mówi profesor Jędrzej Kociński z UAM.

Naukowcy zapraszają więc do wzięcia udziału w bezpłatnych anonimowych badaniach wszystkich, którzy podejrzewają, że coś złego dzieje się z ich pamięcią, oraz osoby po 50. roku życia bez zaburzeń pamięci, ale w rodzinach których są lub były osoby z wczesnym otępieniem (czyli takie, u których rozwinęło się one przed 65. rokiem życia). W badaniach nie mogą wziąć udział osoby z wyraźnymi objawami otępienia, ani z już zdiagnozowaną chorobą Alzheimera. Szczegółowe informacje o projekcie znajdziemy na stronach Alzheimer Prediction Project, a chęć udziału w badaniu można zgłosić pisząc na adres kierownika projektu, doktora Marcina Górniaka, lekarz.marcin.gorniak[at]gmail.com.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
      Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
      Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
      Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
      System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
      W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
      Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
      Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ksenon to gaz szlachetny, który obecnie używany jest w medycynie jako anestetyk oraz substancja ochronna podczas leczenia urazów mózgu. W Science Translational Medicine ukazał się artykuł, którego autorzy omawiają zastosowanie ksenonu w leczeniu choroby Alzheimera. Uczeni z Mass General Brigham i Wydziału Medycyny Washington University zauważyli, że wdychanie ksenonu zmniejsza stan zapalny układu nerwowego, atrofię mózgu i chroni neurony myszy z alzheimerem. Wyniki badań są tak obiecujące, że wkrótce rozpocznie się 1. faza badań klinicznych na zdrowych ochotnikach.
      Okazuje się, że samo wdychanie tego obojętnego gazu wywiera silny ochronny wpływ na układ nerwowy. Jedna z głównych przeszkód na polu badań nad chorobą Alzheimera polega na olbrzymiej trudności w zaprojektowaniu leków, które przekraczałyby barierę krew-mózg. A ksenon to potrafi, mówi doktor Oleg Butovsky Brigham and Women's Hospital.
      Niezwykle ekscytujący jest fakt, że w obu zwierzęcych modelach różnych aspektów choroby Alzheimera, zarówno w modelu patologii płytek amyloidowych, jak i w modelu patologii splątków tau, ksenon miał korzystny wpływ, dodaje doktor David M. Holtzman.
      Obecnie nauka do końca nie rozumie powodów rozwoju choroby Alzheimera. Jej cechą charakterystyczną jest gromadzenie się mózgu nieprawidłowych białek, w tym splątków tau i płytek amyloidowych, które niszczą komórki nerwowe, prowadząc do uszkodzeń i w końcu do śmierci. Komórki mikrogleju, które są najważniejszą linią obrony mózgu, ulegają rozregulowaniu w przebiegu alzheimera. Nie posiadamy też obecnie żadnego lekarstwa na tę chorobę.
      Podczas najnowszych, prowadzonych na myszach, badaniach, naukowcy zauważyli, że wdychanie ksenonu zmniejszyło stopień atrofii mózgu i stan zapalny u myszy z alzheimerem. Poprawiło się też funkcjonowanie zwierząt. Ksenon okazał się środkiem, który może poprawić działanie mikrogleju i zmniejszyć zniszczenia spowodowane chorobą. Dlatego też w ciągu najbliższych miesięcy z Brigham and Women's Hospital maja rozpocząć się badania kliniczne na zdrowych ochotnikach. Mają one na celu zbadanie bezpieczeństwa terapii i określenie właściwych dawek ksenonu. Jednocześnie prowadzone będą badania nad mechanizmami, przez które ksenon działa na mózg oraz nad potencjalnym zastosowaniem tego gazu w innych chorobach, jak stwardnienie rozsiane, choroba Lou Gehriga czy choroby oczu związane z utratą neuronów. Uczeni będą szukać też sposobów na bardziej efektywne podawanie ksenonu oraz jego potencjalny recykling.
      Jeśli badania kliniczne wypadną dobrze, może to otworzyć nowe drogi pomocy pacjentom z chorobami neurologicznymi, mówi doktor Howard Weiner, który będzie głównym naukowcem odpowiedzialnym za badania kliniczne.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Choroba Alzheimera niszczy mózg w dwóch etapach, ogłosili badacze z amerykańskich Narodowych Instytutów Zdrowia. Ich zdaniem pierwszy etap przebiega powoli i niezauważenie, zanim jeszcze pojawią się problemy z pamięcią. Wówczas dochodzi do uszkodzeń tylko kilku typów wrażliwych komórek. Etap drugi jest znacznie bardziej niszczący i w nim dochodzi do pojawienia się objawów choroby, szybkiej akumulacji blaszek amyloidowych, splątków i innych cech charakterystycznych alzheimera.
      Jednym z problemów związanych z diagnozowaniem i leczeniem choroby Alzheimera jest fakt, że do znacznej części szkód dochodzi na długo zanim pojawią się objawy. Możliwość wykrycia tych szkód oznacza, że po raz pierwszy możemy obserwować to, co dzieje się w mózgu chorej osoby na najwcześniejszych etapach choroby. Uzyskane przez nas wyniki w znaczący sposób zmienią rozumienie, w jaki sposób choroba uszkadza mózg i ułatwią opracowanie nowych metod leczenia, mówi doktor Richar J. Hodes, dyrektor Narodowego Instytutu Starzenia Się.
      Badacze przeanalizowali mózgu 84 osób i stwierdzili, że uszkodzenie na wczesnym etapie choroby neuronów hamujących może być tym czynnikiem, który wyzwala całą kaskadę reakcji prowadzących do choroby.
      Badania potwierdziły też wcześniejsze spostrzeżenia dotyczące alzheimera. Naukowcy wykorzystali zaawansowane narzędzia do analizy genetycznej, by bliżej przyjrzeć się komórkom w zakręcie skroniowym środkowym, gdzie znajdują się ośrodki odpowiedzialne za pamięć, język i widzenie. Obszar ten jest bardzo wrażliwy na zmiany zachodzące w chorobie Alzheimera.
      Porównując dane z analizowanych mózgów z danymi z mózgów osób, które cierpiały na alzheimera, naukowcy byli w stanie odtworzyć linię czasu zmian zachodzących w komórkach i genach w miarę rozwoju choroby.
      Wcześniejsze badania sugerowały, że do uszkodzeń dochodzi z kilkunastu etapach charakteryzujących się coraz większą liczbą umierających komórek, zwiększającym się stanem zapalnym i akumulacją białka w postaci blaszek amyloidowych i splątków. Z nowych badań wynika, że występują jedynie dwa etapy, a do wielu uszkodzeń dochodzi w drugim z nich i to wówczas pojawiają się widoczne objawy.
      W pierwszej, wolno przebiegającej ukrytej fazie, powoli gromadzą się blaszki, dochodzi do aktywowania układu odpornościowego mózgu, osłonki mielinowej oraz śmierci hamujących neuronów somatostatynowych. To ostatnie odkrycie jest zaskakujące. Dotychczas uważano bowiem, że szkody w alzheimerze są powodowane głównie poprzez uszkodzenia neuronów pobudzających, które aktywują komórki, a nie je uspokajają. W opublikowanym na łamach Nature artykule możemy zapoznać się z hipotezą opisującą, w jaki sposób śmierć neuronów somatostatynowych może przyczyniać się do rozwoju choroby.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Każdy pojedynczy genom ludzki zawiera tysiące zmian genetycznych. Tylko nieliczne z nich prowadzą do zmian fenotypowych. Dlatego tak ważna jest ocena prognostyczna ich konsekwencji biologicznych oraz klinicznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz jego rodziny. Liczba i różnorodność diagnozowanych wariantów sprawia, że ocena ich konsekwencji funkcjonalnych wymaga wsparcia przez wieloelementową analizę obliczeniową. Obecnie dostępnych jest wiele narzędzi predykcji in silico. Wykorzystują one różnorodne modele obliczeniowe oraz źródła danych genetycznych.
      Genom człowieka jest to całkowita informacja genetyczna zawarta w zestawie 23 par chromosomów obecnych w jądrze komórkowym (genom jądrowy) oraz w mitochondriach (genom mitochondrialny) [1]. Haploidalny ludzki genom jądrowy ma długość około 3 miliardów par zasad i koduje około 30 000 genów [2]. Genom zbudowany jest z kwasu dezoksyrybonukleinowego (DNA). Składa się z części kodujących białka tzw. eksonów obejmujących
      Dla przetrwania oraz prawidłowego rozrodu wymagana jest stabilność genetyczna. Jest ona zapewniana przez proces replikacji oraz mechanizmy naprawy wychwytujące i korygujące błędy wynikające z pomyłek aparatu replikacyjnego oraz z przypadkowych uszkodzeń DNA. Czasem jednak mechanizmy naprawy okazują się zawodne i wtedy zamiast zmiany przejściowej dochodzi do utrwalenia błędu. Takie trwałe zmiany, które mogą lecz nie muszą, prowadzić do poważnych konsekwencji, nazywamy mutacjami. Efekty wpływu mutacji na komórkę, organizm zależą od wielu czynników m.in. rodzaju wariantu, miejsca powstania [4]. Mutacje zgodnie z definicją, są to wszelkie trwałe zmiany w sekwencji nukleotydowej o częstości populacyjnej poniżej 1%. Termin polimorfizm jest zdefiniowany jako wariant występujący w populacji z częstością 1% lub większą. Warianty genetyczne można sklasyfikować na podstawie wielu różnych parametrów m.in.: ze względu na zakres jaki obejmują, mechanizm powstawania, miejsca powstania lub konsekwencje jakie wywołują [5].
      Wśród mutacji genowych dodatkowo wyróżnić można mutacje punktowe, które dotyczą zmian pojedynczych nukleotydów.
      Dynamiczny rozwój diagnostyki molekularnej wymusił konieczność wprowadzenia ujednoliconego oraz jednoznacznego zapisu wariantów sekwencji nukleotydowej. Na podstawie zestawu standardowych kryteriów powstała międzynarodowa, referencyjna nomenklatura wariantów genetycznych. Za utrzymywanie i wersjonowanie nomenklatury odpowiedzialna jest organizacja Human Genome Variation Society (HGVS). Opracowane wytyczne umożliwiają efektywne współdzielenie oraz użytkowanie informacji genomowych. Wszystkie laboratoria genetyczne zobligowane są do zapisu wyniku badania genetycznego zgodnie z wytycznymi HGVS [5,6]. Przyjęte rekomendacje dostępne są do publicznej wiadomości na stronie internetowej www.varnomen.hgvs.org [7].
      Celem diagnostyki genetycznej jest wsparcie oceny klinicznej oraz podejmowanych decyzji medycznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz błędną stratyfikację ryzyka dla członków jego rodziny. W 2013 r. organizacja American College of Medical Genetics and Genomics (ACMG) zwołała specjalną grupę roboczą złożoną z przedstawicieli ACMG, American Association for Molecular Pathology (AMP) oraz College of American Pathologists (CAP). Grupa ta składała się z klinicystów oraz dyrektorów laboratoriów klinicznych. Celem było opracowanie międzynarodowych wytycznych dotyczących klasyfikacji znaczenia wariantów genetycznych wykrywanych w analizach sekwencjonowania genomu ludzkiego. W 2015 roku został opublikowany specjalny raport przedstawiający szczegółowe rekomendacje dotyczące testów genetycznych wykonywanych w laboratoriach klinicznych. Warianty identyfikowane w chorobach monogenowych, dziedziczonych zgodnie z prawami Mendla zaklasyfikowano do pięciu kategorii:
      ● wariant patogenny (ang. pathogenic),
      ● wariant potencjalnie patogenny (ang. likely pathogenic),
      ● wariant o niepewnym znaczeniu (ang. uncertain significance),
      ● wariant potencjalnie łagodny (ang. likely benign),
      ● wariant łagodny (ang. benign) [6].
      “In silico” jest to termin naukowy określający sposób wykonania czynności, badania, testu. Oznacza, że analiza została przeprowadzona za pomocą komputera i urządzeń informatycznych. Nazwa powstała analogicznie do terminów in vitro i in vivo [10]. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Wykorzystuje analizę asocjacji polegającą na łączeniu określonego wariantu z wystąpieniem danej cechy [11]. Analiza bioinformatyczna wyniku pacjenta składa się z wielu etapów. Obejmuje m.in. następujące analizy in silico:
      ● porównywanie sekwencji badanej z sekwencją referencyjną - sekwencje referencyjne dostępne są w wielu przeglądarkach genomowych, do najczęściej stosowanych należą m.in. GenBank, LRG oraz Ensembl,
      ● przeszukiwanie baz danych populacyjnych, gromadzących informacje o częstościach wariantów np.1000 Genomes,, Exome Aggregation Consortium (ExAC), Exome Variant Server,
      ● przeszukiwanie biomedycznych baz danych, gromadzących informacje o klinicznym znaczeniu wariantów, powiązaniu fenotypowym, zaburzeniach genetycznych m.in. ClinVar, OMIM, Human Gene Mutation Database (HGMD)
      ● przeszukiwaniu biomedycznych publikacji naukowych,
      ● interpretację wpływu wykrytego wariantów na genom oraz kodowane białko z zastosowaniem programów predykcyjnych [6,7,8].
      W chwili obecnej dostępnych jest wiele narzędzi predykcji in silico, a analiza patogenności wariantów genetycznych jest kluczowa w skutecznej diagnostyce genetycznej i następującej po niej terapii.
      Piśmiennictwo

      [1] Brown, T. A.: The Human Genome. Oxford: Wiley-Liss 2002

      [2] National Human Genome Research Institute (NHGRI). Human Genome Project Completion: Frequently Asked Questions. https://www.genome.gov

      [3] Friedman J.M., Dill F.J. , Hayden M.R., McGillivaray B.C.: Genetyka. Wydawnictwo medyczne Urban & Partner, Wydanie I polskie pod redakcją Limona J., Wrocław 1996

      [4] Alberts B., Bray D., Johnson A., Lewis J., Raff M., Roberts K., Walter P.: Podstawy biologii komórki. Wprowadzenie do biologii molekularnej. Wydawnictwo Naukowe PWN, przekład pod redakcją Michejdy J. i Augustyniaka J., Warszawa 1999

      [5] Claustres M., Kozich V., Dequeker E., Fowler B., Hehir-Kwa J.Y., Miller K., Oosterwijk C., Peterlin B., van Ravenswaaij-Arts C., Zimmermann U., Zuffardi O., Hastings R.J. and David E., Barton D.E., on behalf of the ESHG Quality committee: Recommendations for reporting results of diagnostic genetic testing (biochemical, cytogenetic and molecular genetic). European Journal of Human Genetics 2014; 22

      [6] Richards S., Aziz N., Bale S., Bick D., Das S., Gastier-Foster J., Grody W.W., Hegde M., Lyon E., Spector E., Voelkerding K., Rehm H.L., on behalf of the ACMG Laboratory Quality Assurance Committee: Standards and Guidelines for the Interpretation of Sequence Variants: A Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology. Genetics in Medicine 2015; 17

      [7] https://varnomen.hgvs.org

      [8] den Dunnen J.T., Dalgleish R. , Maglott D.R., Hart R.K., Greenblatt M.S., McGowan-Jordan J., Roux A.F., Smith T., Antonarakis S.E., Taschner P.E.: HGVS Recommendations for the Description of Sequence Variants. Hum Mutat. 2016; 37(6)

      [9] Kim Y.E., Ki C.S., Jang M.A.: Challenges and Considerations in Sequence Variant Interpretation for Mendelian Disorders. Ann Lab Med 2019; 39(5)

      [10] Colquitt R.B., Colquhoun D.A., Thiele R.H.: In silico modelling of physiologic systems. Best Practice & Research Clinical Anaesthesiology 2011; 25

      [11] Słomski R.: Analiza DNA - Teoria i Praktyka. Wydawnictwo Uniwersytetu Przyrodniczego w Poznaniu, Poznań 2008

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...