Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Naukowcy z Harvarda sprawdzili, jak ChatGPT radzi sobie z diagnozowaniem chorych
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Każdy pojedynczy genom ludzki zawiera tysiące zmian genetycznych. Tylko nieliczne z nich prowadzą do zmian fenotypowych. Dlatego tak ważna jest ocena prognostyczna ich konsekwencji biologicznych oraz klinicznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz jego rodziny. Liczba i różnorodność diagnozowanych wariantów sprawia, że ocena ich konsekwencji funkcjonalnych wymaga wsparcia przez wieloelementową analizę obliczeniową. Obecnie dostępnych jest wiele narzędzi predykcji in silico. Wykorzystują one różnorodne modele obliczeniowe oraz źródła danych genetycznych.
Genom człowieka jest to całkowita informacja genetyczna zawarta w zestawie 23 par chromosomów obecnych w jądrze komórkowym (genom jądrowy) oraz w mitochondriach (genom mitochondrialny) [1]. Haploidalny ludzki genom jądrowy ma długość około 3 miliardów par zasad i koduje około 30 000 genów [2]. Genom zbudowany jest z kwasu dezoksyrybonukleinowego (DNA). Składa się z części kodujących białka tzw. eksonów obejmujących
Dla przetrwania oraz prawidłowego rozrodu wymagana jest stabilność genetyczna. Jest ona zapewniana przez proces replikacji oraz mechanizmy naprawy wychwytujące i korygujące błędy wynikające z pomyłek aparatu replikacyjnego oraz z przypadkowych uszkodzeń DNA. Czasem jednak mechanizmy naprawy okazują się zawodne i wtedy zamiast zmiany przejściowej dochodzi do utrwalenia błędu. Takie trwałe zmiany, które mogą lecz nie muszą, prowadzić do poważnych konsekwencji, nazywamy mutacjami. Efekty wpływu mutacji na komórkę, organizm zależą od wielu czynników m.in. rodzaju wariantu, miejsca powstania [4]. Mutacje zgodnie z definicją, są to wszelkie trwałe zmiany w sekwencji nukleotydowej o częstości populacyjnej poniżej 1%. Termin polimorfizm jest zdefiniowany jako wariant występujący w populacji z częstością 1% lub większą. Warianty genetyczne można sklasyfikować na podstawie wielu różnych parametrów m.in.: ze względu na zakres jaki obejmują, mechanizm powstawania, miejsca powstania lub konsekwencje jakie wywołują [5].
Wśród mutacji genowych dodatkowo wyróżnić można mutacje punktowe, które dotyczą zmian pojedynczych nukleotydów.
Dynamiczny rozwój diagnostyki molekularnej wymusił konieczność wprowadzenia ujednoliconego oraz jednoznacznego zapisu wariantów sekwencji nukleotydowej. Na podstawie zestawu standardowych kryteriów powstała międzynarodowa, referencyjna nomenklatura wariantów genetycznych. Za utrzymywanie i wersjonowanie nomenklatury odpowiedzialna jest organizacja Human Genome Variation Society (HGVS). Opracowane wytyczne umożliwiają efektywne współdzielenie oraz użytkowanie informacji genomowych. Wszystkie laboratoria genetyczne zobligowane są do zapisu wyniku badania genetycznego zgodnie z wytycznymi HGVS [5,6]. Przyjęte rekomendacje dostępne są do publicznej wiadomości na stronie internetowej www.varnomen.hgvs.org [7].
Celem diagnostyki genetycznej jest wsparcie oceny klinicznej oraz podejmowanych decyzji medycznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz błędną stratyfikację ryzyka dla członków jego rodziny. W 2013 r. organizacja American College of Medical Genetics and Genomics (ACMG) zwołała specjalną grupę roboczą złożoną z przedstawicieli ACMG, American Association for Molecular Pathology (AMP) oraz College of American Pathologists (CAP). Grupa ta składała się z klinicystów oraz dyrektorów laboratoriów klinicznych. Celem było opracowanie międzynarodowych wytycznych dotyczących klasyfikacji znaczenia wariantów genetycznych wykrywanych w analizach sekwencjonowania genomu ludzkiego. W 2015 roku został opublikowany specjalny raport przedstawiający szczegółowe rekomendacje dotyczące testów genetycznych wykonywanych w laboratoriach klinicznych. Warianty identyfikowane w chorobach monogenowych, dziedziczonych zgodnie z prawami Mendla zaklasyfikowano do pięciu kategorii:
● wariant patogenny (ang. pathogenic),
● wariant potencjalnie patogenny (ang. likely pathogenic),
● wariant o niepewnym znaczeniu (ang. uncertain significance),
● wariant potencjalnie łagodny (ang. likely benign),
● wariant łagodny (ang. benign) [6].
“In silico” jest to termin naukowy określający sposób wykonania czynności, badania, testu. Oznacza, że analiza została przeprowadzona za pomocą komputera i urządzeń informatycznych. Nazwa powstała analogicznie do terminów in vitro i in vivo [10]. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Wykorzystuje analizę asocjacji polegającą na łączeniu określonego wariantu z wystąpieniem danej cechy [11]. Analiza bioinformatyczna wyniku pacjenta składa się z wielu etapów. Obejmuje m.in. następujące analizy in silico:
● porównywanie sekwencji badanej z sekwencją referencyjną - sekwencje referencyjne dostępne są w wielu przeglądarkach genomowych, do najczęściej stosowanych należą m.in. GenBank, LRG oraz Ensembl,
● przeszukiwanie baz danych populacyjnych, gromadzących informacje o częstościach wariantów np.1000 Genomes,, Exome Aggregation Consortium (ExAC), Exome Variant Server,
● przeszukiwanie biomedycznych baz danych, gromadzących informacje o klinicznym znaczeniu wariantów, powiązaniu fenotypowym, zaburzeniach genetycznych m.in. ClinVar, OMIM, Human Gene Mutation Database (HGMD)
● przeszukiwaniu biomedycznych publikacji naukowych,
● interpretację wpływu wykrytego wariantów na genom oraz kodowane białko z zastosowaniem programów predykcyjnych [6,7,8].
W chwili obecnej dostępnych jest wiele narzędzi predykcji in silico, a analiza patogenności wariantów genetycznych jest kluczowa w skutecznej diagnostyce genetycznej i następującej po niej terapii.
Piśmiennictwo
[1] Brown, T. A.: The Human Genome. Oxford: Wiley-Liss 2002
[2] National Human Genome Research Institute (NHGRI). Human Genome Project Completion: Frequently Asked Questions. https://www.genome.gov
[3] Friedman J.M., Dill F.J. , Hayden M.R., McGillivaray B.C.: Genetyka. Wydawnictwo medyczne Urban & Partner, Wydanie I polskie pod redakcją Limona J., Wrocław 1996
[4] Alberts B., Bray D., Johnson A., Lewis J., Raff M., Roberts K., Walter P.: Podstawy biologii komórki. Wprowadzenie do biologii molekularnej. Wydawnictwo Naukowe PWN, przekład pod redakcją Michejdy J. i Augustyniaka J., Warszawa 1999
[5] Claustres M., Kozich V., Dequeker E., Fowler B., Hehir-Kwa J.Y., Miller K., Oosterwijk C., Peterlin B., van Ravenswaaij-Arts C., Zimmermann U., Zuffardi O., Hastings R.J. and David E., Barton D.E., on behalf of the ESHG Quality committee: Recommendations for reporting results of diagnostic genetic testing (biochemical, cytogenetic and molecular genetic). European Journal of Human Genetics 2014; 22
[6] Richards S., Aziz N., Bale S., Bick D., Das S., Gastier-Foster J., Grody W.W., Hegde M., Lyon E., Spector E., Voelkerding K., Rehm H.L., on behalf of the ACMG Laboratory Quality Assurance Committee: Standards and Guidelines for the Interpretation of Sequence Variants: A Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology. Genetics in Medicine 2015; 17
[7] https://varnomen.hgvs.org
[8] den Dunnen J.T., Dalgleish R. , Maglott D.R., Hart R.K., Greenblatt M.S., McGowan-Jordan J., Roux A.F., Smith T., Antonarakis S.E., Taschner P.E.: HGVS Recommendations for the Description of Sequence Variants. Hum Mutat. 2016; 37(6)
[9] Kim Y.E., Ki C.S., Jang M.A.: Challenges and Considerations in Sequence Variant Interpretation for Mendelian Disorders. Ann Lab Med 2019; 39(5)
[10] Colquitt R.B., Colquhoun D.A., Thiele R.H.: In silico modelling of physiologic systems. Best Practice & Research Clinical Anaesthesiology 2011; 25
[11] Słomski R.: Analiza DNA - Teoria i Praktyka. Wydawnictwo Uniwersytetu Przyrodniczego w Poznaniu, Poznań 2008
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.
« powrót do artykułu -
przez KopalniaWiedzy.pl
ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.
Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.
Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.
Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.
O ile zatem narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.