Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Zapobieganie rozwojowi choroby Alzheimera wymaga rozpoznania jej wczesnych symptomów. Najczęściej zaczyna się od łagodnego upośledzenia funkcji poznawczych (mild cognitive impairment, MCI). Jednak nie u każdego pacjenta z MCI ta przypadłość rozwija się, w wielu przypadkach pozostaje ona na stałym poziomie. Jak zidentyfikować i odróżnić te przypadki? Doktor Sven Haller, radiolog z University Hospitals of Geneva zaprzągł do diagnozowania nową, specjalistyczną technologię podatnościozależnego rezonansu magnetycznego (susceptibility weighted imaging, SWI) oraz... sztuczną inteligencję.

W przygotowawczym badaniu wzięło udział 69 pacjentów w wieku przeciętnie 65 lat płci obojga ze zdiagnozowanym MCI oraz grupa kontrolna 35 osób. Zaburzenia poznawcze zidentyfikowano za pomocą standardowego zestawi testów psychologicznych, wszystkich badanych poddano obrazowaniu nową technologią rezonansu magnetycznego. Po roku badania powtórzono, identyfikując 27 pacjentów z pogłębiającym się stanem MCI. Badanie SWI pozwoliło na dokładną analizę nawet niewielkich naczyń krwionośnych, połączoną z identyfikacją mikrowylewów, a także na porównanie stężenia żelaza w różnych obszarach mózgu.

Liczba odkrytych mikrowylewów była znacząco wyższa u osób z narastającym upośledzeniem zdolności poznawczych (54%) niż u osób ze stabilną dolegliwością (33%). W grupie kontrolnej wskaźnik ten wyniósł jedynie 14%. Obrazowanie pokazało również, że osoby ze zdiagnozowanym MCI miały zwiększoną koncentrację żelaza w niektórych głębszych strukturach mózgu (w jądrze podkorowym) a zmniejszoną w innych. Zakłócenia w dystrybucji żelaza mogą być zatem uznane za dodatkowy indykator upośledzenia funkcji mózgu.

Nie koniec na tym, bowiem dr Haller dokonał analizy zgromadzonych danych przy pomocy oprogramowania klasyfikującego z algorytmami sztucznej inteligencji. Komputerowa ocena, który z pacjentów zagrożony jest postępującym upośledzeniem sprawdziła się w 85 procentach. Jak na pierwsze rezultaty wynik jest bardziej niż obiecujący, doktor Sven Haller zamierza kontynuować poszukiwania oznak pozwalających bezbłędnie identyfikować osoby zagrożone chorobą Alzheimera i innymi chorobami neurodegeneracyjnymi.

Share this post


Link to post
Share on other sites

bardzo ciekawe i obiecujace badania. Ważne też z uwagi że większość przypadków Alzheimera diagnozowana jest o wiele za późno i leczenie polega głównie na zahamowaniu szybkiemu rozwojowi.

 

Komputerowa ocena, który z pacjentów zagrożony jest postępującym upośledzeniem sprawdziła się w 85 procentach.

 

Jeszcze pare lat a każdy z nas będzie mółg bez wychodzenia z domu za pomocą komputera zdiagnozować z dużą skutecznością choroby.

Share this post


Link to post
Share on other sites

Jeszcze pare lat a każdy z nas będzie mółg bez wychodzenia z domu za pomocą komputera zdiagnozować z dużą skutecznością choroby.

 

Spoko. Ja mam skuteczność 100%. Otwieram małą encyklopedię zdrowia na dowolnej stronie czytam i mam wszystko co tam napisali.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach.
      Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów.
      Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat.
      W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF.
      JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft.
      Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jeden z najlepszych amerykańskich pilotów myśliwców przegrał 5:0 w serii symulowanych walk powietrznych ze sztuczną inteligencją. O pilocie, który zmierzył się z SI wiemy tylko, że jego znak wywoławczy to „Banger” i ukończył on kurs instruktorski obsługi broni pokładowej, do którego dopuszczani są wyłącznie najlepsi piloci. Jego pogromca, SI autorstwa niewielkiej firmy Heron Systems, pokonał wcześniej kilka innych systemów sztucznej inteligencji.
      Symulowane walki odbywały sie w ramach prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Systemów Obronnych) programu AlphaDogfight Trials. Program składał się z czterech etapów. W pierwszym z nich osiem algorytmów SI kontrolujących myśliwiec F-16 zmierzyło się z pięcioma algorytmami stworzonymi przez naukowców z Applied Physics Laboratory na Uniwersytecie Johnsa Hopkinsa. W drugim etapie osiem wspomnianych algorytmów – autorstwa Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI i SoarTech – starło się każdy z każdym. Na tej podstawie wyłoniono cztery najlepsze algorytmy, które zmierzyły się o prawo do walki z ludzkim przeciwnikiem. W półfinale algorytm Heron Systems pokonał sztuczną inteligencję twórcy F-16, firmy Lockheed Martin.
      Tym samym SI Heron System zakwalifikował się do walki z jednym z czołowych pilotów US Air Force. Rozegrano 5 symulowanych pojedynków. Łącznie trwały one nie dłużej niż 2 minuty. Człowiek przegrał wszystkie.
      W czasie pojedynków pilot miał hełm, który dawał mu taki sam widok, jak podczas prawdziwej walki. Symulowano samoloty poruszające się z prędkością ponad 800 km/h i przeciążenia dochodzące do 9G. Każdy z wirtualnych samolotów był uzbrojony w laser, który symulował broń pokładową.
      Chociaż SI odniosła miażdżące zwycięstwo, eksperci mówią, że niekoniecznie stałoby się tak w rzeczywistej walce. Warunki eksperymentu były bowiem ściśle kontrolowane. Pułkownik Daniel Javorsek, który nadzoruje w DARPA projekt rozwojów SI pilotujących samoloty stwierdził: My piloci, nigdy nie wierzymy do końca samym symulacjom i modelom komputerowym.
      Jednym z celów prowadzenia tego typu badań jest rozwój systemów sztucznej inteligencji, które będą wspomagały pilotów w walce. Program komputerowy potrafi bowiem znacznie szybciej niż człowiek zareagować na manewry przeciwnika. Systemy SI mogą też zwiększyć możliwości wojskowych dronów, które wciąż wymagają zdalnego pilotażu.
      Jak zauważyli specjaliści, jednym z elementów, który zapewnił SI Heron Systems zwycięstwo, była umiejętność lepszego celowania podczas szybko odbywającego się pojedynku. Jednak nie tylko. Jak przyznał „Banger” system był trudnym przeciwnikiem. Standardowe manewry, jakie wykorzystują piloci myśliwców, nie działały. Pilot zauważył, że SI potrafiła znacznie łatwiej usiąść mu na ogonie, niż jest to w stanie wykonać ludzki przeciwnik.
      Przed czterema laty sensacją było doniesienie, że algorytm sztucznej inteligencji pokonał doświadczonego pilota i wykładowcę taktyki walki myśliwców, pułkownika Lee.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy z Chin zaprezentowali wersję gry go opierającą się na mechanice kwantowej. W swojej symulacji naukowcy wykorzystali splątane fotony do ustawiania kamieni na planszy, zwiększając w ten sposób trudność gry. Ich technologia może posłużyć jako pole testowe dla sztucznej inteligencji.
      Wielkim wydarzeniem końca XX wieku było pokonanie arcymistrza szachowego Garry'ego Kasparowa przez superkomputer Deep Blue. Jednak go stanowiło znacznie trudniejsze wyzwanie. Ta gra o bardzo prostych zasadach posiada bowiem więcej kombinacji niż szachy. Jednak 20 lat później, w 2016 roku dowiedzieliśmy się, że SI pokonała mistrza go.
      Jednak szachy i go to gry o tyle łatwe dla komputerów, że na bieżąco znany jest stan rozgrywki. Nie ma tutaj ukrytych elementów. Wiemy co znajduje się na planszy i co znajduje się poza nią. Zupełnie inne wyzwanie stanowią takie gry jak np. poker czy mahjong, gdzie dochodzi element losowy, nieznajomość aktualnego stanu rozgrywki – nie wiemy bowiem, co przeciwnik ma w ręku – czy też w końcu blef. Także i tutaj maszyny radzą sobie lepiej. Przed rokiem informowaliśmy, że sztuczna inteligencja wygrała w wieloosobowym pokerze.
      Xian-Min Jin z Szanghajskiego Uniwersytetu Jiao Tong i jego koledzy postanowili dodać element niepewności do go. Wprowadzili więc doń mechanikę kwantową. „Kwantowe go” zostało po raz pierwszy zaproponowane w 2016 roku przez fizyka Andre Ranchina do celów edukacyjnych. Chińczycy wykorzystali tę propozycję do stworzenia systemu, który ma podnosić poprzeczkę sztucznej inteligencji wyspecjalizowanej w grach.
      W standardowej wersji go mamy planszę z 19 liniami poziomymi i 19 pionowymi. Na przecięciach linii gracze na przemian układają swoje kamienie, starając się ograniczyć nimi jak największy obszar planszy. W kwantowej wersji go ustawiana jest natomiast para splątanych kamieni. Oba kamienie pozostają na planszy dopóty, dopóki nie zetkną się z kamieniem z sąsiadującego pola. Wówczas dochodzi do „pomiaru”, superpozycja kamieni zostaje zniszczona i na planszy pozostaje tylko jeden kamień, a nie splątana para.
      W go gracz może zbić kamienie przeciwnika wówczas, gdy ustawi swoje kamienie na wszystkich sąsiadujących z przeciwnikiem polach. Jednak by do takiej sytuacji doszło w „kwantowym go” wszystkie otoczone kamienie przeciwnika muszą być kamieniami klasycznymi, żaden z nich nie może pozostawać w superpozycji z innym kamieniem na planszy. Jednak gracze nie wiedzą, który z kamieni w jakim stanie się znajduje, dopóki nie dokonają pomiaru.
      Jin i jego koledzy wyjaśniają, że ich symulacja pozwala na dostrojenie procesu pomiaru poprzez manipulacje splątaniem. Jeśli kamienie w danej parze są splątane w sposób maksymalny, to wynik pomiaru będzie całkowicie przypadkowy, nie potrafimy przewidzieć, który z kamieni po pomiarze pozostanie na planszy. Jeśli jednak splątanie będzie mniej doskonałe, jeden z kamieni będzie miał większą szansę na pozostanie na planszy. To prawdopodobieństwo będzie znane tylko temu graczowi, do którego kamień należy. Gra traci w tym momencie swoją całkowitą nieprzewidywalność, jednak pozostaje w niej duży element niedoskonałej informacji.
      Chińczycy przekuli teorię na praktykę tworząc pary splątanych fotonów, które były wysyłane do rozdzielacza wiązki, a wynik takiego działania był mierzony za pomocą czterech wykrywaczy pojedynczych fotonów. Jeden zestaw wyników reprezentował „0” a inny „1”. W ten sposób oceniano prawdopodobieństwo zniknięcia jednej z części pary wirtualnych kamieni ustawianych na przypadkowo wybranych przecięciach linii przez internetowe boty.
      Poprzez ciągłe generowanie splątanych fotonów i przechowywaniu wyników pomiarów naukowcy zebrali w ciągu godziny około 100 milionów możliwych wyników zniknięcia stanu splątanego. Taka ilość danych pozwala na przeprowadzenie dowolnej rozgrywki w go. Uczeni, analizując rozkład zer i jedynek w czasie potwierdzili, że nie występuje znacząca korelacja pomiędzy następującymi po sobie danymi. Tym samym, dane są rzeczywiście rozłożone losowo.
      Jin mówi, że rzeczywista złożoność i poziom trudności kwantowego go pozostają kwestią otwartą. Jednak, zwiększając rozmiary wirtualnej planszy i włączając do tego splątanie, można – jego zdaniem – zwiększyć trudność samej gry do takiego stopnia, by dorównywała ona takim grom jak mahjong, gdzie większość informacji jest ukrytych. Dzięki temu kwantowe go może stać się obiecującą platformą do testowania nowych algorytmów sztucznej inteligencji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rezonans magnetyczny i tomografia komputerowa to często zalecane metody badań obrazowych, które mimo pewnych podobieństw odpowiadają na inne medyczne pytania. Jeśli chcemy się dowiedzieć, na czym dokładnie polegają i jakie występują między nimi różnice, zapraszamy do artykułu!
      Nowoczesne technologie obrazowania
      Zarówno rezonans magnetyczny (RM), jaki i tomografia komputerowa (TK), wykorzystują nowoczesne technologie obrazowania, które z niebywałą dokładnością pozwalają odwzorować struktury znajdujące się wewnątrz ludzkiego ciała. Badaniu mogą być poddane poszczególne części ciała, konkretne narządy lub w razie potrzeby całe ciało - np. w celu wykrycia ewentualnych przerzutów nowotworowych. Pełną listę badań z zakresu RM i TK można znaleźć pod adresem Badania.znanylekarz.pl - po wybraniu konkretnego badania można wyszukać oferujące je placówki diagnostyczne, porównać ceny i od razu umówić się na wykonanie badania w dogodnym terminie.
      W obu przypadkach przebieg badania wygląda bardzo podobnie. Pacjent układa się na specjalnym stole, który wsuwany jest automatycznie do urządzenia z okrągłym otworem, przypominającym tunel. Technik, który nadzoruje badanie przebywa w osobnym pomieszczeniu i zdalnie wydaje pacjentowi polecenia dotyczące np. wstrzymania oddechu w odpowiednim momencie. Na tym kończą się jednak podobieństwa.
      Istotną różnicę stanowi technologia stosowana podczas badania. We wnętrzu tomografu zainstalowane są lampy rentgenowskie odpowiedzialne za wykonywane serii prześwietleń pod różnymi kątami. W rezonansie zaś to zadanie spoczywa na falach radiowych i wytworzonemu w tych specyficznych warunkach polu magnetycznemu. Towarzyszą temu głośne dźwięki, czego absolutnie nie zaobserwujemy podczas tomografii.
      Kiedy tomografia? Kiedy rezonans?
      To, na jakie badanie zostaniemy wysłani, zależy od decyzji lekarza, między innymi z tego powodu, że tomografia - ze względu na szkodliwe promieniowanie rentgenowskie - wymaga skierowania. W małej ilości nie jest ono szkodliwe, ale jeśli to badanie jest wykonywane zbyt często, może prowadzić do nieodwracalnych zmian w organizmie, uszkadzając DNA w komórkach, co w konsekwencji przyczynia się nawet do rozwoju nowotworów. Lekarz więc musi ocenić, czy przyczyna medyczna wymaga wykonania tomografii, czy raczej nie jest to konieczne.
      Zupełnie inaczej wygląda to w przypadku rezonansu magnetycznego, gdyż wykorzystywane w czasie tego badania fale radiowe nie są niebezpieczne dla tkanek. Oczywiście z pewnymi wyjątkami, które dotyczą osób, którym wszczepiono na przykład rozrusznik serca czy pompę insulinową. Rezonans może zaburzyć ich działanie.
      Czym jeszcze różnią się oba badania?
      Ważną różnicą jest także czas badania. Rezonans potrafi trwać nawet dwa razy dłużej od tomografii, co sprawia, że w przypadku nagłego zdarzenia (jak wypadek) przeprowadza się tomografię, by szybko przekonać się, z jakimi zmianami w organizmie mamy do czynienia. Tomografia to jednocześnie tańsza i powszechniejsza metoda badania.
      Co istotne, mimo że obie metody są bardzo dokładne, to jednak rezonans zapewnia większe możliwości, pozwalając zobaczyć także tkanki, których nie da się sprawdzić podczas tomografii. Często więc rezonans jest ważnym uzupełnieniem tomografii, zapewniając uzyskanie dokładniejszej diagnozy.
      Podsumowując, zarówno rezonans magnetyczny, jak i tomografia komputerowa są niezbędnymi badaniami, by precyzyjnie sprawdzić stan organizmu. Konieczność ich wykonania warto jednak skonsultować z lekarzem, który oceni, czy nie ma żadnego ryzyka dla zdrowia w związku z technologią stosowaną w każdym z nich. 

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Autorzy badań opublikowanych na łamach PNAS ostrzegają, że nie można ufać technikom obrazowania medycznego rekonstruowanym za pomocą sztucznej inteligencji. Międzynarodowy zespół naukowy pracujący pod kierunkiem Andersa Hansena z Uniwersytetu w Cambridge stwierdził, że narzędzia do głębokiego uczenia się, które rekonstruują obrazy wysokiej jakości na podstawie szybkich skanów, tworzą liczne przekłamania i artefakty, które mogą wpływać na diagnozę.
      Jak niejednokrotnie informowaliśmy, systemy sztucznej inteligencji są już na tyle zaawansowane, że równie dobrze jak radiolodzy, a często i lepiej, potrafią opisywać zdjęcia RTG, obrazy tomografii komputerowej czy rezonansu magnetycznego. W związku z tym pojawił się pomysł, by SI zaprząc do rekonstrukcji obrazów.
      Pomysł polega na tym, by wykonywać obrazowanie o niższej rozdzielczości, czyli pobierać dane z mniejszej liczby punktów, a następnie, by wytrenowane systemy algorytmy sztucznej inteligencji rekonstruowały na tej postawie obraz o wysokiej rozdzielczości. W ten sposób można by zaoszczędzić czas i pieniądze potrzebny na wykonanie badania. Wykorzystywane tutaj algorytmy były trenowana na dużej bazie danych obrazów wysokiej jakości, co stanowi znaczne odejście od klasycznych technik rekonstrukcji bazujących na teoriach matematycznych.
      Okazuje się jednak, że takie systemy SI mają poważne problemy. Mogą one bowiem przegapić niewielkie zmiany strukturalne, takie jak małe guzy nowotworowe, podczas gdy niewielkie, niemal niewidoczne zakłócenia spowodowane np. poruszeniem się pacjenta, mogą zostać odtworzone jako poważne artefakty na obrazie wyjściowym.
      Zespół w skład którego weszli Vegard Antun z Uniwersytetu w Oslo, Francesco Renna z Uniwersytetu w Porto, Clarice Poon z Uniwersytetu w Bath, Ben Adcock z Simon Fraser University oraz wspomniany już Anders Hansen, przetestował sześć sieci neuronowych, wykorzystywanych do rekonstrukcji obrazów tomografii i rezonansu. Sieciom zaprezentowano dane odpowiadają trzem potencjalnym problemom, które mogą się pojawić: niewielkim zakłóceniom, niewielkim zmianom strukturalnym oraz zmianom w próbkowaniu w porównaniu z danymi, na których system był trenowany.
      Wykazaliśmy, że niewielkie zakłócenia, których nie widać gołym okiem, mogą nagle stać się poważnym artefaktem, który pojawia się na obrazie, albo coś zostaje przez nie usunięte. Dostajemy więc fałszywie pozytywne i fałszywie negatywne dane, wyjaśnia Hansen.
      Uczeni, chcą sprawdzić zdolność systemu do wykrycia niewielkich zmian, dodali do skanów niewielkie litery i symbole z kart do gry. Tylko jedna z sieci była w stanie je prawidłowo zrekonstruować. Pozostałe sieci albo pokazały w tym miejscu niewyraźny obraz, albo usunęły te dodatki.
      Okazało się też, że tylko jedna sieć neuronowa radziła sobie ze zwiększaniem tempa skanowania i tworzyła lepszej jakości obrazy niż wynikałoby to z otrzymanych przez nią danych wejściowych. Druga z sieci nie była w stanie poprawić jakości obrazów i pokazywała skany niskiej jakości, a trzy inne rekonstruowały obrazy w gorszej jakości niż otrzymały do obróbki. Ostatni z systemów nie pozwalał na zwiększenie szybkości skanowania.
      Hansen stwierdza też, że badacze muszą zacząć testować stabilność takich systemów. Wówczas przekonają się, że wiele takich systemów jest niestabilnych. Jednak największym problemem jest fakt, że nie potrafimy w sposób matematyczny zrozumieć, jak działają tego typu systemy. Są one dla nas tajemnicą. Jeśli ich porządnie nie przetestujemy, możemy otrzymać katastrofalnie złe wyniki.
      Na szczęście takie systemy nie są jeszcze wykorzystywane w praktyce klinicznej. Zespół Hansena stworzył odpowiednie testy do ich sprawdzenia. Uczeni mówią, że nie chcą, by takie systemy zostały dopuszczone do użycia jeśli nie przejdą szczegółowych testów.

      « powrót do artykułu
×
×
  • Create New...