Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Rak jajnika pod okiem sztucznej inteligencji

Recommended Posts

Yinyin Yuan i jej koledzy z Institute of Cancer Research w Londynie stworzyli system sztucznej inteligencji, który bada różnice w kształtach komórek nowotworowych. Przeanalizowali próbki tkanek 514 kobiet z rakiem jajnika i odkryli, że w bardziej agresywnej formie nowotworu, w której szanse na przeżycie 5 lat wynoszą zaledwie 15 procent, jądra komórkowe mają nieprawidłowy kształt. Tam, gdzie jądra komórkowe mają kształt prawidłowy, mamy do czynienia z łagodniejszą formą nowotworu, o 53-procentowej szansie przeżycia.

Jak zauważa Kevin Elias z Dana-Farber Cancer Institute w Bostonie, na razie tego typu test ma bardzo ograniczone możliwości. On jedynie mówi, że rokowania pacjenta są złe. Jeśli nie będę w stanie zaproponować alternatywnego leczenia, taki test nie jest dla mnie użyteczny.

Sztuczna inteligencja jest coraz częściej stosowana w onkologii. Głównie wykorzystuje się ją do zbierania i analizowania danych na wiele różnych sposobów. Przydaje się np. do badania ewolucji guza czy ulepszania diagnozy.

Yuan i jej zespół chcą w najbliższym czasie wykorzystać SI do przeanalizowania sposobu, w jaki nowotwory nabywają oporności na chemioterapię i na podstawie tej wiedzy będą chcieli opracować lepsze metody leczenia.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Radioterapia to jedna z najczęściej stosowanych metod leczenia nowotworów. Wykorzystuje się wówczas cząstki lub fale o wysokich energiach, które niszczą lub uszkadzają komórki nowotworowe. Niestety istnieją nowotwory, które potrafią zyskać oporność na radioterapię, a w niektórych przypadkach zastosowanie tej metody powoduje nawet, że nowotwór staje się bardziej inwazyjny, pogarszając prognozy pacjenta.
      Naukowcy z Global Center for Biomedical Science and Engineering, założonego przez Hokkaido University i Uniwersytet Stanforda, odkryli mechanizm powodujący, że molekuły Arl8B i BORC zwiększają agresywność nowotworów po radioterapii.
      Wykazaliśmy, że zwiększona zdolność do przerzutowania wśród komórek nowotworowych, które przetrwały radioterapię, jest związana ze zmianami w procesie egzocytozy do lizosomów. Zmiany te wywoływane są zwiększoną aktywacją Arl8b. To GTPaza regulująca transport w lizosomach, stwierdzili naukowcy. Odkryli też, że knockdown Arl8b lub podjednostek BORC zlokalizowanych na powierzchni błony lizosomalnej, zmniejsza egzocytozę i inwazyjność komórek nowotworowych.
      W ostatnim czasie pojawia się coraz więcej badań wskazujących na rolę lizosomów w biologii guzów nowotworowych. Teraz uczeni potwierdzili, że po radioterapii dochodzi do zwiększonego wydzielania enzymów z lizosomów, co z kolei prowadzi do degradacji materiału łączącego komórki guza, przez co uwalniają się one i wywołują przerzuty. Głównym winowajcą zwiększonego przerzutowania jest tutaj Arl8b.
      Powyższe badania sugerują, że lizosomy mogą stać się atrakcyjnym celem nowych terapii przeciwnowotworowych.
      Praca Lysosomal trafficking mediated by Arl8b and BORC promotes invasion of cancer cells that survive radiationzostała opublikowana na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Gladstone Institutes we współpracy z badaczami z Uniwersytetu Kalifornijskiego w San Francisco (UCSF) i Uniwersytetu Technicznego w Monachium (TUM) stworzyli mapę genetyczną, dzięki której są w stanie odróżnić regulatorowe limfocyty T od pozostałych limfocytów T. Odkrycie to pozwoli na stworzenie terapii, które pozwolą na wzmacnianie lub osłabianie działania regulatorowych limfocytów T.
      Odkrycie sieci powiązań genetycznych, które kontrolują biologię regulatorowych limfocytów T to pierwszy krok w kierunku znalezienia leków zmieniających funkcję tych komórek, co pomoże w terapii nowotworów i chorób autoimmunologicznych, mówi doktor Alex Marson, dyrektor Gladstone-UCSF Institute of Genomic Immunology. Ludzkie regulatorowe limfocyty T (Treg) są niezbędnym składnikiem homeostazy immunologicznej. [...] zidentyfikkowaliśmy czynniki transkrypcyjne, które regulują krytyczne proteiny Treg zarówno w warunkach bazowych, jak i prozapalnych, stwierdzają naukowcy.
      Dotychczasowe badania na myszach wskazują, że zwiększenie liczby regulatorowych limfocytów, T, a tym samym wytłumienie układu odpornościowego, pomaga zwalczać objawy chorób autoimmunologicznych. Z drugiej zaś strony, zablokowanie Treg, a tym samym zwiększenie aktywności układu odpornościowego, może pomagać w skuteczniejszej walce z nowotworami.
      Obecnie testowane są na ludziach terapie polegające na zwiększeniu liczby Treg. Polegają one na pobieraniu od pacjentów tych komórek, namnażaniu ich i ponownych wstrzykiwaniu. Dotychczas jednak w takich terapiach nie zmienia się samego działania komórek.
      Większość naszej wiedzy o Treg pochodzi z modeli mysich. Chcieliśmy zidentyfikować geny związane z działaniem Treg, by lepiej zrozumieć, jak wszystko jest ze sobą połączone i móc manipulować działaniem tych komórek. Gdy już rozumiemy funkcje każdego z genów możemy precyzyjnie edytować komórki i zwalczać choroby, wyjaśnia profesor Kathrin Schumann z Monachium.
      Podczas swoich najnowszych badań naukowcy selektywnie usuwali jeden z 40 czynników transkrypcyjnych, by zmienić działanie Treg. Wybrali te właśnie czynniki, gdyż wcześniejsze badania wskazywały, że mogą one odgrywać specyficzne funkcje w działaniu Treg w odróżnieniu od innych limfocytów T. Następnie skupili się na 10 czynnikach, które wywierały największy wpływ na funkcjonowanie regulatorowych limfocytów T. Za każdym razem przyglądali się tysiącom genów, by sprawdzić, jak zmieniło się ich działanie w wyniku manipulacji czynnikiem transkrypcyjnym. W ten sposób przebadali aż 54 424 indywidualne komórki Treg.
      Dzięki tak szczegółowej analizie byli w stanie stworzyć rozległą mapę powiązań genetycznych i czynników transkrypcyjnych, które wpływały na pracę Treg. Jednym z najbardziej zaskakujących odkryć było spostrzeżenie, że słabo poznany czynnik HIVEP2 bardzo silnie oddziałuje na funkcjonowanie Treg. Po przeprowadzeniu badań na myszach naukowcy zauważyli, że usunięcie genu HIVEP2 obniżyło zdolność Treg do zwalczania stanu zapalnego. To ważne odkrycie. Wcześniej tak naprawdę nigdy nie rozważano roli HIVEP2 w biologii Treg, mówi Sid Raju z MIT i Harvarda.
      Naukowcy mówią, że ich badania pokazują też, jak potężnymi narzędziami badawczymi obecnie dysponujemy. Teoretycznie możemy wziąć dowolną komórkę ludzkie organizmu, wybiórczo usuwać z niej pojedyncze geny i badać wpływ takich działań na funkcjonowanie tej komórki. To naprawdę otwiera drogę do traktowania ludzkich komórek jako eksperymentalnego systemu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach.
      Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów.
      Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat.
      W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF.
      JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft.
      Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jeden z najlepszych amerykańskich pilotów myśliwców przegrał 5:0 w serii symulowanych walk powietrznych ze sztuczną inteligencją. O pilocie, który zmierzył się z SI wiemy tylko, że jego znak wywoławczy to „Banger” i ukończył on kurs instruktorski obsługi broni pokładowej, do którego dopuszczani są wyłącznie najlepsi piloci. Jego pogromca, SI autorstwa niewielkiej firmy Heron Systems, pokonał wcześniej kilka innych systemów sztucznej inteligencji.
      Symulowane walki odbywały sie w ramach prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Systemów Obronnych) programu AlphaDogfight Trials. Program składał się z czterech etapów. W pierwszym z nich osiem algorytmów SI kontrolujących myśliwiec F-16 zmierzyło się z pięcioma algorytmami stworzonymi przez naukowców z Applied Physics Laboratory na Uniwersytecie Johnsa Hopkinsa. W drugim etapie osiem wspomnianych algorytmów – autorstwa Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI i SoarTech – starło się każdy z każdym. Na tej podstawie wyłoniono cztery najlepsze algorytmy, które zmierzyły się o prawo do walki z ludzkim przeciwnikiem. W półfinale algorytm Heron Systems pokonał sztuczną inteligencję twórcy F-16, firmy Lockheed Martin.
      Tym samym SI Heron System zakwalifikował się do walki z jednym z czołowych pilotów US Air Force. Rozegrano 5 symulowanych pojedynków. Łącznie trwały one nie dłużej niż 2 minuty. Człowiek przegrał wszystkie.
      W czasie pojedynków pilot miał hełm, który dawał mu taki sam widok, jak podczas prawdziwej walki. Symulowano samoloty poruszające się z prędkością ponad 800 km/h i przeciążenia dochodzące do 9G. Każdy z wirtualnych samolotów był uzbrojony w laser, który symulował broń pokładową.
      Chociaż SI odniosła miażdżące zwycięstwo, eksperci mówią, że niekoniecznie stałoby się tak w rzeczywistej walce. Warunki eksperymentu były bowiem ściśle kontrolowane. Pułkownik Daniel Javorsek, który nadzoruje w DARPA projekt rozwojów SI pilotujących samoloty stwierdził: My piloci, nigdy nie wierzymy do końca samym symulacjom i modelom komputerowym.
      Jednym z celów prowadzenia tego typu badań jest rozwój systemów sztucznej inteligencji, które będą wspomagały pilotów w walce. Program komputerowy potrafi bowiem znacznie szybciej niż człowiek zareagować na manewry przeciwnika. Systemy SI mogą też zwiększyć możliwości wojskowych dronów, które wciąż wymagają zdalnego pilotażu.
      Jak zauważyli specjaliści, jednym z elementów, który zapewnił SI Heron Systems zwycięstwo, była umiejętność lepszego celowania podczas szybko odbywającego się pojedynku. Jednak nie tylko. Jak przyznał „Banger” system był trudnym przeciwnikiem. Standardowe manewry, jakie wykorzystują piloci myśliwców, nie działały. Pilot zauważył, że SI potrafiła znacznie łatwiej usiąść mu na ogonie, niż jest to w stanie wykonać ludzki przeciwnik.
      Przed czterema laty sensacją było doniesienie, że algorytm sztucznej inteligencji pokonał doświadczonego pilota i wykładowcę taktyki walki myśliwców, pułkownika Lee.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy z Chin zaprezentowali wersję gry go opierającą się na mechanice kwantowej. W swojej symulacji naukowcy wykorzystali splątane fotony do ustawiania kamieni na planszy, zwiększając w ten sposób trudność gry. Ich technologia może posłużyć jako pole testowe dla sztucznej inteligencji.
      Wielkim wydarzeniem końca XX wieku było pokonanie arcymistrza szachowego Garry'ego Kasparowa przez superkomputer Deep Blue. Jednak go stanowiło znacznie trudniejsze wyzwanie. Ta gra o bardzo prostych zasadach posiada bowiem więcej kombinacji niż szachy. Jednak 20 lat później, w 2016 roku dowiedzieliśmy się, że SI pokonała mistrza go.
      Jednak szachy i go to gry o tyle łatwe dla komputerów, że na bieżąco znany jest stan rozgrywki. Nie ma tutaj ukrytych elementów. Wiemy co znajduje się na planszy i co znajduje się poza nią. Zupełnie inne wyzwanie stanowią takie gry jak np. poker czy mahjong, gdzie dochodzi element losowy, nieznajomość aktualnego stanu rozgrywki – nie wiemy bowiem, co przeciwnik ma w ręku – czy też w końcu blef. Także i tutaj maszyny radzą sobie lepiej. Przed rokiem informowaliśmy, że sztuczna inteligencja wygrała w wieloosobowym pokerze.
      Xian-Min Jin z Szanghajskiego Uniwersytetu Jiao Tong i jego koledzy postanowili dodać element niepewności do go. Wprowadzili więc doń mechanikę kwantową. „Kwantowe go” zostało po raz pierwszy zaproponowane w 2016 roku przez fizyka Andre Ranchina do celów edukacyjnych. Chińczycy wykorzystali tę propozycję do stworzenia systemu, który ma podnosić poprzeczkę sztucznej inteligencji wyspecjalizowanej w grach.
      W standardowej wersji go mamy planszę z 19 liniami poziomymi i 19 pionowymi. Na przecięciach linii gracze na przemian układają swoje kamienie, starając się ograniczyć nimi jak największy obszar planszy. W kwantowej wersji go ustawiana jest natomiast para splątanych kamieni. Oba kamienie pozostają na planszy dopóty, dopóki nie zetkną się z kamieniem z sąsiadującego pola. Wówczas dochodzi do „pomiaru”, superpozycja kamieni zostaje zniszczona i na planszy pozostaje tylko jeden kamień, a nie splątana para.
      W go gracz może zbić kamienie przeciwnika wówczas, gdy ustawi swoje kamienie na wszystkich sąsiadujących z przeciwnikiem polach. Jednak by do takiej sytuacji doszło w „kwantowym go” wszystkie otoczone kamienie przeciwnika muszą być kamieniami klasycznymi, żaden z nich nie może pozostawać w superpozycji z innym kamieniem na planszy. Jednak gracze nie wiedzą, który z kamieni w jakim stanie się znajduje, dopóki nie dokonają pomiaru.
      Jin i jego koledzy wyjaśniają, że ich symulacja pozwala na dostrojenie procesu pomiaru poprzez manipulacje splątaniem. Jeśli kamienie w danej parze są splątane w sposób maksymalny, to wynik pomiaru będzie całkowicie przypadkowy, nie potrafimy przewidzieć, który z kamieni po pomiarze pozostanie na planszy. Jeśli jednak splątanie będzie mniej doskonałe, jeden z kamieni będzie miał większą szansę na pozostanie na planszy. To prawdopodobieństwo będzie znane tylko temu graczowi, do którego kamień należy. Gra traci w tym momencie swoją całkowitą nieprzewidywalność, jednak pozostaje w niej duży element niedoskonałej informacji.
      Chińczycy przekuli teorię na praktykę tworząc pary splątanych fotonów, które były wysyłane do rozdzielacza wiązki, a wynik takiego działania był mierzony za pomocą czterech wykrywaczy pojedynczych fotonów. Jeden zestaw wyników reprezentował „0” a inny „1”. W ten sposób oceniano prawdopodobieństwo zniknięcia jednej z części pary wirtualnych kamieni ustawianych na przypadkowo wybranych przecięciach linii przez internetowe boty.
      Poprzez ciągłe generowanie splątanych fotonów i przechowywaniu wyników pomiarów naukowcy zebrali w ciągu godziny około 100 milionów możliwych wyników zniknięcia stanu splątanego. Taka ilość danych pozwala na przeprowadzenie dowolnej rozgrywki w go. Uczeni, analizując rozkład zer i jedynek w czasie potwierdzili, że nie występuje znacząca korelacja pomiędzy następującymi po sobie danymi. Tym samym, dane są rzeczywiście rozłożone losowo.
      Jin mówi, że rzeczywista złożoność i poziom trudności kwantowego go pozostają kwestią otwartą. Jednak, zwiększając rozmiary wirtualnej planszy i włączając do tego splątanie, można – jego zdaniem – zwiększyć trudność samej gry do takiego stopnia, by dorównywała ona takim grom jak mahjong, gdzie większość informacji jest ukrytych. Dzięki temu kwantowe go może stać się obiecującą platformą do testowania nowych algorytmów sztucznej inteligencji.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...