Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcy z Cornell University stworzyli program, dzięki któremu komputer jest w stanie wykorzystać dane z obserwacji do stworzenia ogólnego prawa. To, co dotychczas było efektem pracy genialnych umysłów, stało się dostępne dla maszyn.

Przełomowa praca to dzieło profesora mechaniki i inżynierii kosmicznej Hoda Lipsona oraz doktoranta Michaela Schmidta, specjalizującego się w tworzeniu oprogramowania dla nauk biologicznych.

Program pozwala maszynie na analizowanie surowych niedokładnych danych i na odkrycie na ich podstawie praw rządzących naturą. Jednym z największych problemów współczesnej nauki jest analizowanie olbrzymich zbiorów danych i odkrywanie fundamentalnych praw tam, gdzie istnieją luki w teoriach ich dotyczących - mówi Lipson.

Oprogramowanie z Cornell University potrafi porównywać olbrzymią liczbę zmiennych, szukać w nich zależności i wyodrębniać pewne stałe zależności pomiędzy nimi. Tworzy na tej podstawie równania, których prawdziwość sprawdza w oparciu o dostępne informacje. Pozostawia następnie te równania, które najlepiej się sprawdzają, a inne odrzuca. Czynności te powtarza tak długo, aż w końcu znajdzie algorytm, który dokładnie opisuje zachowanie analizowanego przez siebie systemu. W ten sposób komputer znajduje stałe, które leżą u podstaw praw fizyki.

Po włączeniu maszyna Schmidta i Lipsona potrafiła jedynie określić jaka korelacja zachodzi pomiędzy obserwowanymi danymi i stwierdzić, które z nich są ważne, a które należy odrzucić. Korzystając z danych z oscylatora harmonicznego, wahadła i podwójnego wahadła, ale bez znajomości jakichkolwiek zasad fizyki, geometrii czy kinematyki, maszyna samodzielnie stworzyła prawa zachowania energii, pędu i drugą zasadę dynamiki.

Nie oznacza to, że naukowcy wkrótce staną się niepotrzebni, gdyż zastąpią ich komputery. Jednak nowe oprogramowanie umożliwi uczonym na znacznie szybsze wyodrębnienie istotnych danych i skupienie się właśnie na nich.

Warto wspomnieć, że uczeni z Cornell nie są jedynymi, którzy w ostatnim czasie przeprowadzili tak znaczące prace.

W Wielkiej Brytanii profesor Ross King z Aberystwyth University stworzył automatycznego naukowca imieniem Adam. Maszyna samodzielnie stworzyła hipotezę o istnieniu genów w drożdżach i o enzymach produkowanych przez te geny. Następnie zaprojektowała i przeprowadziła eksperyment, który miał potwierdzić hipotezę. Następnie, korzystając z wyników eksperymentu, Adam skorygował hipotezę i przeprowadził kolejne eksperymenty, na podstawie których opracował teorię. Naukowcy powtórzyli następnie eksperymenty Adama i okazało się, że robot doszedł do prawidłowych wniosków.

Share this post


Link to post
Share on other sites

Do czasu prawdziwych odkryć poczynionych przez powyższe(powyższych?) pozostanę sceptyczny w ocenie ich przydatności/funkcjonalności...

Share this post


Link to post
Share on other sites

Czyli program robi to, co obecnie magistranci - próbuje na podstawie mnóstwa danych znaleźć jakąś zależność statystyczną i na jej podstawie formułuje hipotezę  :)

Od czasu zaimplementowania prostych funkcji statystycznych w Excelu stało się to banalnie proste (chyba od 12 lat), ale nazywać zautomatyzowanie tego sztuczną inteligencją to przesada - samo napisanie programu, który zestawiał by zmienne ze sobą i szukał korelacji jest banalnie prosty, cała rzecz w mocach obliczeniowych. 10 lat temu, jak pracowałem na uczelni, uzyskanie wstępnej korelacji dla ok. 13 500 000 danych (przy 4 zmiennych) zajęło uczelnianemu serwerowi 7 godzin i poproszono mnie, by więcej go tak nie obciążać dla, jak to nazwano, eksperymentu programistycznego :;)

Share this post


Link to post
Share on other sites

Wydaje mi się, że nie jest to tak powierzchowne jak zakładasz i system ten nie tyle co wyszukuje korelację, by móc później transformować wejście->wyjście, ale potrafi ją także zidentyfikować i opisać. Sądzę, że do wybierania najtrafniejszych wzorów korelacji używa algorytmów ewolucyjnych. Bardzo ciekawy news.

Share this post


Link to post
Share on other sites

Poza tym sformułowanie prawa fizycznego wymaga wprowadzenia wielu dodatkowych korekt, m.in. zaokrągleń, odrzucenia wyników ekstremalnych itp. Mnie też wydaje się, że sprawa jest mocno skomplikowana.

Share this post


Link to post
Share on other sites

Ocena błędu grubego i metodyka jego usuwania (wraz z adnotacją w analizie wyników) jest ściśle matematycznie określone w Metrologii (dla danych ilościowych), i żadnych skomplikowanych programów do tego nie potrzeba. Inna rzecz to badania bazujące na danych jakościowych (ale Metodologia też jest nauką o ściśle określonych zasadach)- ale tu z kolei największym problemem jest przedstawienie danych za pomocą wartości liczbowych, bo tylko na takich jak na razie może operować jakikolwiek program.

Także znalezienie jakiegoś związku między zmiennymi na zasadzie olśnienia (słynne eureka Archimedesa) jest raczej w przypadku programu wykluczone.

Jak zwykł mawiać mój profesor, z komputera dostajesz to, co do niego włożysz, tyle że, gdy jesteś dobry w programowaniu, to w formie o wiele łatwiejszej do zrozumienia niż surowe dane.

PS. Opisać wyniki?? To znaczy zamienić dane ilościowe w jakościowe! Tylko po co? Ten kto to zaprogramował takiej zamiany do dalszej analizy nie potrzebuje, ten który nie zna algorytmu opisującego nie ma żadnych możliwości weryfikacji wyników - więc merytorycznie wypowiadać się nie powinien.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.
      W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.
      Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.
      Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.
      Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?
      Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.
      W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.
      Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.
      Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).
      Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.
      W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.
      Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.
      Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.
      Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.
      W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.
      Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.
      Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja pomaga w diagnozowaniu stresu pourazowego (PTSD) u weteranów, analizując ich głos. W najnowszym numerze pisma Depression and Anxiety doniesiono, że opracowany na Uniwersytecie Nowojorskim (NYU) system sztucznej inteligencji potrafi z 89-procentową trafnością odróżnić osoby z PTSD od osób zdrowych.
      Wyniki naszych badań wskazują, że cechy charakterystyczne mowy mogą zostać wykorzystane do zdiagnozowania choroby. Chcemy by w najbliższej przyszłości nasz system, po jego udoskonaleniu i uzyskaniu odpowiednich zgód, trafił do codziennej praktyki klinicznej, mówi jeden z głównych autorów badań, dziekan Wydziału Psychiatrii, profesor Charles R. Marmar.
      Szacuje się, że ponad 70% dorosłych doświadcza w jakimś momencie życia traumy, a odsetek osób z PTSD jest w niektórych krajach szacowany nawet na 12% dorosłej populacji. Osoby cierpiące na zespół stresu pourazowego doświadczają, gdy zetką się z bodźcem przypominającym o traumie, silnego trwałego stresu.
      PTSD diagnozuje się podczas wywiadu klinicznego, jednak jest to metoda podatna na błędy. Dlatego też specjaliści od dawna poszukują obiektywnego fizycznego markera PTSD. Jego znalezienie nie jest jednak łatwe.
      Autorzy najnowszych badań stworzyli algorytm wykorzystujący metodę nauczania random forest, która pozwala klasyfikować np. osoby na podstawie dostępnych przykładów. W ten sposób, działając najpierw na treningowej bazie danych, sztuczna inteligencja udoskonala swoje modele i metody podejmowania decyzji.
      Najpierw naukowcy nagrali standardowy wielogodzinny wywiad diagnostyczny CAPS (Clinician-Administered PTSD Scale). Zarejestrowano wywiady z 53 weteranami z Iraku i Afganistanu, u których stwierdzono PTSD oraz z 78 weteranami, u których choroba nie występowała. Następnie materiał dźwiękowy został przetworzony przez oprogramowanie firmy SRI International, tej samej, która opracowała apple'owską Siri, a program wyodrębnił z nagrań 40 526 cech, które następnie były analizowane pod kątem występowania wzorców.
      Sztuczna inteligencja była w stanie powiązać poszczególne cechy z PTSD. Były wśród nich na przykład mniej wyraźna mowa czy pozbawiony życia metaliczny ton głosu. Wcześniej wiedziano o tych dwóch cechach, ale były one jedynie anegdotycznie uznawane za pomocne w diagnostyce. Diagnoza PTSD na podstawie głosu może o tyle mieć uzasadnienie, że teoria dotycząca przyczyn zespołu stresu pourazowego mówi, iż traumatyczne wydarzenia zmieniają połączenia między neuronami odpowiedzialnymi za przetwarzanie emocji i oraz za napięcie mięśniowe, co może wpływać na sposób artykulacji.
      Mowa jest atrakcyjnym kandydatem dla automatycznego systemu diagnostycznego, gdyż może być ona mierzona i badana w sposób tani, nieinwazyjny i zdalny, mówi główny autor badań, profesor Adam D. Brown. Możliwości analizy głosu stosowane w obecnych badaniach nad PTSD pokrywają się z możliwościami naszem platformy analitycznej SenSay Analytics. Oprogramowanie to analizuje słowa, częstotliwość, rytm, ton oraz cechy charakterystyczne artykulacji i na tej podstawie wyciąga wnioski co do stanu mówiącego, w tym co do jego stanu emocjonalnego, uczuciowego, poznawczego, zdrowotnego, zdrowia psychicznego i zdolności komunikacyjnych, dodaje Dimitra Vergyri z SRI International.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Młodzież, która zbyt dużo czasu spędza przed komputerem, ma więcej ubytków i częstsze problemy z chorobami przyzębia, np. z krwawieniem dziąseł – wynika z analiz naukowców WUM i UKSW, którzy przebadali ponad 1,6 tys. polskich 18-latków. To pierwsze takie badania w Europie.
      W ramach projektu, którego kierownikiem była prof. Dorota Olczak-Kowalczyk z Warszawskiego Uniwersytetu Medycznego (WUM), przebadano ponad 1,6 tysiąca 18-latków z Polski. Badania polegały zarówno na wypełnieniu kwestionariusza, który zawierał pytania dotyczące statusu społeczno-ekonomicznego i informacji o zachowaniach związanych ze zdrowiem, jak i na ocenie klinicznej stanu zębów i dziąseł. Do badań wybrano szkoły z każdego województwa z powiatów o charakterze wiejskim i miejskim.
      Okazało się, że nadmierne, czyli trwające ponad 3 godziny dziennie, korzystanie z komputera zadeklarowało 31 proc. respondentów. Równocześnie młodzież ta miała zdecydowanie częściej niewypełnione ubytki – opowiada PAP współprowadzący badania prof. Jacek Tomczyk z Instytutu Ekologii i Bioetyki Uniwersytetu Kardynała Stefana Wyszyńskiego (UKSW) w Warszawie. U nadużywających komputera nastolatków zdiagnozowano średnio 2,27 ubytków, podczas gdy u tych mniej przesiadujących przed ekranem – 1,97.
      Z ankiety wynika, że osoby z grupy spędzającej przed komputerem najwięcej czasu gorzej dbają o higienę jamy ustnej – np. tylko 34 proc. spośród nich posługuje się nicią dentystyczną, natomiast wśród osób nieprzesiadujących przy komputerze – 41 proc.
      Również osobom, które zadeklarowały nadmierne korzystanie z komputera, towarzyszyło większe ryzyko chorób przyzębia w postaci krwawienia z dziąseł. Taki symptom w tej grupie odnotowało 35 proc. badanych. Tymczasem wśród respondentów nienadużywających komputera krwawienie występowało u 29 proc. badanych.
      Tomczyk dodaje, że nadmierne korzystanie z komputera wiąże się również ze złymi nawykami żywieniowymi. Młodzież ta częściej opuszcza śniadania, rzadziej spożywa warzywa i owoce, a częściej spożywa produkty bogate w cukry.
      Do tej pory wiele badań wskazywało, że nadmierne używanie komputerów może wiązać się z niezdrowym trybem życia – brakiem ruchu, nieregularnymi posiłkami, niezdrowym jedzeniem typu fast-food czy brakiem snu. Takie zachowania skutkują wieloma problemami zdrowotnymi m.in. otyłością czy cukrzycą a nawet zaburzeniami psychicznymi.
      Otwartym pozostało pytanie o związek między nadmiernym używaniem komputerów, a zdrowiem jamy ustnej. Jedyne takie badania przeprowadzono w Korei Południowej z uwagi na to, że kraj ten ma najwyższy odsetek internautów na świecie. Postanowiliśmy przeprowadzić podobne analizy wśród polskiej młodzieży – opowiada Tomczyk.
      Czy skala problemu nieodpowiedniej higieny jamy ustnej w Polsce wśród młodzieży nadużywającej komputera jest zbliżona do skali w Korei Płd.? W ocenie naukowca odpowiedź na to pytanie nie jest jasna, bo badania przeprowadzono w nieco inny sposób. Jednak tendencja wyłaniająca się z obu badań jest zbliżona – podkreśla Tomczyk.
      Naukowiec zapytany przez PAP, w jaki sposób należy walczyć z problemem odpowiada krótko: większa edukacja. Wiadomo, że przesiadywanie przed komputerem sprzyja wielu chorobom, w tym otyłości. Natomiast trzeba pokazywać młodzieży i rodzicom, że do tej plejady chorób należy również zaliczyć – o czym nie wiedziano – niekorzystne zmiany w jamie ustnej – kończy.
      Wyniki badań przeprowadzonych w 2017 r. w ramach projektu „Monitoring zdrowia jamy ustnej populacji polskiej” ukażą się w czasopiśmie Clinical and Experimental Dental Research.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Światowa Organizacja Własności Intelektualnej (WIPO) opublikowała swój pierwszy raport z serii „Technology Trends”. Dotyczy on sztucznej inteligencji.
      Autorzy raportu wzięli pod uwagę to, co działo się na polu sztucznej inteligencji od jej pojawienia się w latach 50. ubiegłego wieku. Przeanalizowali ponad 340 000 patentów związanych z tą dziedziną wiedzy oraz 1,6 miliona artykułów naukowych na jej temat.
      Jak się okazuje, większość patentów związanych z SI złożono po roku 2013. Aktywność patentowa na polu sztucznej inteligencji bardzo szybko rośnie, co oznacza, że możemy spodziewać się wysypu produktów, aplikacji i technik bazujących na sztucznej inteligencji. To wpłynie na nasze codzienne życie i ukształtuje przyszłe interakcje człowieka z maszyną, powiedział dyrektor generalny WIPO Francis Gurry.
      Kluczowymi graczami na rynku sztucznej inteligencji są USA, Chiny oraz Japonia. Przedsiębiorstwa prywatne stanowią 26 z 30 największych posiadaczy patentów związanych z SI. Pozostałe cztery instytucje to uniwersytety lub publiczne organizacje badawcze. Dane dotyczące patentów dotyczą okresu od początku istnienia sztucznej inteligencji po koniec roku 2016. To opóźnienie wynika z czasu, jaki upływa pomiędzy złożeniem wniosku patentowego, a jego upublicznieniem.
      Największym na świecie portfolio patentów z dziedziny SI może pochwalić się IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406). Z kolei 3 z 4 wspomnianych wcześniej instytucji akademickich znajdujących się w grupie 30 największych światowych posiadaczy patentów SI stanowią instytucje z Chin. Największa z nich, ulokowana na 17. pozycji największych światowych właścicieli patentów SI jest Chińska Akademia Nauk (ponad 2500 patentów). Chińskie instytucje naukowe są potęgą w akademickim świecie SI. Z Państwa Środka pochodzi bowiem aż 17 z 20 właścicieli największego portfolio patentów w świecie akademickim oraz 10 z 20 największych akademickich autorów prac naukowych na temat SI.
      Dominującą techniką wykorzystywaną w opatentowanych technologiach SI jest maszynowego uczenie się, w szczególności to z wykorzystaniem sieci neuronowych. Wymieniono je w ponad 30% patentów. Na polu tym notuje się imponujący wzrost. Jeszcze w 2013 roku maszynowe uczenie się wymieniono w 9567 nowych wnioskach patentowych, a w roku 2016 liczba ta wzrosła do 20 195. Najszybciej rosnącą techniką z dziedziny maszynowego uczenia się jest deep learning. Tutaj zanotowano imponujący wzrost ze 118 patentów w roku 2013 do 2399 patentów w roku 2016. Roczny wzrost w tej dziedzinie wynosi zatem 175%. Dla porównania, roczny wzrost wszystkich patentów związanych z nowymi technologiami wynosi średnio 10%.
      Z analizy patentów dowiadujemy się też, że komputerowe widzenie wymieniono w 49% wniosków patentowych oraz, że szybko – w tempie 55% rocznie – rośnie zastosowanie SI w robotyce.
      Przemysł transportowy jest tym sektorem, w którym najszybciej rośnie zainteresowanie technologiami SI. W 2016 roku złożył on 8764 wnioski patentowe związane ze sztuczną inteligencją. Oznacza to, że od roku 2013 liczba patentów rośnie tutaj w tempie 33% rocznie, a przemysł transportowy złożył 19% wszystkich wniosków patentowych z lat 2013–2016.
      Wolniej, bo w tempie 23% rocznie rośnie liczba patentów SI związanych z przemysłem telekomunikacyjnym. W roku 2016 złożono 6684 wniosków, a telekomunikacja była odpowiedzialna za 15% patentów SI w latach 2013–2016. Na kolejnym miejscu tej listy znajdziemy szeroko rozumiany sektor zdrowia. Tam SI znajduje zastosowanie w diagnostyce, chirurgii czy personalizacji leków. W 2016 roku sektor zdrowia złożył 4112 wniosków patentowych na sztuczną inteligencję, co oznacza roczny wzrost w tempie 12%, i był odpowiedzialny za 11% wszystkich patentów z lat 2013–2016.
      W końcu sektory związane z gadżetami, urządzeniami osobistymi, komputerami i interakcją człowiek-komputer wypełniły w 2016 roku 3977 wniosków patentowych. Mamy tutaj do czynienia z 11-procentowym rocznym wzrostem, a wnioski te stanowiły 11% wszystkich z lat 2013–2016.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Yinyin Yuan i jej koledzy z Institute of Cancer Research w Londynie stworzyli system sztucznej inteligencji, który bada różnice w kształtach komórek nowotworowych. Przeanalizowali próbki tkanek 514 kobiet z rakiem jajnika i odkryli, że w bardziej agresywnej formie nowotworu, w której szanse na przeżycie 5 lat wynoszą zaledwie 15 procent, jądra komórkowe mają nieprawidłowy kształt. Tam, gdzie jądra komórkowe mają kształt prawidłowy, mamy do czynienia z łagodniejszą formą nowotworu, o 53-procentowej szansie przeżycia.
      Jak zauważa Kevin Elias z Dana-Farber Cancer Institute w Bostonie, na razie tego typu test ma bardzo ograniczone możliwości. On jedynie mówi, że rokowania pacjenta są złe. Jeśli nie będę w stanie zaproponować alternatywnego leczenia, taki test nie jest dla mnie użyteczny.
      Sztuczna inteligencja jest coraz częściej stosowana w onkologii. Głównie wykorzystuje się ją do zbierania i analizowania danych na wiele różnych sposobów. Przydaje się np. do badania ewolucji guza czy ulepszania diagnozy.
      Yuan i jej zespół chcą w najbliższym czasie wykorzystać SI do przeanalizowania sposobu, w jaki nowotwory nabywają oporności na chemioterapię i na podstawie tej wiedzy będą chcieli opracować lepsze metody leczenia.

      « powrót do artykułu
×
×
  • Create New...