Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' sztuczna inteligencja'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 43 results

  1. Sztuczna inteligencja pomogła w rozwiązaniu jednej z zagadek zwojów znad Morza Martwego. Przeprowadzona przez algorytm analiza potwierdziła, że jeden z najstarszych zwojów z Qumran – Wielki Zwój Izajasza, pochodzący z ok. 125 roku p.n.e. – został spisany przez dwie osoby, a nie przez jedną. Wielki Zwój Izajasza to kopia Księgi Izajasza. Zanim odkryto zwoje z Qumran historię tekstów biblijnych mogliśmy studiować praktycznie wyłącznie ze średniowiecznych manuskryptów z około 1000 roku. Zwoje znad Morza Martwego są jak kapsuła czasu. Pozwalają nam podróżować do czasów, w których Biblia dopiero powstawała. Dają nam więc wyjątkowy wgląd w kulturę i środowisko, które ją wytworzyło, mówi Mladen Popovic z Uniwersytetu w Groningen. Wielki Zwój Izajasza jest naprawdę wielki. Ma 734 centymetry długości. To największy, jeden z najlepiej zachowanych i jedyny niemal kompletny zwój z Qumran. Dotychczas naukowcy nie byli pewni, czy spisała go jedna czy dwie osoby, gdyż charakter pisma na całym zwoju jest niezwykle podobny. Popovic i jego zespół zaprzęgli sztuczną inteligencję do analizy zdjęć zwoju. Zadaniem algorytmu było przyjrzenie się literom, przeanalizowanie trudnych do wychwycenia dla człowieka zmian w kroju i stylu liter oraz stwierdzenie, czy Wielki Zwój wyszedł spod jednej ręki, czy też pracowało nad nim więcej osób o podobnym charakterze pisma. Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z  wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel. « powrót do artykułu
  2. Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie. Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB). Ograniczenie liczby bolesnych biopsji Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych. Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć. Sieci neuronowe zastąpią lekarzy? W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB. Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe. Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość. 1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny 2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia. 3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów. 4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty. 5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa.   « powrót do artykułu
  3. Przed rokiem firma Cerebras Systems zaprezentowała największy w historii procesor o gigantycznej mocy obliczeniowej, który pokonał najpotężniejszy superkomputer, symulując procesy fizyczne szybciej, niż odbywają się one w rzeczywistości. Teraz firma ogłosiła, że stworzyła drugą wersję swojego procesora i udostępni go w 3. kwartale bieżącego roku. Wafer Scale Engine 2 (WSE 2) ma ponaddwukrotnie więcej tranzystorów, rdzeni i pamięci niż WSE 1. Trenowanie systemów sztucznej inteligencji trwa wiele tygodni. To zdecydowanie zbyt długo, gdyż w takiej sytuacji można wytrenować tylko kilka sieci rocznie. Jeśli zaś moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Mogą w tym pomóc właśnie olbrzymie procesory WSE. Ich twórcy zauważyli, że rozwiązaniem problemu wąskiego gardła, którym jest konieczność ciągłego przesyłania danych pomiędzy procesorem a układami pamięci, będzie zbudowanie wielkiego procesora, który będzie w stanie przechować wszystkie potrzebne dane w swoich rdzeniach. Oba procesory WSE mają powierzchnię 46 255 mm2. Dla porównania procesor Nvidia A100 ma powierzchnię 826 mm2. WSE 2 korzysta z 2,6 biliona tranzystorów (WSE 1 z 1,2 biliona, a A100 z 54,2 miliardów). Najnowszy procesor Cerebras składa się z 850 000 rdzeni (WSE 1 ma ich 400 000, A100 – 7344). W WSE 2 zastosowano 40 gigabajtów pamięci. TO aż 1000-krotnie więcej niż w A100 i ponaddwukrotnie więcej niż w WSE 1. Ponadto rdzenie WSE 2 wymieniają między sobą dane z prędkością 200 PB/s, podczas gdy A100 przekazuje dane z prędkością 155 GB/s, a WSE 1 z prędkością 9 PB/s. Najnowszy procesor Cerebras został wykonany w technologii 7nm, czyli tej samej co A100. WSE 1 korzystał z 16nm. Cerebras zapewnia, że udoskonalił również samą mikroarchitekturę WSE 2 tak, by jeszcze lepiej spełniał on zadania stawiane przed systemami sztucznej inteligencji. Firma może pochwalić się rosnącą liczbą klientów, którzy prowadzą na WSE 1 i mają zamiar prowadzić na WSE 2 niezwykle złożone obliczenia. Wśród klientów tych jest Argonne National Lab, które wykorzystuje WSE do prac nad lekami na nowotwory, badania COVID-19, badania fal grawitacyjnych czy badań nad nowymi materiałami. Z kolei Edinburgh Parallel Computing Centre używa WSE do przetwarzania języka naturalnego i badań genetycznych. Koncern farmaceutyczny GlaxoSmithKline poszukuje nowych leków za pomocą WSE 1, a Lawrence Livermore National Lab symuluje fuzję jądrową, prowadzi badania nad traumatycznymi uszkodzeniami mózgu. Wśród klientów Cerebras jest też wiele firm z przemysłu ciężkiego, wojskowego czy wywiadu. « powrót do artykułu
  4. W Niemczech stworzono algorytm, który identyfikuje geny biorące udział w powstawaniu nowotworów. Naukowcy zidentyfikowali dzięki niemu 165 nieznanych dotychczas genów zaangażowanych w rozwój nowotworu. Co bardzo istotne, algorytm ten identyfikuje również geny, w których nie doszło do niepokojących zmian w DNA. Jego powstanie otwiera nowe możliwości w walce z nowotworami i personalizowanej medycynie. W nowotworach komórki wyrywają się spod kontroli. Rozrastają się i rozprzestrzeniają w niekontrolowany sposób. Zwykle jest to spowodowane mutacjami w DNA. Jednak w przypadku niektórych nowotworów mamy do czynienia z bardzo małą liczbą zmutowanych genów, co sugeruje, że w grę wchodzą tutaj inne przyczyny. Naukowcy z Instytutu Genetyki Molekularnej im. Maxa Plancka oraz Instytut Biologii Obliczeniowej Helmholtz Zentrum München opracowali algorytm maszynowego uczenia się, który zidentyfikował 165 nieznanych dotychczas genów biorących udział w rozwoju nowotworów. Wszystkie nowo odkryte geny wchodzą w interakcje z dobrze znanymi genami pronowotworowymi. Algorytm EMOGI (Explainable Multi-Omics Graph Integration) potrafi też wyjaśnić związki pomiędzy elementami odpowiedzialnymi za powstanie nowotworu. Powstał on na podstawie dziesiątków tysięcy danych zgromadzonych w ramach badań nad nowotworami. Są tam informacje o metylacji DNA, aktywności poszczególnych genów, mutacjach, interakcji białek itp. itd. Na podstawie tych danych algorytm głębokiego uczenia się opracował wzorce oraz nauczył się rozpoznawania sygnałów molekularnych prowadzących do rozwoju nowotworu. Ostatecznym celem takiego algorytmu byłoby stworzenie dla każdego pacjenta całościowego obrazu wszystkich genów zaangażowanych w danym momencie w rozwój nowotworu. W ten sposób położylibyśmy podwaliny pod zindywidualizowaną terapię przeciwnowotworową, mówi Annalisa Marsico, która stoi na czele zespołu badawczego. Jej celem jest wybranie najlepszej terapii dla każdego pacjenta czyli takiego leczenia, które u konkretnej osoby da najlepsze wyniki i będzie miało najmniej skutków ubocznych. Co więcej, pozwoli nam to identyfikować nowotwory na wczesnych fazach rozwoju dzięki ich charakterystyce molekularnej. Dotychczas większość badaczy skupia się na patologicznych zmianach w sekwencjach genetycznych. Tymczasem w ostatnich latach coraz bardziej oczywiste staje się, że do rozwoju nowotworów mogą prowadzić również zaburzenia epigenetyczne czy rozregulowanie aktywności genów, stwierdza Roman Schulte-Sasse, doktorant współpracujący z Marsico. Dlatego właśnie naukowcy połączyli informacje o błędach w genomie z informacjami o tym, co dzieje się wewnątrz komórek. W ten sposób najpierw zidentyfikowali mutacje w genomie, a później znaleźli geny, które mają mniej oczywisty wpływ na rozwój nowotworu. Na przykład znaleźliśmy geny, których DNA jest niemal niezmienione, ale mimo to geny te są niezbędne do rozwoju guza, gdyż regulują dostarczanie mu energii, dodaje Schulte-Sasse. Tego typu geny działają poza mechanizmami kontrolnymi, gdyż np. doszło w nich do chemicznych zmian w DNA. Zmiany te powodują, że co prawda sekwencja genetyczna pozostaje prawidłowa, ale gen zaczyna inaczej działać. Takie geny to bardzo obiecujący cel dla terapii przeciwnowotworowych. Problem jednak w tym, że działają one w tle i do ich zidentyfikowania potrzebne są złożone algorytmy, dodaje uczony. Obecnie naukowcy wykorzystują swój algorytm do przeanalizowania związku pomiędzy proteinami a genami. Związki te można przedstawić w formie matematycznych grafów, stwierdza Schulte-Sasse. Dopiero współczesna technika pozwala na prowadzenie tego typu analiz. Schulte-Sasse już uruchomił algorytm, który analizuje dziesiątki tysięcy takich grafów z 16 różnych typów nowotworów. Każdy z grafów składa się z od 12 000 do 19 000 punktów z danymi. Już teraz zaczynamy zauważać pewne wzorce zależne od typu nowotworu. Widzimy dowody na to, że rozwój guzów jest uruchamiany za pomocą różnych mechanizmów molekularnych w różnych organach, wyjaśnia Marsico. Szczegóły badań zostały opublikowane na łamach Nature Machine Intelligence. « powrót do artykułu
  5. Na Massachusetts Institute of Technology (MIT) powstał system sztucznej inteligencji (SI), który wykrywa czerniaka. System analizuje zdjęcia skóry pacjenta i wskazuje na podejrzane zmiany, dzięki czemu specjalista łatwiej może postawić diagnozę. Czerniak to niebezpieczny nowotwór odpowiedzialny za 70% przypadków zgonów z powodu nowotworów skóry. Od lat lekarze polegają na własnym wzroku i doświadczeniu, wyszukując podejrzane zmiany. Dzięki pomocy SI diagnoza ma być szybsza i skuteczniejsza. Szybkie wykrycie podejrzanych zmian pigmentacji skóry nie jest proste. Łatwo też, przy nowotworze na wczesnym etapie, pominąć którąś ze zmian. Podejrzane zmiany są następnie poddawane biopsji i badane. Naukowcy z MIT wykorzystali technikę głębokich konwolucyjnych sieci neutronowych (DCNN) i zaprzęgnęli ją do analizy obrazów wykonywanych za pomocą zwykłych aparatów cyfrowych, takich jak te obecne w telefonach komórkowych. Luis L. Soenksen, ekspert z Artificial Intelligence and Healthcare na MIT mówi, że dzięki temu możliwe jest szybkie i efektywne wykrywanie czerniaka na wczesnym etapie rozwoju. Wczesne wykrycie podejrzanych zmian może ocalić życie. Jednak obecnie systemy opieki zdrowotnej nie mają dostępu do systemu pozwalającego na badania przesiewowe skóry, stwierdza ekspert. Na łamach Science Translational Medicine wyjaśnia on w jaki sposób działa nowy system. Sztuczną inteligencję do wykrywania czerniaka trenowano za pomocą 20 388 zdjęć od 133 pacjentów madryckiego Hospital Hospital Gregorio Marañón oraz na publicznie dostępnych fotografiach. Zdjęcia były wykonana za pomocą różnych, łatwo dostępnych aparatów cyfrowych. Z twórcami systemu współpracowali też dermatolodzy, który klasyfikowali podejrzane zmiany tradycyjną metodą. Okazało się, że system z 90,3-procentową skutecznością odróżnia podejrzane zmiany skórne od zmian, które nie są problematyczne. Nasze badania wskazują, że system wykorzystujący system komputerowego widzenia oraz głębokie sieci neuronowe osiąga podobną skuteczność, co doświadczony dermatolog. Mamy nadzieję, że nasze badania pomogą w lepszej diagnostyce w punktach podstawowej opieki zdrowotnej, mówi Soenksen. « powrót do artykułu
  6. Firma Samsung Electronics poinformowała o stworzeniu pierwszego modułu High Bandwidth Memory (HBM) zintegrowanego z modułem obliczeniowym wykorzystującym sztuczną inteligencję – HBM-PIM. Architektura processing-in-memory (PIM) umieszczona wewnątrz wysokowydajnych modułów pamięci ma służyć przede wszystkim przyspieszeniu przetwarzania danych w centrach bazodanowych, systemach HPC (High Performance Computing) oraz aplikacjach mobilnych. Nasz HBM-PIM to pierwsze programowalne rozwiązanie PIM przeznaczone dla różnych zastosowań z wykorzystaniem sztucznej inteligencji. Planujemy rozszerzenie współpracy z dostawcami rozwiązań z zakresu sztucznej inteligencji, dzięki czemu będziemy mogli zaproponować coraz bardziej zaawansowane rozwiązania korzystające z PIM, stwierdził wiceprezes Samsunga, Kwangil Park. Większość współczesnych systemów komputerowych bazuje na architekturze von Neumanna, zgodnie z którą dane są przechowywane i przetwarzane w osobnych układach. Taka architektura wymaga ciągłego przesyłania informacji pomiędzy układami, przez co – szczególnie w systemach operujących na olbrzymich zestawach danych – powstaje wąskie gardło spowalniające pracę całego systemu komputerowego. Architektura HBM-PIM zakłada wykorzystanie modułu przetwarzania danych w miejscu, w którym dane się znajdują. Uzyskano to poprzez umieszczenie wewnątrz każdego modułu pamięci silnika SI zoptymalizowanego pod kątem współpracy z układami DRAM. W ten sposób umożliwiono równoległe przetwarzanie danych i zminimalizowano potrzebę ich przesyłania. Samsung informuje, że po połączeniu HBM-PIM z obecnym już na rynku rozwiązaniem HBM2 Aquabolt pozwoliło na dwukrotne zwiększenie wydajności systemu przy jednoczesnym 70-procentowym spadku zapotrzebowania na energię. Koreańczycy podkreślają, że HBM-PIM nie wymaga żadnych zmian sprzętowych ani programowych, zatem łatwo można je zastosować w już istniejących systemach. HBM-PIM zapewnia imponujący wzrost wydajności przy jednoczesnym olbrzymim spadku zapotrzebowania na energię w kluczowych rozwiązaniach SI, zatem z zainteresowaniem oczekujemy na możliwość sprawdzenia jego wydajności w rozwiązywaniu problemów nad którymi pracujemy w Argonne, stwierdził Rick Stevens, dyrektor ds. obliczeniowych, środowiskowych i nauk biologicznych w Argonne National Laboratory. Szczegóły HBM-PIM zostaną zaprezentowane 22 lutego podczas International Solid-State Circuits Virtual Conference (ISSCC). « powrót do artykułu
  7. Dependowirusy, czyli parwowirusy „stowarzyszone” z adenowirusami (AAV) to bardzo przydatne narzędzia w terapii genowej. Mogą one bowiem przenosić DNA do wnętrza komórki, a ponadto są nieszkodliwe dla człowieka. Dlatego też korzysta się z nich jako z nośnika informacji genetycznej potrzebne do zwalczania chorób. Istnieją jednak poważne ograniczenia, które powodują, że w chwili obecnej ich użycie jest mocno limitowane i nie u wszystkich pacjentów można je wykorzystać, zatem nie wszyscy mogą zostać poddani terapii genowej. Pierwsze z tych ograniczeń to ograniczana zdolność AAV do przyczepiania się do komórek. Ograniczenie drugie to ludzki układ odpornościowy. Szacuje się, że 50–70% ludzi jest odpornych na zakażenie AAV, gdyż już wcześniej zetknęli się z jakąś formą tego wirusa. W ich przypadku terapie genowe nie zadziałają, gdyż układ odpornościowy zdąży zniszczyć wirusa zanim ten wniknie do komórki, przekazując jej materiał genetyczny potrzebny do prowadzenia terapii. Z tego też powodu jednym z ważniejszych pól badań nad terapiami genowymi są próby oszukania układu odpornościowego. Doktor George Church z Uniwersytetu Harvard we współpracy z Google Research i Dyno Therapeutics wykorzystał technikę głębokiego uczenia się do zaprojektowania bardzo zróżnicowanych wariantów kapsydu (płaszcza białkowego) wirusa AAV. Naukowcy skupili się na sekwencjach genomu wirusa, które kodują kluczowy segment protein odgrywający kluczową rolę w infekcji docelowych komórek oraz w rozpoznawaniu wirusa przez układ odpornościowy. Specjaliści wykazali, ze dzięki wykorzystaniu sztucznej inteligencji możliwe jest zaprojektowanie olbrzymiej liczby zróżnicowanych kapsydów, które później można poddać testom pod kątem ich zdolności do uniknięcia ataku ze strony układu odpornościowego. Naukowcy wyszli od niewielkiej ilości danych na temat kapsydu, by docelowo uzyskać 200 000 wariantów. Nasze badania jasno pokazują, że maszynowe uczenie się pozwala na zaprojektowanie olbrzymiej liczby wariantów, znacznie większej niż istnieje w naturze. Wciąż udoskonalamy naszą technikę, by nie tylko stworzyć nośniki, które poradzą sobie z problemem ataku ze strony układy odpornościowego, ale będą też bardziej efektywnie i selektywnie przyczepiały się do wybranych rodzajów tkanek, mówi doktor Eric Kelsic, dyrektor i współzałożyciel firmy Dyno Therapeutics. Z artykułu opublikowanego na łamach Nature dowiadujemy się, że wstępna ocena zaprojektowanych przez sztuczną inteligencję kapsydów wykazała, że niemal 60% może się sprawdzić. To znaczny. postęp. Obecnie do różnicowania kapsydów wykorzystuje się przypadkową mutagenezę, gdzie odsetek przydatnych kapsydów jest mniejszy niż 1%. Im bardziej odbiegniemy od naturalnego wyglądu AAV, tym większe prawdopodobieństwo, że układ odpornościowy go nie rozpozna, dodaje doktor Sam Sinai, drugi z założycieli Dyno Therapeutics, który stał na czele zespołu prowadzącego modelowanie komputerowe. Kluczem do odniesienia sukcesu jest jednak wyprodukowanie kapsydu, który w sposób stabilny przeniesie ładunek DNA. Tradycyjne metody uzyskiwania takiego kapsydu są bardzo czaso- i zasobochłonne, a w ich wyniku utrzymujemy bardzo mało przydatnych kapsydów. Tutaj zaś możemy szybko uzyskiwać dużą różnorodność kapsydów AAV, które są bazą do udoskonalanie terapii genowych dostępnych dla większej liczby osób". « powrót do artykułu
  8. Opracowanie planu radioterapii to skomplikowane zadanie, dlatego też nawet pacjenci, którzy potrzebują natychmiastowego wdrożenia leczenia muszą zwykle czekać kilka dni lub dłużej, aż lekarze opracują plan. Okazuje się jednak, że z pomocą może tutaj przyjść sztuczna inteligencja, która odpowiedni plan może przygotować w ułamku sekundy. Niektórzy z takich pacjentów wymagają natychmiastowej radioterapii, ale lekarze odsyłają ich do domu i każą czekać. Opracowanie w czasie rzeczywistym planu leczenia jest bardzo ważne. To część naszego projektu, w ramach którego chcemy zaprząc SI do poprawy wszelkich aspektów walki z nowotworami, mówi doktor Steve Jiang, który kieruje Laboratorium Medycznej Sztucznej Inteligencji i Automatyzacji na UT Soutwestern Medical Center. Radioterapia to często stosowana metoda walki z nowotworami. Badania pokazują, że w przypadku niektórych nowotworów odroczenie radioterapii o zaledwie tydzień zwiększa ryzyko nawrotu lub rozprzestrzenienia się choroby nawet o 14%. To właśnie takie dane stały się przyczyną, dla której zespół Jianga postanowił wykorzystać SI to pomocy w zaplanowaniu radioterapii. Od rozpoczęcia leczenia po przeliczenie dawek w miarę postępów leczenia. Testy przeprowadzone za pomocą specjalnie opracowanego algorytmu wykazały, że jest on w stanie opracować optymalny plan leczenia zaledwie w ciągu 5/100 sekundy od momentu otrzymania danych dotyczących pacjenta. Nowo opracowany algorytm korzystał z technik głębokiego uczenia się. Szkolono go na przykładzie 70 osób cierpiących na nowotwór prostaty, a przy uczeniu wykorzystano 4 algorytmy głębokiego uczenia się. Z czasem sztuczna inteligencja nauczyła się opracowywania optymalnego planu leczenia. Okazało się, że w przypadku każdego z tych pacjentów jest on taki sam, jak ten opracowany przez lekarzy. To jednak nie wszystko. Algorytm był też w stanie przed każdą kolejną sesją radioterapii błyskawicznie obliczyć prawidłowe dawki promieniowania. Zwykle pacjenci przed każdą sesją przechodzą badanie, na podstawie którego obliczane są dawki. Nowy algorytm korzysta z dwóch standardowych modeli obliczania dawki. Jednego szybkiego, który jednak jest mniej precyzyjny, i drugiego bardzo precyzyjnego, który jednak wymaga półgodzinnych obliczeń. SI, porównując na przykładzie wspomnianych 70 pacjentów wyniki obu modeli, nauczyła się, jak wykorzystać szybkość jednego i precyzję drugiego, by w czasie krótszym od sekundy uzyskać precyzyjne wyniki. Naukowcy z UT Southwestern Medical Center mają teraz zamiar wykorzystać swój algorytm w codziennej praktyce klinicznej. « powrót do artykułu
  9. Firma DeepMind, której system sztucznej inteligencji zdobył rozgłos pokonując mistrza Go, a niedawno zapowiedział rewolucję na polu nauk biologicznych, poszła o krok dalej. Stworzyła system MuZero, który uczy się zasad gry od podstaw, bez żadnych informacji wstępnych. Celem DeepMind jest spowodowanie, by MuZero uczył się tak, jak robi to dziecko, metodą prób i błędów. MuZero rozpoczyna naukę reguł gry od spróbowania jakiegoś działania. Później próbuje czegoś innego. Jednocześnie sprawdza, czy jego działanie jest dozwolone i jaki jest jego skutek. Do dalszej pracy wybiera te z działań, które przynoszą najlepszy rezultat. W szachach będzie to doprowadzenie do szach-mata, w Pac-Manie zaś połknięcie kropki. Następnie algorytm tak zmienia swoje działania by pożądane rezultaty osiągnąć najniższym kosztem. Taki sposób nauki, poprzez obserwację, jest idealną metodą w przypadku SI. Chcemy bowiem zadać sztucznej inteligencji pytania i poprosić o rozwiązywanie problemów, których nie można łatwo zdefiniować. Ponadto w świecie rzeczywistym, gdzie nie obowiązują stałe i jasne reguły gry, SI co chwila będzie napotykała na przeszkody, z którymi musi sobie poradzić. Obecnie MuZero uczy się kompresji wideo. W przypadku AlphaZero nauczenie się tego zadania byłoby bardzo kosztowne, mówią autorzy algorytmu. Już teraz zastanawiają się nad wdrożeniem MuZero do nauczenia się jazdy samochodem. Myślą też o zaprzęgnięciu algorytmu do projektowania białek. Przypomnijmy, że siostrzany algorytm AlphaFold udowodnił ostatnio, że świetnie sobie radzi z zawijaniem białek. MuZero mógłby zaś projektować białka od podstaw. Dzięki temu, mając do dyspozycji np. szczegółową wiedzę o wirusie czy bakterii, którą białko ma niszczyć, byłby w stanie zaprojektować nowe lekarstwa. MuZero, dzięki jednoczesnemu uczeniu się reguł gry i udoskonalaniu swoich działań pracuje znacznie bardziej ekonomicznie, niż jego poprzednicy stworzeni przez DeepMind. Radzi sobie świetnie nawet wówczas, gdy twórcy celowo ograniczą jego możliwości. Podczas nauki zasad Pac-Mana, gdy na każdy rozważany ruch MuZero mógł przeprowadzić nie więcej niż 7 symulacji skutków swoich działań – co jest liczbą zdecydowanie zbyt małą, by rozważyć wszystkie opcje – algorytm i tak całkiem dobrze sobie poradził. Twórcy MuZero mówią, że taki system potrzebuje sporych mocy obliczeniowych, by nauczyć się zasad. Gdy jednak już je pozna, podejmowanie kolejnych decyzji wymaga już tak niewielu obliczeń, że całe działania mogą być przeprowadzone na smartfonie. Jednak nawet nauka nie jest bardzo wymagająca. MuZero nauczył się od podstaw zasad Pac-Mana w ciągu 2-3 tygodni, korzystając przy tym z jednego GPU, mówi Julian Schrittwieser, jeden ze współautorów algorytmu. Jednym z elementów powodujących, że wymagania MuZero są nieduże w porównaniu z innymi systemami jest fakt, iż algorytm bierze pod uwagę tylko elementy istotne w procesie podejmowania decyzji. Wiedza, że parasol ochroni cię przed deszczem jest bardziej użyteczna, niż umiejętność modelowania ruchu kropel wody w powietrzu, czytamy w oświadczeniu DeepMind. Celem twórców MuZero jest spowodowanie, by ich system potrafił odrzucić wszystko to, co w danym momencie nie jest potrzebne, by skupił się na kwestiach istotnych. Mówią tutaj o dziecku, które po zaledwie kilkukrotnym doświadczeniu jest w stanie generalizować wiedzę na dany temat i połączyć np. kroplę wody z potężnym wodospadem, widząc powiązanie pomiędzy nimi. « powrót do artykułu
  10. AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady. Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów. AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii. W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób. Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki. Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa. W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione. Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza. W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji. Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania. Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka. CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas. AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka. Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym. Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu. O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas. Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold. AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie. Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas. Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób. « powrót do artykułu
  11. Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona. O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali. CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU. Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych. Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych. Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s. Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy. Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci. Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp. Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych. Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego. Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni). « powrót do artykułu
  12. Henrique Andrade, student z brazylijskiego Escola Politécnica da Universidade de Pernambuco od wielu lat interesuje się starymi mapami swojego rodzinnego miasta Recife. Zgromadziłem wiele cyfrowych kopii takich map i odkryłem o swoim mieście rzeczy, które nie są powszechnie znane. Ludziom z Recife odebrano dostęp do przeszłości, przez co mają problem ze zrozumieniem, kim są i co mogą zrobić dla swojej przyszłości, mówi Andrade. Student wpadł jednak na bardzo interesujący pomysł. Młody człowiek namówił profesora Bruno Fernandesa do stworzenia algorytmu maszynowego uczenia się, który przetwarzałby stare mapy na obrazy satelitarne takie, jaki widzimy w serwisie Google Maps. Zdaniem Andrade pomoże to zrozumieć ludziom, jak ich otoczenie zmieniało się z czasem, w tym jaki wpływ społeczny i ekonomiczny miała urbanizacja. Obaj uczeni wykorzystali istniejące narzędzie do sztucznej inteligencji zwane Pix2pix, które opiera się na dwóch sieciach neuronowych. Pierwsza z nich tworzy obrazy na podstawie danych, które otrzymuje, a druga decyduje, czy obraz jest prawdziwy czy nie. Obie sieci zostały tak wytrenowane, by próbowały nawzajem się oszukać. Ostatecznyme efektem ich pracy są realistycznie wyglądające obrazy. Andrade i Fernandes opublikowali szczegóły w piśmie IEEE Geoscience and Remote Sensing Letters. Na potrzeby swojej pracy stworzyli „satelitarny” obraz Recife na podstawie mapy z 1808 roku i zestawili go z obecnym obrazem satelitarnym tego samego obszaru. Gdy patrzysz na te obrazy, lepiej pojmujesz, jak zmieniło się miasto w ciągu ostatnich 200 lat. Widać dramatyczne zmiany jego geografii. Zbiorniki wody zostały zasypane odpadami, ludzie usunęli też tereny zielone, mówi Andrade. Młody uczony dodaje, że dużą zaletą zastosowanej techniki jest fakt, że SI potrzebuje stosunkowo niewiele danych. Jednak muszą być one umieszczone w kontekście historycznym, a rozdzielczość wygenerowanych obrazów jest mniejsza, niż życzyliby sobie naukowcy. Pracujemy nad poprawieniem rozdzielczości i eksperymentujemy z różnymi danymi, zapewnia Andrade. « powrót do artykułu
  13. Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów. Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji. Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny. Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów. System opracowany przez naukowców, lekarzy i studentów Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej. W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku. Sztuczna inteligencja pomocna w ocenie złośliwości guzów System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych. Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych. To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji. Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów. Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości. Pierwsze testy w gdańskim szpitalu System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego. System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce. « powrót do artykułu
  14. Choroba zwyrodnieniowa stawów to najczęściej występujące schorzenie spośród wszystkich rodzajów zapaleń stawów. Obecnie diagnozuje się ją przede wszystkim na podstawie zdjęć rentgenowskich. Jednak naukowcy z Wydziału Medycyny University of Pittsburgh oraz Wydziału Inżynierii Carnegie Mellon University stworzyli algorytm sztucznej inteligencji, który diagnozuje to schorzenie wiele lat przed pojawieniem się objawów. Złotym standardem w diagnostyce choroby zwyrodnieniowej stawów jest zdjęcie rentgenowskie. Gdy stawy ulegają zniszczeniu, zmniejszają się odległości pomiędzy kośćmi. Problem w tym, że gdy możemy zauważ tę chorobę na zdjęciach, zniszczenia już się dokonały. Znacznie łatwiej jest zaś zapobiegać zniszczeniu tkanki chrzęstnej niż spowodować jej odrastanie, mówi jeden z autorów badań, profesor chirurgii ortopedycznej Kenneth Urish z Pittsburgha. Obecnie nie istnieje żadna metoda wykrywania choroby zwyrodnieniowej stawów na etapie, który pozwalałby na naprawienie powstałych szkód. W naszej pracy prezentujemy metodę, która pozwala na wykrycie choroby jeszcze zanim da ona objawy. Metoda ta łączy teorię optymalnego transportu masy ze statystycznym rozpoznawaniem wzorców, czytamy w pracy pod tytułem Enabling early detection of osteoarthritis from presymptomatic cartilage texture maps via transport-based learning. Gdy lekarze oglądają zdjęcia stawów, nie widać tam oczywistego wzorca, który od razu można zauważyć gołym okiem. Ale to nie znaczy, że taki wzorzec nie istnieje. To znaczy tylko, że nie można go dostrzec używając konwencjonalnych narzędzi, dodaje doktor Shinjini Kundu. To właśnie Kundu odpowiadał za trenowanie algorytmu na podstawie zdjęć kolan wykonanych za pomocą rezonansu magnetycznego, a następnie testował go na zdjęciach, pacjentów, z którymi model nie miał wcześniej do czynienia. Proces nauczania i testowania był powtarzany dziesiątki razy, za każdym razem na innej grupie osób. W końcu model poddano ostatecznemu testowi. Miał on do przeanalizowania zdjęcia stawów kolanowych 86 zdrowych osób, u których ani nie występowały objawy choroby zwyrodnieniowej stawów, ani nie było na zdjęciach widać zmian wskazujących na proces chorobowy. Okazało się, że algorytm z 78-procentową trafnością przewidział, u których pacjentów trzy lata później rozwinęła się choroba. Osiągnięcie to wskazuje, że wykrycie choroby zwyrodnieniowej stawów może być możliwe na etapie, gdzie można jej zapobiec. W przyszłości połączenie metody przedobjawowego wykrywania z nowymi terapiami pozwalającymi na jej zapobieganie może znacząco zmienić epidemiologię choroby, na walkę z którą którą amerykański system opieki zdrowotnej wydaje obecnie 16,5 miliarda dolarów rocznie. Co więcej, naszą technikę można zastosować do wcześniejszego wykrywania w badaniach obrazowych wielu innych chorób, które obecnie diagnozuje się w zaawansowanym stadium rozwoju. Przed tygodniem informowaliśmy o innym algorytmie, który równie dobrze jak radiolodzy potrafi diagnozować raka piersi. « powrót do artykułu
  15. Wykorzystując sztuczną inteligencję, po raz pierwszy udało się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata. Współautorem pionierskiej pracy jest dr William Pearson z Zakładu Astrofizyki Departamentu Badań Podstawowych NCBJ. Ostatnia Nagroda Nobla pokazała, jak ważną i fascynującą dziedziną jest astrofizyka. Wielu naukowców od lat próbuje odkryć tajemnice wszechświata, jego przeszłość i przyszłość. Teraz po raz pierwszy udało im się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata (wykorzystano do tego sztuczną inteligencję). W badaniach prowadzonych przez Lingyu Wang (Holenderski Instytut Badań Kosmicznych, SRON), Vicente Rodrigueza-Gomeza (Instytut Radioastronomii i Astrofizyki, IRyA) oraz Williama J. Pearsona (Narodowe Centrum Badań Jądrowych, NCBJ) zastosowano pionierską metodę identyfikacji zderzających się galaktyk zarówno w symulacjach, jak i w obserwacjach rzeczywistego wszechświata. Zderzenia galaktyk nie są niczym nowym, od początku powstania wszechświata galaktyki zderzają się ze sobą, często łącząc się w jedną większą galaktykę. Wiadomo, że większość znanych nam galaktyk uczestniczyła w co najmniej kilku takich zderzeniach w ciągu swojego życia. Proces zderzania się galaktyk trwa zwykle setki milionów lat. To ważny aspekt historii naszego wszechświata, który możemy zobaczyć też na własne oczy, np. dzięki zdjęciom z teleskopu Hubble'a. Identyfikacja zderzających się galaktyk nie jest jednak prosta. Proces ten możemy badać albo symulując całe wydarzenie i analizując jego przebieg, albo obserwując je w realnym świecie. W przypadku symulacji jest to proste: wystarczy śledzić losy konkretnej galaktyki i sprawdzać, czy i kiedy łączy się z inną galaktyką. W prawdziwym wszechświecie sprawa jest trudniejsza. Ponieważ zderzenia galaktyk są rzadkie i trwają miliardy lat, w praktyce widzimy tylko jeden "moment" z całego długiego procesu zderzenia. Astronomowie muszą dokładnie zbadać obrazy galaktyk, aby ocenić, czy znajdujące się na nich obiekty wyglądają tak, jakby się zderzały lub niedawno połączyły. Symulacje można porównać z prowadzeniem kontrolowanych eksperymentów laboratoryjnych. Dlatego są potężnym i użytecznym narzędziem do zrozumienia procesów zachodzących w galaktykach. Dużo więcej wiemy na temat zderzeń symulowanych niż zderzeń zachodzących w prawdziwym wszechświecie, ponieważ w przypadku symulacji możemy prześledzić cały długotrwały proces zlewania się konkretnej pary galaktyk. W prawdziwym świecie widzimy tylko jeden etap całego zderzenia. Wykorzystując obrazy z symulacji, jesteśmy w stanie wskazać przypadki zderzeń, a następnie wytrenować sztuczną inteligencję (AI), aby była w stanie zidentyfikować galaktyki w trakcie takich zderzeń – wyjaśnia dr William J. Pearson z Zakładu Astrofizyki NCBJ, współautor badań. Aby sztuczna inteligencja mogła spełnić swoje zadanie, obrazy symulowanych galaktyk przetworzyliśmy tak, żeby wyglądały, jakby były obserwowane przez teleskop. Naszą AI przetestowaliśmy na innych obrazach z symulacji, a potem zastosowaliśmy ją do analizy obrazów prawdziwego wszechświata w celu wyszukiwania przypadków łączenia się galaktyk. W badaniach sprawdzono, jak szanse na prawidłową identyfikację zderzającej się pary galaktyk zależą m.in. od masy galaktyk. Porównywano wyniki oparte na symulacjach i rzeczywistych danych. W przypadku mniejszych galaktyk AI poradziła sobie równie dobrze w przypadku obrazów symulowanych i rzeczywistych. W przypadku większych galaktyk pojawiły się rozbieżności, co pokazuje, że symulacje zderzeń masywnych galaktyk nie są wystarczająco realistyczne i wymagają dopracowania. Artykuł zatytułowany Towards a consistent framework of comparing galaxy mergers in observations and simulations został przyjęty do publikacji w czasopiśmie Astronomy & Astrophysics. « powrót do artykułu
  16. Porównanie trzech komercyjnych systemów sztucznej inteligencji wykorzystywanej w diagnostyce obrazowej raka piersi wykazało, że najlepszy z nich sprawuje się równie dobrze jak lekarz-radiolog. Algorytmy badano za pomocą niemal 9000 obrazów z aparatów mammograficznych, które zgromadzono w czasie rutynowych badań przesiewowych w Szwecji. Badania przesiewowe obejmujące dużą część populacji znacząco zmniejszają umieralność na nowotwory piersi, gdyż pozwalają na wyłapanie wielu przypadków na wczesnym etapie rozwoju choroby. W wielu takich przedsięwzięciach każde zdjęcie jest niezależnie oceniane przez dwóch radiologów, co zwiększa skuteczność całego programu. To jednak metoda kosztowna, długotrwała, wymagająca odpowiednich zasobów. Tutaj mogłyby pomóc systemy SI, o ile będą dobrze sobie radziły z tym zadaniem. Chcieliśmy sprawdzić, na ile dobre są algorytmy SI w rozpoznawaniu obrazów mammograficznych. Pracuję w wydziale radiologii piersi i słyszałem o wielu firmach oferujących takie algorytmy. Jednak trudno było orzec, jaka jest ich jakość, mówi Fridrik Strand z Karolinska Institutet. Każdy z badanych algorytmów to odmiana sieci neuronowej. Każdy miał do przeanalizowania zdjęcia piersi 739 kobiet, u których w czasie krótszym niż 12 miesięcy od pierwotnego badania wykryto raka piersi oraz zdjęcia 8066 kobiet, u których w czasie 24 miesięcy od pierwotnego badania nie wykryto raka piersi. Każdy z algorytmów miał ocenić zdjęcie w skali od 0 do 1, gdzie 1 oznaczało pewność, iż na zdjęciu widać nieprawidłową tkankę. Trzy systemy, oznaczone jako AI-1, AI-2 oraz AI-3 osiągnęły czułość rzędu 81,9%, 67,0% oraz 67,4%. Dla porównania, czułość w przypadku radiologów jako pierwszych interpretujących dany obraz wynosiła 77,4%, a w przypadku radiologów, którzy jako drudzy dokonywali opisu było to 80,1%. Najlepszy z algorytmów potrafił wykryć też przypadki, które radiolodzy przeoczyli przy badaniach przesiewowych, a kobiety zostały w czasie krótszym niż rok zdiagnozowane jako chore. Badania te dowodzą, że algorytmy sztucznej inteligencji pomagają skorygować fałszywe negatywne diagnozy postawione przez lekarzy-radiologów. Połączenie możliwości AI-1 z przeciętnym lekarzem-radiologiem zwiększało liczbę wykrytych nowotworów piersi o 8%. Zespół z Karolinska Institutet spodziewa się, że jakość algorytmów SI będzie rosła. Nie wiem, jak efektywne mogą się stać, ale wiem, że istnieje kilka sposobów, by je udoskonalić. Jednym z nich może być np. ocenianie wszystkich 4 zdjęć jako całości, by można było porównać obrazy z obu piersi. Inny sposób to porównanie nowych zdjęć z tymi, wykonanymi wcześniej, by wyłapać zmiany, mówi Strand. Pełny opis eksperymentu opublikowano na łamach JAMA Oncology. « powrót do artykułu
  17. Elon Musk ogłosił przełom w dziedzinie synchronizacji ludzkiego mózgu ze sztuczną inteligencją. Podczas pokazu na żywo Musk zaprezentował układ scalony zbudowany przez jego firmę Neuralink. To w pełni samodzielny implant mózgowy, który bezprzewodowo przesyła informacje o aktywności mózgu, nie wymagając przy tym żadnego zewnętrznego sprzętu. Działanie chipa zaprezentowano na przykładzie żywej świni. Uczestnicy pokazu mogli zobaczyć grupę świń, z których jedna miała wszczepiony implant. Ekran nad nią na bieżąco pokazywał i rejestrował aktywność jej mózgu. Dotychczas by zarejestrować działanie mózgu konieczne było podłączenie badanej osoby lub zwierzęcia do zewnętrznego urządzenia, np. elektroencefalografu (EEG). Celem Muska jest stworzenie implantu mózgowego, który bezprzewodowo połączy ludzki mózg ze sztuczną inteligencją i pozwoli na kontrolowanie komputerów, protez i innych maszyn jedynie za pomocą myśli. Implant może służyć też rozrywce. Za jego pomocą będzie bowiem można kontrolować gry. Musk chce stworzyć implant, który będzie rejestrował i zapisywał aktywność milionów neuronów, przekładając ludzkie myśli na polecenia dla komputera i odwrotnie. Wszystko to miało by się odbywać za pomocą niewielkiego wszczepialnego implantu. Prace nad implantem pozwalającym na stworzenie interfejsu mózg-komputer trwają od ponad 15 lat. Ich celem jest umożliwienie normalnego funkcjonowania ludziom z chorobami neurologicznymi czy paraliżem. Badania bardzo powoli posuwają się naprzód. Od 2003 w USA implanty mózgowe wszczepiono mniej niż 20 osobom. Wszystkie dla celów badawczych. Większość z takich systemów posiada jednak części, które wystają poza organizm, umożliwiając w ten sposób zasilanie i transmisję danych. Takie zewnętrzne części to ryzyko infekcji. Są ponadto niepraktyczne. Neuralink twierdzi, że jej układ jest najbardziej zaawansowany z dotychczasowych. Zawiera procesor, nadajnik bluetooth, akumulator oraz tysiące elektrod. Każda z tych elektrod rejestruje aktywność do 4 neuronów. Bolu Ajiboye, profesor inżynierii biomedycznej z Case Western Reserve Univeristy, który jest głównym naukowcem konsorcjum BrainGate pracującym nad implantami dla pacjentów neurologicznych, mówi, że jeśli chip Muska będzie przez dłuższy czas umożliwiał bezprzewodową transmisję danych, to mamy do czynienia dużym postępem na tym polu. W Neuralinku pracują mądrzy ludzie prezentujący innowacyjne podejście. Wiem, co oni tam robią i z niecierpliwością czekam na wyniki, stwierdza uczony. Na razie jednak osiągnięcia Neuralink znamy z prezentacji, a nie z recenzowanych artykułów. Nie wiemy na przykład, a jaki sposób urządzenie transmituje tak dużą ilość danych bez generowania uszkadzającego mózg ciepła. Ponadto, jak zauważa Ajiboye, urządzenie jest dość duże jak na implant mózgowy. Jest to bowiem cylinder o średnicy 23 i długości 8 mm. Tymczasem urządzenie, które obecnie testuje BrainGate ma wymiary 4x4 mm. Zawiera też element wystający przez czaszkę oraz 100 elektrod. Tymczasem urządzenie Neuralinka korzysta z 1000 elektrod. Podczas pokazu z udziałem Muska wykorzystano trzy świnie, z których jedna – imieniem Gertruda – miała wszczepiony implant. Widać było, że za każdym razem gdy Gertruda węszy, zwiększała się aktywność elektryczna jej mózgu. Jednak rejestracja danych to nie wszystko. Najważniejsze jest ich dekodowanie. Wiele laboratoriów na całym świecie poświęciło wiele czasu na opracowywanie algorytmów mających na celu interpretację sygnałów z mózgu. Neuralink nam tego nie zaprezentował, mówi Ajiboye. Pierwsze implanty Neuralinka mają mieć zastosowanie medyczne. Mogą np. trafić do ludzi z uszkodzonym rdzeniem kręgowym. Jednak Elon Musk stwierdził, że w przyszłości chce wyjść poza zastosowania medyczne. Słowa te wywołały duże poruszenie w mediach. Jako naukowcy specjalizujący się w dość szczególnej dziedzinie musimy być odpowiedzialni za słowa, ważyć obietnice jakie składamy i uważać na to, co opowiadamy o naszej technologii. Gdy pojawił się Elon Musk nasze prace przyciągnęły uwagę mediów. To dobrze, jednak rodzi to też wyzwania. A jednym z takich wyzwań jest odróżnienie propagandy od rzeczywistości.   « powrót do artykułu
  18. Biały Dom ogłosił, że budżet federalny wraz z prywatnymi partnerami przeznaczy w ciągu najbliższych 5 lat ponad miliard dolarów na stworzenie i sfinansowanie 12 centrów badawczych zajmujących się sztuczną inteligencją i naukami informatycznymi. Celem inicjatywy jest utrzymanie pozycji USA jako światowego lidera w dziedzinie SI i technologii kwantowych. W najbliższym czasie powstanie siedem Artificial Intelligence Research Institutes oraz pięć Quantum Information Science Research Centers. W ogłoszonym przez Biały Dom programie udział wezmą zarówno giganci IT jak IBM czy Microsoft, czołowe uczelnie jak University of California czy Massachusetts Institute of Technology, jak i laboratoria narodowe, w tym Fermilab, Argonne oraz Lawrence Berkeley. Jednym z zadań nowo utworzonych jednostek badawczo-rozwojowych będzie inwestowanie we wczesne badania, w które prywatny biznes niechętnie inwestuje, a które są istotne z punktu widzenia utrzymania przez USA pozycji lidera na tym polu. Na przykład jeden z instytutów będzie pracował na narzędziami SI, które mogą przyspieszyć odkrywanie i produkcję nowych związków bioaktywnych. Instytuty będą służyły też do szkoleń przyszłych pokoleń ekspertów ds. SI. Ogłoszona przez Biały Dom inicjatywa zbiegła się z nową propozycją budżetową administracji prezydenckiej, która chce, by o 30% zwiększyć wydatki na niezwiązany z obronnością sektor badań nad SI oraz informatyką kwantową. Zgodnie z planem budżet federalny na sztuczną inteligencję ma do roku 2022 wzrosnąć do 2 miliardów USD, a na informatykę kwantową do 860 milionów dolarów. Tymczasem wpływowy waszyngtoński think-tank Center for a New American Security uważa, że z budżetu federalnego USA powinny do roku 2025 wydawać na badania nad SI – w tym na SI związane z obronnością – 25 miliardów USD rocznie. Warto przypomnieć, że obecnie amerykański sektor prywatny przeznacza na badania nad sztuczną inteligencją około 40 miliardów USD na rok. « powrót do artykułu
  19. Stworzony przez NVIDIĘ algorytm sztucznej inteligencji GameGAN był w stanie samodzielnie stworzyć grę PAC-MAN. System nie miał dostępu do kodu gry. Zaprezentowano mu jedynie 50 000 fragmentów wideo. Na tej podstawie sztuczna inteligencja samodzielnie stworzyła w pełni funkcjonalną warstwę graficzną PAC-MANa. PAC-MAN to jedna z najpopularniejszych gier komputerowych. Ta klasyka wirtualnej rozrywki powstała przed 40 laty w Japonii. Podbiła świat w czasach salonów gier i automatów. Osiągnięcie inżynierów NVIDII oznacza, że nawet bez znajomości podstawowych zasad rozgrywki ich algorytm jest w stanie samodzielnie je zrekonstruować oraz stworzyć własną grę. GameGAN to pierwsza sieć neuronowa, która wykorzystuje technologię GAN (generatywne sieci współzawodniczące) do stworzenia gry. GAN korzysta z dwóch niezależnych sieci neuronowych. Jedna to dyskryminator, druga zwana jest generatorem. Obie współzawodniczą ze sobą. Zwykle sieci neuronowe uczą się np. rozpoznawać koty na zdjęciach dzięki przeanalizowaniu olbrzymiej liczby zdjęć kotów. Metoda ta jest po pierwsze czasochłonna, po drugie zaś wymaga, by wszystkie użyte do treningu zdjęcia zostały ręcznie prawidłowo oznaczone przez człowieka. Dopiero po analizie olbrzymiej bazy danych sieć jest w stanie rozpoznać kota na zdjęciu, z którym wcześniej nie miała do czynienia. GAN wymaga znacznie mniej czasu i pracy. w tej koncepcji generator stara się stworzyć zdjęcie kota jak najbardziej przypominającego kota, a dyskryminator przegląda zdjęcia kotów i decyduje, które jest prawdziwe, a które fałszywe. W wyniku tego współzawodnictwa generator tworzy coraz doskonalsze zdjęcia, a dyskryminator coraz lepiej rozpoznaje koty. Teraz po raz pierwszy technika taka została użyta do stworzenia nadającego się do użycia funkcjonalnego layoutu gry. Chcieliśmy sprawdzić, czy sztuczna inteligencja jest w stanie nauczyć się reguł obowiązujących w środowisku jedynie patrząc na przebieg gry. I to jej się udało, mówi główny autor projektu Seung-Wook Kim. Osiągnięcie inżynierów NVIDII oznacza, że autorzy gier będą mogli wykorzystać sztuczną inteligencję do szybszego i łatwiejszego tworzenie kolejnych jej etapów, a badacze sztucznej inteligencji będą łatwiej mogli stworzyć symulatory do treningu autonomicznych systemów. W przyszłości w ten sposób mogą powstać systemy sztucznej inteligencji, które samodzielnie – tylko na podstawie nagrań wideo – nauczą się przepisów ruchu drogowego czy zasad fizyki. GameGAN to pierwszy krok w tym kierunku, dodaje Sanja Fidler, dyrektor laboratorium NVIDII w Toronto. « powrót do artykułu
  20. Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl. Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności? W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia. Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich. Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych. Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm? Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy. Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin. Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła. Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature. Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych. Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji? Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości. « powrót do artykułu
  21. Algorytmy do maszynowego uczenia się pozwoliły specjalistom z MIT zidentyfikować nowe potężne antybiotyki. Podczas testów laboratoryjnych nowe związki zabiły jedne z najtrudniejszych w zwalczaniu bakterii chorobotwórczych, w tym szczepy oporne na działanie wszystkich znanych antybiotyków. Jakby tego było mało, umożliwiły one zwalczenie infekcji w dwóch różnych mysich modelach chorób. Naukowcy wykorzystali model komputerowy, który pozwala na przeanalizowanie w ciągu zaledwie kilku dni działania setek milionów związków chemicznych. Taka analiza pozwala na wybór do dalszych badań najbardziej obiecujących środków. Uczeni szukają związków, które zabijają bakterie w inny sposób, niż obecnie znane antybiotyki. Chcieliśmy stworzyć platformę, która pozwoliłaby nam na wykorzystanie sztucznej inteligencji do zapoczątkowania nowej epoki w odkrywaniu antybiotyków. Dzięki takiemu podejściu natrafiliśmy na zadziwiającą molekułę, która jest jednym z najpotężniejszych znanych antybiotyków, mówi profesor James Collins z MIT. Przy okazji zidentyfikowano wiele innych obiecujących kandydatów na antybiotyki. Substancje te dopiero będą testowane. Uczeni uważają, że ich model można wykorzystać również do projektowania nowych leków. Model maszynowego uczenia się pozwala nam masowo badać związki chemiczne. Przeprowadzenie takich badań w laboratorium byłoby niemożliwe ze względu na koszty, dodaje Regina Barzilay z Computer Science and Artificial Intelligencje Laboratory (CSAIL) na MIT. Przez ostatnich kilkadziesiąt lat wynaleziono niewiele nowych antybiotyków, a większość z tych nowych to lekko istniejące wersje wcześniej istniejących. Obecnie wykorzystywane metody badania związków chemicznych pod kątem ich przydatności do produkcji antybiotyków są niezwykle kosztowne, wymagają dużo czasu i zwykle pozwalają zbadać wąską grupę mało zróżnicowanych środków. Stoimy w obliczu rosnącej antybiotykooporności. Z jednej strony problem ten spowodowany jest coraz większą liczbą antybiotykoopornych patogenów, a z drugiej – powolnym postępem na tym polu, mówi Collins. Coraz częściej pojawiają się głosy, że ludzie mogą zacząć umierać na choroby zakaźne, na które nie umierali od dziesięcioleci. Dlatego też niezwykle pilnym zadaniem jest znalezienie nowych antybiotyków. Niedawno informowaliśmy o odkryciu antybiotyków, które zabijają bakterie w niespotykany dotąd sposób. Pomysł wykorzystania komputerów do identyfikowania potencjalnych antybiotyków nie jest nowy, dotychczas jednak obliczenia takie były albo niezwykle czasochłonne, albo niedokładne. Nowe sieci neuronowe znacznie skracają czas obliczeń. Naukowcy z MIT dostosowali swój model obliczeniowy tak, by poszukiwał związków chemicznych mogących być zabójczymi dla E. coli. Swój model trenowali na około 2500 molekuł, w tym na około 1700 lekach zatwierdzonych przez FDA i około 800 naturalnych produktach o zróżnicowanych strukturach i działaniu. Po zakończonym treningu sieć neuronowa została przetestowana na należącej do Broad Institute bazie Drug Repository Hub, która zawiera około 6000 związków. Algorytm znalazł tam molekułę, która miała strukturę inną od wszystkich istniejących antybiotyków i o której sądził, że będzie wykazywała silne działanie antybakteryjne. Naukowcy najpierw poddali tę molekułę badaniom za pomocą innego modelu maszynowego i stwierdzili, że prawdopodobnie jest ona mało toksyczna dla ludzi. Halicyna, bo tak nazwano tę molekułę, była w przeszłości badana pod kątem jej przydatności w leczeniu cukrzycy. Teraz naukowcy przetestowali ją na dziesiątkach szczepów bakterii pobranych od ludzi. Okazało się, że zabija ona wiele antybiotykoopornych patogenów, w tym Clostridium difficile, Acinetobacter bumannii czy Mycobacterium turebculosis. Jedynym patogenem, który oparł się jej działaniu była Pseudomonas aeruginosa, powodująca trudne w leczeniu choroby płuc. Po pomyślnych testach in vitro rozpoczęto badania na zwierzętach. Halicynę użyto do leczenia myszy zarażonej wcześniej opornym na działanie wszystkich znanych antybiotyków szczepem A. baumannii. Halicyna w ciągu 24 godzin zwalczyła infekcję u zwierząt. Wstępne badania sugerują, że nowy antybiotyk działa poprzez zaburzanie u bakterii możliwości utrzymania gradientu elektrochemicznego w błonie komórkowej. Gradient ten jest niezbędny m.in. do wytwarzania molekuły ATP, niezbędnego nośnika energii. Bakterie pozbawione ATP giną. Naukowcy uważają, że bakteriom będzie bardzo trudno nabyć oporność na taki sposób działania antybiotyku. Podczas obecnych badań uczeni stwierdzili, że w ciągu 30 dni leczenia u E. coli w ogóle nie rozwinęła się oporność na halicynę. Tymczasem np. oporność na cyprofloksacynę zaczyna się u E. coli rozwijać w ciągu 1-3 dni od podania, a po 30 dniach bakteria jest 200-krotnie bardziej oporn działanie tego środka. Po zidentyfikowaniu halicyny naukowcy wykorzystali swój model do przeanalizowania ponad 100 milionów molekuł wybranych z bazy ZINC15, w której znajduje się około 1,5 miliarda molekuł. Analiza trwała trzy doby, a sztuczna inteligencja znalazła 23 molekuły, które są niepodobne do żadnego istniejącego antybiotyku i nie powinny być toksyczne dla ludzi. Podczas testów in vitro stwierdzono, że 8 z tych molekuł wykazuje właściwości antybakteryjne, z czego 2 są szczególnie silne. Uczeni planują dalsze badania tych molekuł oraz analizę pozostałych związków z ZINC15. Naukowcy planują dalsze udoskonalanie swojego modelu. Chcą np. by poszukiwał on związków zdolnych do zabicia konkretnego gatunku bakterii, a oszczędzenia bakterii korzystnych dla ludzi. « powrót do artykułu
  22. W ostatni piątek w Instytucie Fizyki PAN zakończyła się konferencja „INNO THINKING, Nauka dla Społeczeństwa 2.0”. Zaprezentowane na niej trzy projekty badawcze mogą zrewolucjonizować medycynę i ochronę środowiska. Sztuczna inteligencja w diagnostyce ścięgna Achillesa Urazy ścięgna Achillesa należą do najczęstszych urazów ortopedycznych. Samych tylko zerwań ścięgna notuje się około 200 rocznie na 1 mln ludności w USA i Europie. Rosnąca podaż wykonywanych badań stanowi ogromne wyzwanie dla zmniejszających się zastępów lekarzy radiologów. Już dziś zdarza się, że dostępność zaawansowanych aparatów diagnostycznych jest dość powszechna, ale czas oczekiwania na opisy wykonanych badań znacznie się wydłuża. Diagnostyka oparta na obrazowaniu medycznym otwiera nowe możliwości w zakresie leczenia oraz doboru optymalnych metod rehabilitacji pourazowej lub pooperacyjnej – przekonuje Bartosz Borucki, Kierownik laboratorium R&D na Uniwersytecie Warszawskim. Już dziś stworzyliśmy rozwiązanie do oceny ścięgna Achillesa, które wprowadza automatyzację, umożliwiającą tworzenie obiektywnych ocen radiologicznych w oparciu o wykorzystanie sztucznej inteligencji. To pierwsze tego typu rozwiązanie na świecie. Jesteśmy przekonani, że nasz projekt wyznaczy nowe kierunki rozwoju diagnostyki obrazowej w ortopedii i medycynie sportowej, i usprawni czas oraz skuteczność stawianych diagnoz – dodaje. Projekt objęty jest obecnie pracami przedwdrożeniowymi, które uwzględniają m.in. usługi badawcze związane z poszerzoną walidacją i analizą dot. certyfikacji i legislacji. Status ten jest doskonałym przykładem komercjalizacji badań naukowych, realizowanych przez polskie instytucje badawczo-naukowe i ma szansę już w nieodległej przyszłości na dobre wpisać się w proces diagnostyki urazów ścięgna Achillesa, a także innych urazów – jak na przykład więzadeł w kolanie. Osteoporoza na trzecim miejscu śmiertelnych chorób cywilizacyjnych Szczególnym wyzwaniem, wobec którego stanie ludzkość w nadchodzących dekadach, będzie znalezienie skutecznego arsenału rozwiązań do walki z mutującymi wirusami i superbakteriami. Dane Światowej Organizacji Zdrowia (WHO) są zatrważające. Obecnie już 2 mln ludzi umiera rocznie w wyniku zakażeń lekoopornymi bakteriami. Według prognoz w 2050 roku, liczba ta zwiększy się dziesięciokrotnie. Naukowcy zgodni są wobec faktu, że możliwości znanych nam antybiotyków wyczerpują się. Powstawanie nowych bakterii, na które medycyna nie zna lekarstwa, wymusza poszukiwanie alternatywnych rozwiązań. W Instytucie Fizyki PAN od wielu lat prowadzone są badania związane z wykorzystaniem tlenków metali o właściwościach antybakteryjnych. Dotychczasowe kierunki badań zostały rozwinięte, obejmując swoim zastosowaniem sektor medycyny implantacyjnej. Udało się bowiem dowieźć, że technologia pokrywania implantów warstwami tlenków metali wpływa na przyspieszenie regeneracji kości i tkanek. Wyniki naszych badań to nadzieja dla wszystkich pacjentów, którzy zmagają się z problemami osteointegracji. Nasze badania dają nadzieję na wyeliminowanie  poimplantacyjnych stanów zapalnych, infekcji bakteryjnych, metalozy czy reakcji alergicznych – mówi Aleksandra Seweryn z IF PAN. Jesteśmy przekonani, że zastosowanie naszej technologii bezpośrednio przełoży się na minimalizację ryzyk wynikających z leczenia implantacyjnego, zarówno u pacjentów cierpiących na osteoporozę, jak również przy zabiegach dentystycznych. Potrzebujemy coraz więcej energii Model życia ludzkości i rozwój technologiczny wymusza coraz większe zapotrzebowanie na energię elektryczną. Szacuje się, że do 2050 roku podwoimy jej wykorzystanie – z 15 TW do ok. 30 TW. Wykorzystywane dziś źródła energii, wciąż w dużej mierze uzależnione od paliw kopalnych, z pewnością okażą się niewystarczające w dłuższej perspektywie czasowej. Zbyt niska produkcja prądu będzie hamowała rozwój ludzkości. Do tego czasu zmagać się będziemy ze zjawiskiem globalnego ocieplenia i jego, już dziś zauważalnymi, katastrofalnymi efektami. Utrzymanie obecnego stanu rzeczy skutkować będzie do 2050 roku podniesieniem poziomu mórz i oceanów o 4 m, przesunięciem stepów i pustyń o 600 km na północ, wielkimi ruchami migracyjnymi ludzkości, kataklizmami, które wpłyną również na wyginięcie milionów gatunków zwierząt i roślin. Instytut Fizyki PAN realizuje zaawansowane badania związane z fotowoltaiką. Wierzymy bowiem, że energia słoneczna jest naturalnym, bezpiecznym i w zasadzie nieograniczonym źródłem energii. W ciągu 40 lat koszt paneli słonecznych zmniejszył się stukrotnie, znacząco zwiększając dostępność tego typu rozwiązań dla przeciętnych gospodarstw domowych, twierdzi Monika Ożga, naukowiec IF PAN. Opracowane przez Instytut rozwiązania można z powodzeniem stosować w produkcji diod oświetleniowych i energooszczędnych okien, które redukują przyjmowanie i oddawanie ciepła, a co za tym idzie, zmniejszają ilość energii potrzebnej do ogrzania lub ochłodzenia pomieszczeń. Diody mogą się ponadto przyczynić nie tylko do ograniczenie popytu na energię, ale i znaleźć swoje zastosowanie w technologii budowania farm wertykalnych, które coraz częściej są wskazywane jako metoda walki z deficytem żywności na świecie. Według wstępnych szacunków, zastosowanie nowej kategorii diod może przynieść Polsce oszczędności rzędu 1-1,5 mld złotych, a poprzez redukcję wykorzystania prądu, przyczynić do zmniejszenia emisji CO2 i innych trujących gazów, powstałych wskutek spalania węgla. « powrót do artykułu
  23. Marcin Sieniek, Scott Mayer McKinney, Shravya Shetty i inni badacze z Google Health opublikowali na łamach Nature artykuł, w którym dowodzą, że opracowany przez nich algorytm sztucznej inteligencji lepiej wykrywa raka piersi niż lekarze. Nowotwory piersi, pomimo szeroko zakrojonych programów badań, wciąż pozostają drugą głównych przyczyn zgonów na nowotwory wśród kobiet. Każdego roku na całym świecie wykonuje się dziesiątki milionów badań obrazowych, ale problemem wciąż pozostaje zbyt wysoki odsetek diagnoz fałszywych pozytywnych i fałszywych negatywnych. To z jednej strony naraża zdrowe osoby na stres i szkodliwe leczenie, a z drugiej – w przypadku osób chorych – opóźnia podjęcie leczenia, co często niesie ze sobą tragiczne skutki. Umiejętności lekarzy w zakresie interpretacji badań obrazowych znacznie się od siebie różnią i nawet w wiodących ośrodkach medycznych istnieje spore pole do poprawy. Z problemem tym mogłyby poradzić sobie algorytmy sztucznej inteligencji, które już wcześniej wielokrotnie wykazywały swoją przewagę nad lekarzami. Wspomniany algorytm wykorzystuje techniki głębokiego uczenia się. Najpierw go trenowano, a następnie poddano testom na nowym zestawie danych, których nie wykorzystywano podczas treningu. W testach wykorzystano dane dotyczące dwóch grup pacjentek. Jedna z nich to mieszkanki Wielkiej Brytanii, które w latach 2012–2015 poddały się badaniom mammograficznym w jednym z dwóch centrów medycznych. Kobiety co trzy lata przechodziły badania mammograficzne. Do badań wylosowano 10% z nich. Naukowcy mieli więc tutaj do dyspozycji dane o 25 856 pacjentkach. Było wśród nich 785, które poddano biopsji i 414 u których zdiagnozowano nowotwór w ciągu 39 miesięcy od pierwszego badania. Drugą grupę stanowiło 3097 Amerykanek będących w latach 2001–2018 pacjentkami jednego z akademickich centrów medycznych. U 1511 z nich wykonano biopsje, a u 686 zdiagnozowano nowotwór w ciągu 27 miesięcy od badania. Losy wszystkich kobiet były śledzone przez wiele lat, zatem wiadomo było, które z pań ostatecznie zachorowały. Zadaniem sztucznej inteligencji było postawienie diagnoz na podstawie mammografii. Następnie wyniki uzyskane przez SI porównano z diagnozami lekarskimi. Okazało się, że sztuczna inteligencja radziła sobie znacznie lepiej. Liczba fałszywych pozytywnych diagnoz postawionych przez SI była o 5,7% niższa dla pacjentek z USA i o 1,2% niższa u pacjentek z Wielkiej Brytanii. SI postawiła też mniej fałszywych negatywnych diagnoz. Dla USA było to 9,4% mniej, a dla Wielkiej Brytanii – 2,7% mniej. Wyniki uzyskane przez sztuczną inteligencję były o tyle bardziej imponujące, że algorytm diagnozował wyłącznie na podstawie badań mammograficznych, podczas gdy lekarze mieli też do dyspozycji historię pacjenta. Teraz autorzy algorytmu będą próbowali wykorzystać go podczas badań klinicznych. Ich celem jest spowodowanie, by algorytm sztucznej inteligencji został dopuszczony do użycia w medycynie. « powrót do artykułu
  24. Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić. Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo. DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino. Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały. Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner. DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować. CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu. Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”. Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota. « powrót do artykułu
  25. Południowokoreański mistrz Go Lee Sedol, który zdobył ogólnoświatowy rozgłos w 2016 roku po słynnym meczu ze sztuczną inteligencją, odszedł na emeryturę. Przypomnijmy, że w 2016 roku sztuczna inteligencja o nazwie AlphaGo pokonała Lee Sedola stosunkiem 4:1. Wcześniej program rozgromił innych graczy w Go, a Sedol był jedynym, któremu udało się z nim wygrać partię. Sedol, który wkrótce skończy 37 lat, oświadczył, że rezygnuje z profesjonalnej kariery w Go, gdyż w związku z olbrzymimi postępami sztucznej inteligencji, nie może być czołowym graczem, nawet gdyby był najlepszym z ludzi. "Nawet gdybył był numerem jeden, to będzie ktoś, kogoś nie będę w stanie pokonać", powiedział Sedol w wywiadzie dla agencji prasowej Yonhap. Lee Sedol pozostaje jedynym człowiekiem, któremu udało się pokonać AlphaGo. Mistrz uważa, że wygrał dzięki błędowi w oprogramowaniu AlphaGo. Podczas meczu, który odbył się 13 marca 2016 roku grający białymi Lee wykonał nietypowy 78. ruch. Wprawił on AlphaGo w zakłopotanie i system wykonał bardzo słaby ruch 79., który niespodziewanie dał Sedolowi przewagę. Ten jej nie zmarnował i po jakimś czasie AlphaGo poddał partię. Specjaliści uznają ruch 78. za „błyskotliwy, boski”, jednak sam Sedol twierdzi, że wygrał partię, gdyż AlphaGo nie potrafił prawidłowo zareagować na jego nietypowe zagrania. Mój ruch 78. nie był zagraniem, na który należało reagować bezpośrednio. Takie błędy zdarzają się w programie Fine Art (to chiński program komputerowy do gry w Go). Fine Art jest trudny do pokonania, nawet jeśli ma handicap 2 kamieni. Jeśli jednak przegrywa, to w bardzo dziwaczny sposób. To błąd w oprogramowaniu, wyjaśnia Sedol. Mistrz przyznaje, że był sfrustrowany po pierwszych trzech przegranych partiach. Rzadko czytam w internecie informacje na swój temat. Byłem jednak ciekaw, jak bardzo źle ludzie mówią o mnie po tym, jak przegrałem trzy pierwsze partie. Z zaskoczeniem zauważyłem, że niewiele osób mnie krytykowało. Szczerze mówiąc, już przed rozpoczęciem meczu czułem, że mogę przegrać. Ludzie z DeepMind Technologies byli od samego początku bardzo pewni swego, przyznaje. Co ciekawe, jeszcze w grudniu Lee planuje zmierzyć się z kolejnym systemem sztucznej inteligencji grającym w Go. Program HanDol, opracowany w 2018 roku przez firmę NHN Entertainment Corp. już wygrał z 5 czołowymi graczami z Korei Południowej. Nadchodzący mecz Lee Sedol rozpocznie z przewagą dwóch kamieni, które zostaną ustawione na planszy przed rozpoczęciem gry. Kolejne handikapy będą ustalane w zależności od wyniku pierwszej partii. Sądzę, że nawet z przewagą dwóch kamieni przegram z HanDolem. Ostatnio nie czytuję informacji ze świata Go. Chcę w spokoju przygotować się go rozgrywki i zrobię co w mojej mocy, stwierdza Sedol. « powrót do artykułu
×
×
  • Create New...