Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'sztuczna inteligencja' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 33 wyników

  1. Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów. Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h. Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu. Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód. Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper. Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego. Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował. Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych. Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów. « powrót do artykułu
  2. W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób. Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych. W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny. Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób. Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama. Szczegóły badań opublikowano na łamach The Lancet. « powrót do artykułu
  3. Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine. Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego. W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie. Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników. Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang. Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej. « powrót do artykułu
  4. Na University of Leeds powstał system sztucznej inteligencji (SI), który analizuje skany oczu wykonywane podczas rutynowych wizyt u okulisty czy optyka i wskazuje osoby narażone na... wysokie ryzyko ataku serca. System analizuje zmiany w miniaturowych naczyniach krwionośnych siatkówki, o kórych wiemy, że wskazują na szerszy problem z układem krążenia. Specjaliści z Leeds wykorzystali techniki głębokiego uczenia się, by przeszkolić SI w automatycznym odczytywaniu skanów oraz wyławianiu osób, które w ciągu najbliższego roku mogą doświadczyć ataku serca. System, który został opisany na łamach Nature Machine Intelligence, wyróżnia się dokładnością rzędu 70–80 procent i zdaniem jego twórców może być wykorzystany przy diagnostyce chorób układu krążenia. Choroby układu krążenia, w tym ataki serca, to główne przyczyny zgonów na całym świecie i druga przyczyna zgonów w Wielkiej Brytanii. To choroby chroniczne, obniżające jakość życia. Ta technika może potencjalnie zrewolucjonizować diagnostykę. Skanowanie siatkówki to tani i rutynowy proces stosowany w czasie wielu badań oczu, mówi profesor Alex Frangi, który nadzorował rozwój nowego systemu. Osoby badane przez okulistę czy optometrystę mogą niejako przy okazji dowiedzieć się, czy nie rozwija się u nich choroba układu krążenia. Dzięki temu leczenie można będzie zacząć wcześniej, zanim pojawią się inne objawy. System sztucznej inteligencji trenowano na danych okulistycznych i kardiologicznych ponad 5000 osób. Uczył się odróżniania stanów patologicznych od prawidłowych. Gdy już się tego nauczył, na podstawie samych skanów siatkówki był w stanie określić wielkość oraz wydajność pracy lewej komory serca. Powiększona komora jest powiązana z większym ryzykiem chorób serca. Następnie SI, łącząc dane o stanie lewej komory serca z informacjami o wieku i płci pacjenta, może przewidzieć ryzyko ataku serca w ciągu najbliższych 12 miesięcy. Obecnie rozmiar i funkcjonowanie lewej komory serca jesteśmy w stanie określić za pomocą echokardiografii czy rezonansu magnetycznego. To specjalistyczne i kosztowne badania, które są znacznie gorzej dostępne niż badania prowadzone w gabinetach okulistycznych czy optycznych. Nowy system nie tylko obniży koszty i poprawi dostępność wczesnej diagnostyki kardiologicznej, ale może odegrać olbrzymią rolę w krajach o słabiej rozwiniętym systemie opieki zdrowotnej, gdzie specjalistyczne badania są bardzo trudno dostępne. Ten system sztucznej inteligencji to wspaniałe narzędzie do ujawniania wzorców istniejących w naturze. I właśnie to robi, łączy wzorce zmian w siatkówce ze zmianami w sercu, cieszy się profesor Sven Plein, jeden z autorów badań. « powrót do artykułu
  5. Zróżnicowanie komórek mózgowych może prowadzić do szybszego uczenia się, odkryli naukowcy z Imperial College London (ICL). Spostrzeżenie to może zwiększyć wydajność systemów sztucznej inteligencji. Uczeni zauważyli, że gdy w symulowanych sieciach neuronowych indywidualnie dobierali właściwości elektryczne poszczególnych komórek, sieci takie uczyły się szybciej, niż sieci złożone z komórek o identycznych parametrach. Okazało się również, że gdy mamy zróżnicowane komórki, sieć neuronowa potrzebuje ich mniej, a całość zużywa mniej energii niż sieć o identycznych komórkach. Zdaniem autorów badań, może to wyjaśniać, dlaczego mózgi tak efektywnie potrafią się uczyć. Mózg musi być wydajny energetycznie, a jednocześnie zdolnym do rozwiązywania złożonych zadań. Nasza praca sugeruje, że zróżnicowanie neuronów – zarówno w mózgach jak i w systemach sztucznej inteligencji – pozwala spełnić oba warunki, mówi główny autor badań, doktorant Nicolas Perez z Wydziału Inżynierii Elektrycznej i elektronicznej. Odkrycie powinno też zachęcić twórców sieci neuronowych do budowania ich tak, by były bardziej podobne do mózgu. Nasze mózgi składają się z neuronów. Pozornie są one identyczne, ale przy bliższym przyjrzeniu się, widoczne są liczne różnice. Z kolei każda komórka sztucznych sieci neuronowych jest identyczna, różnią się one tylko połączeniami. Pomimo dużych postępów w rozwoju systemów sztucznej inteligencji, bardzo daleko im do mózgów. Dlatego też uczeni z ICL zastanawiali się, czy przyczyną nie jest brak zróżnicowania komórek sztucznych sieci neuronowych. Rozpoczęli więc badania, w ramach których emulowali różne właściwości komórek składających się na siec sztucznej inteligencji. Zauważyli, że zróżnicowanie komórek spowodowało zwiększenie szybkości uczenia się i spadek zapotrzebowania na energię. Ewolucja dała nam niesamowicie funkcjonujący mózg. Dopiero zaczynamy rozumieć, jak on działa, stwierdził doktor Dan Goodman. W ramach badań uczeni manipulowali „stałą czasową”, czyli tym, jak szybko każda komórka sztucznej sieci neuronowej decyduje, co ma zrobić w zależności od tego, co robią połączone z nią komórki. Niektóre z tak manipulowanych komórek podejmowały decyzję bardzo szybko, natychmiast po tym, jak działania podjęły komórki z nimi połączone. Inne zaś odczekały chwilę i podejmowały decyzję na podstawie tego, co przez pewien czas robiły komórki z nimi połączone. Po zróżnicowaniu „stałej czasowej” swoich komórek, naukowcy przeprowadzili zestaw testów dla uczenia maszynowego się, takich jak rozpoznawanie gestów, pogrupowanie ubrań czy ręcznie napisanych cyfr oraz zidentyfikowanie wypowiadanych komend oraz cyfr. Eksperymenty pokazały, że połączenie komórek o różnej „stałej czasowej” powoduje, że cała sieć lepiej rozwiązuje złożone zadania. Okazało się przy okazji, że najlepiej sprawuje się sieć o takiej konfiguracji, której zróżnicowanie jest najbliższe zróżnicowaniu komórek w mózgu. To z kolei sugeruje, że nasz mózg ewoluował w kierunku osiągnięcia najlepszego poziomu zróżnicowania dla optymalnego uczenia się. « powrót do artykułu
  6. Rynkowy sukces lub porażka układu scalonego zależą w dużej mierze od etapu jego projektowania. Wtedy właśnie zostają podjęte decyzje odnośnie umiejscowienia na krzemie modułów pamięci i elementów logicznych. Dotychczas zadania tego nie udawało się zautomatyzować, a etap projektowania zajmuje inżynierom całe tygodnie lub miesiące. Inżynierowie Google'a poinformowali właśnie, że stworzony przez nich system sztucznej inteligencji poradził sobie z częściowym zaprojektowaniem chipa w ciągu godzin. Współczesne układy scalone składają się z miliardów tranzystorów, dziesiątek milionów bramek logicznych, tysiące bloków logicznych i łączących je kilometrów ścieżek. Lokalizacja poszczególnych układów i bloków logicznych odgrywa kluczową rolę dla przyszłej wydajności chipa. Specjaliści od dziesięcioleci pracują nad rozwiązaniami pozwalającymi zautomatyzować proces projektowania. Jako że bloki logiczne to duże elementy, tysiące i miliony razy większe od bramek logicznych, bardzo trudno jest jednocześnie umieszczać bloki i bramki. Dlatego współcześni projektanci układów najpierw umieszczają na krzemie bloki, a wolne miejsca zostają zapełnione pozostałymi bramkami logicznymi. Już samo rozmieszczenie bloków jest niezwykle wymagające. Eksperci Google'a obliczyli, że liczba możliwych kombinacji rozmieszczenia makrobloków, które brali pod uwagę w swoich badaniach, wynosi 102500. Planując rozmieszczenie bloków, inżynierowie muszą pamiętać o pozostawieniu miejsca na inne elementy i ich łączenie. Azalia Mirhoseini i jej zespół poinformowali na łamach Nature o stworzeniu metody automatycznego wstępnego projektowania chipa w czasie krótszym niż 6 godzin, które swoimi wynikami dorównuje lub nawet przewyższa to, co potrafią doświadczeni inżynierowie. naukowcy z Google'a wykorzystali techniki maszynowego uczenia się do wytrenowania swojego programu tak, by rozmieszczał na planie makrobloki. Po umieszczeniu każdego z nich program dokonuje oceny całego chipa, a następnie wykorzystuje to, czego się nauczył, do zaplanowania jak najlepszego kolejnego kroku. Co interesujące, projekty tworzone przez google'owską SI znacząco różnią się od tego, jak projektuje człowiek. Sztuczna inteligencja rozpoczyna od największych makrobloków. Ponadto w jakiś sposób unika ciągłego poprawiania tego, co już zostało zrobione. Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych. SI tego nie robi. Mimo to udało jej się zaprojektować układy, w których sygnał pomiędzy poszczególnymi elementami biegnie równie sprawnie, co między układami zaprojektowanymi przez ludzi. Google już stosuje metody opracowane prze Mirhoseini do projektowania układów dla przyszłej generacji systemów sztucznej inteligencji. Tymczasem producenci układów scalonych próbują odtworzyć osiągnięcie Google'a i wdrożyć podobne rozwiązania do własnego procesu projektowania. « powrót do artykułu
  7. Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii. Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji. Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie. Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne. Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now. Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii. Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów. Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser. « powrót do artykułu
  8. Wg raportu Światowej Organizacji Zdrowia (WHO) spontaniczny przedwczesny poród dotyczy 15 milionów noworodków rocznie. Aż milion z nich umiera. Wiele przez całe życie mierzy się z niepełnosprawnością. Wykorzystywana powszechnie manualna analiza obrazów ultrasonograficznych umożliwia wykrycie ewentualnych problemów, ale nie jest to metoda doskonała. Problem ten dostrzegają lekarze. W 2017 roku Nicole Sochacki-Wójcicka (w trakcie specjalizacji z ginekologii) oraz Jakub Wójcicki zgłosili się do dr. Tomasza Trzcińskiego z Wydziału Elektroniki i Technik Informacyjnych PW z pytaniem, czy jest możliwość zrealizowania projektu predykcji spontanicznego przedwczesnego porodu z wykorzystaniem sieci neuronowych. Wtedy powstał zespół badawczy i zaczęły się prace. Pierwsze efekty już znamy. Nasze rozwiązanie może wspomóc diagnostykę komputerową i pozwolić z większą dokładnością przewidywać spontaniczne przedwczesne porody – wyjaśnia Szymon Płotka, absolwent Politechniki Warszawskiej i jeden z członków zespołu pracującego nad projektem. Wytrenować sieć neuronową Przed rozpoczęciem projektu, współpracujący z nami lekarze przygotowali zestaw danych uczących, walidacyjnych oraz adnotacji w formie obrysu kształtu szyjek macicy na obrazach ultrasonograficznych oraz numerycznych (0 i 1), odpowiadającymi kolejno: poród w terminie, poród przedwczesny – wyjaśnia Szymon Płotka. Po wstępnym oczyszczeniu takie dane są wykorzystywane jako dane „uczące” sieć neuronową – w tym przypadku konwolucyjną (splotową). Analizuje ona każde zdjęcie piksel po pikselu, wyodrębniając z nich niezbędne cechy, które posłużą do zadania segmentacji interesującego nas fragmentu obrazu (w tym przypadku szyjki macicy) oraz klasyfikacji (czy mamy do czynienia z porodem przedwczesnym, czy nie) – tłumaczy dalej Szymon Płotka.W trakcie treningu sieć neuronowa testuje swoje predykcje na zbiorze walidacyjnym. Po zakończeniu trenowania sieci neuronowej, jest ona sprawdzana na danych testowych, które nie zostały wykorzystane w ramach treningu. W ten sposób weryfikuje się poprawność wytrenowanego modelu. W ramach projektu powstały dwie publikacje naukowe. Efektem prac opisanych w „Estimation of preterm birth markers with U-Net segmentation network” (publikacja dostępna tutaj i tutaj) jest m.in. redukcja błędu predykcji spontanicznych przedwczesnych porodów z 30% (manualnie przez lekarzy) do 18% przez sieć neuronową. W „Spontaneous preterm birth prediction using convolutional neural networks” (szczegóły tutaj i tutaj) naukowcy zaprezentowali poprawę jakości segmentacji w stosunku do pierwszej publikacji i uzyskali lepsze wyniki klasyfikacji. Zgodnie z naszą najlepszą wiedzą, są to jedyne istniejące prace podejmujące się zadania predykcji spontanicznego przedwczesnego porodu w oparciu o transwaginalne obrazy ultrasonograficzne – mówi Szymon Płotka. Naukowcy pracują obecnie nad serwisem w formie aplikacji internetowej. Chcą tam udostępnić przygotowane modele sieci neuronowej. Ma to pomóc ginekologom analizować obrazy ultrasonograficzne i tym samym wesprzeć diagnostykę spontanicznego przedwczesnego porodu. A to może uratować życie i zdrowie milionów noworodków. « powrót do artykułu
  9. W medycynie nuklearnej sztuczna inteligencja wkroczyła już na III i IV poziom w pięciostopniowej skali. Oznacza ona oszczędność czasu, szansę uniknięcia błędów ludzkich i skuteczniejsze terapie dla pacjentów – ocenia prof. Janusz Braziewicz z Polskiego Towarzystwa Medycyny Nuklearnej. Wkraczająca do nowoczesnej medycyny sztuczna inteligencja budzi skrajne emocje: w środowisku medycznym jak i w społeczeństwie jedni wiążą z nią duże nadzieje, inni mają obawy i wątpliwości. Tak jest np. z medycyną nuklearną, w której wykorzystywane są nowoczesne technologie. Prof. Janusz Braziewicz, kierownik Zakładu Medycyny Nuklearnej z Ośrodkiem PET w Świętokrzyskim Centrum Onkologii twierdzi, że zaawansowanie automatyzacji i sztucznej inteligencji w medycynie nuklearnej jest już na tyle duże, ze wkroczyło na III i IV poziom w pięciostopniowej skali. Pierwszy poziom oznacza jedynie działania manualne, drugi – maszynowo-manualne, a trzeci – zautomatyzowane działania maszynowo-manualne. Na czwartym poziomie pojawia się automatyzacja, ale „z ludzką ręką”, piąty oznacza pełną automatyzację. W diagnostyce obrazowej wygląda to w ten sposób, że na poziomie III (warunkowej automatyzacji) skaner czy system opisowy pod wpływem operatora dostosowuje się do narzucanych mu warunków i wykonuje zlecone zadanie. Obecnie obserwujemy duże przyspieszenie technologiczne i wejście na poziom IV (wysokiej automatyzacji), kiedy to system automatycznie przetwarza samodzielnie pozyskane dane i dostarcza specjaliście wstępnie przeanalizowane informacje. Ma to miejsce na przykład wówczas, kiedy system zeskanuje ułożonego na stole skanera PET/TK pacjenta i na podstawie swego rodzaju skanu topogramowego, w oparciu o analizę danych anatomicznych chorego zaproponuje wykonanie skanu PET i tomografu komputerowego z uwzględnieniem wskazania klinicznego i sylwetki pacjenta – wyjaśnia w informacji przekazanej PAP prof. Braziewicz, członek Zarządu Polskiego Towarzystwa Medycyny Nuklearnej. Odbywa się to z użyciem automatycznie dostosowanych parametrów akwizycji, z minimum wymaganej dawki promieniowania ze strony tomografu komputerowego. Algorytm po stronie PET ustala: szybkość przesuwu łóżka podczas płynnego skanowania różnych części ciała pacjenta, zastosowanie różnych matryc rekonstrukcyjnych, zastosowanie bramkowania oddechowego dla odpowiedniego obszaru klatki piersiowej i tułowia. Według prof. Braziewicza bezzasadne są zatem obawy, że komputery zastąpią lekarzy. W przypadku diagnostyki obrazowej stają się one wręcz niezbędne. Powodem jest choćby lawinowy wzrost diagnostycznych badań obrazowych, w tym również z zakresu medycyny nuklearnej. Jedynie w latach 2000-2010 liczba badań tomografii komputerowej i rezonansu magnetycznego wzrosła dziesięciokrotnie. Z kolei w medycynie nuklearnej taki gwałtowny wzrost liczby badań SPECT i PET przypada na okres po 2010 r. W ślad za tym nie następuje niestety proporcjonalny wzrost liczby dostępnych lekarzy specjalistów, którzy mogliby je szybko i rzetelnie przeprowadzić. Brakuje także wyszkolonych techników, korzystających z zaawansowanych metod akwizycji z zastosowaniem narzędzi, jakie oferuje dany skaner. Efektem jest przeciążenie ilością pracy poszczególnych grup specjalistów i często coraz dłuższy czas oczekiwania na opisanie badań. Co istotne, presja obniża jakość pracy. Jak pokazują badania, jeśli skróci się o 50 proc. czas na interpretację badania radiologicznego, to stosunek błędów interpretacyjnych wzrośnie o niemal 17 proc. – zaznacza prof. Janusz Braziewicz. Sztuczna inteligencja w coraz bardziej skomplikowanej i wymagającej diagnostyce obrazowej może zatem usprawnić i wspomóc pracę lekarza. Wdrożenia algorytmów opartych na Artificial Intelligence (AI) przynoszą oszczędność czasu i szansę na pełną standaryzację procedur, ale także na uniknięcie błędów ludzkich i skuteczniejsze, spersonalizowane terapie dla pacjentów – twierdzi specjalista. Obecnie medycy nuklearni rozwijają nowy trend teranostyki, który wydaje się być przyszłością personalizowanej medycyny poprzez ścisłe połączenie diagnostyki i terapii w celu dobrania do potrzeb konkretnego pacjenta celowanego leczenia. W obszarze sztucznej inteligencji medycy nuklearni coraz częściej wspierają proces terapii, pomagając w ocenie trafności i zasadności zaleconego leczenia już w początkowej jego fazie. Nie bez znaczenia jest w tym kontekście wykorzystywanie hybrydowych badań PET/CT na przykład w planowaniu radioterapii – tłumaczy prof. Janusz Braziewicz. Sztuczna inteligencja określa proces, w którym maszyna, czyli komputer, uczy się i naśladuje funkcje poznawcze specyficzne dla człowieka, aby wykonywać zadania, jakie zwyczajowo wykonywane są przez ludzki umysł: rozpoznawanie obrazów, identyfikacja różnic czy stawianie logicznych wniosków i prognozowanie. W procesie deep learning komputer już nie organizuje danych i nie wykonuje wcześniej zdefiniowanych ciągów równań, ale zbiera podstawowe parametry dotyczące tych danych i jest tak zaprogramowany, że przygotowuje się do samodzielnego uczenia się przez rozpoznawanie wzorców przy użyciu wielu kolejnych warstw przetwarzania. Trzeba mieć zatem świadomość, że algorytmy AI będą tak dobre, jak dane, na których były trenowane. Wyzwaniem będzie zatem zgromadzenie odpowiednio opracowanych dużych zestawów danych oraz odpowiednio wydajnych centrów obliczeniowych – uważa przedstawiciel Polskiego Towarzystwa Medycyny Nuklearnej. Jego zdaniem szanse zastosowania sztucznej inteligencji w medycynie to przede wszystkim digitalizacja wszystkich danych dotyczących konkretnego pacjenta, z uwzględnieniem takich aspektów, jak miejsce zamieszkania, historia chorób w rodzinie, dotychczasowe hospitalizacje, podejmowane wcześniej terapie lekowe i obecnie przyjmowane leki, styl życia, rodzaj wykonywanej pracy, kondycja psychofizyczna. Ta ilość danych może być przetworzona przez wydajne komputery. Jeśli maszyny będą miały zaimplementowane algorytmy deep learning, jest szansa, że wesprą specjalistów w szybszej i trafniejszej diagnostyce oraz lepszej opiece farmakologicznej. Korzyści z wdrożeń sztucznej inteligencji może odnieść zatem cały system opieki zdrowotnej, w tym: świadczeniodawca, lekarz, ale przede wszystkim – sam pacjent – uważa specjalista. Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać. Tym bardziej, że w nowoczesnych rozwiązaniach nie mówimy już o wielkości danych generowanych przy badaniach i dalej poddawanych processingowi w gigabajtach, terabajtach czy nawet petabajtach. Bardzo szybko nadchodzi era eksabajtów danych – dodaje prof. Janusz Braziewicz. « powrót do artykułu
  10. Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach. Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów. Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat. W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF. JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft. Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy. « powrót do artykułu
  11. Jeden z najlepszych amerykańskich pilotów myśliwców przegrał 5:0 w serii symulowanych walk powietrznych ze sztuczną inteligencją. O pilocie, który zmierzył się z SI wiemy tylko, że jego znak wywoławczy to „Banger” i ukończył on kurs instruktorski obsługi broni pokładowej, do którego dopuszczani są wyłącznie najlepsi piloci. Jego pogromca, SI autorstwa niewielkiej firmy Heron Systems, pokonał wcześniej kilka innych systemów sztucznej inteligencji. Symulowane walki odbywały sie w ramach prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Systemów Obronnych) programu AlphaDogfight Trials. Program składał się z czterech etapów. W pierwszym z nich osiem algorytmów SI kontrolujących myśliwiec F-16 zmierzyło się z pięcioma algorytmami stworzonymi przez naukowców z Applied Physics Laboratory na Uniwersytecie Johnsa Hopkinsa. W drugim etapie osiem wspomnianych algorytmów – autorstwa Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI i SoarTech – starło się każdy z każdym. Na tej podstawie wyłoniono cztery najlepsze algorytmy, które zmierzyły się o prawo do walki z ludzkim przeciwnikiem. W półfinale algorytm Heron Systems pokonał sztuczną inteligencję twórcy F-16, firmy Lockheed Martin. Tym samym SI Heron System zakwalifikował się do walki z jednym z czołowych pilotów US Air Force. Rozegrano 5 symulowanych pojedynków. Łącznie trwały one nie dłużej niż 2 minuty. Człowiek przegrał wszystkie. W czasie pojedynków pilot miał hełm, który dawał mu taki sam widok, jak podczas prawdziwej walki. Symulowano samoloty poruszające się z prędkością ponad 800 km/h i przeciążenia dochodzące do 9G. Każdy z wirtualnych samolotów był uzbrojony w laser, który symulował broń pokładową. Chociaż SI odniosła miażdżące zwycięstwo, eksperci mówią, że niekoniecznie stałoby się tak w rzeczywistej walce. Warunki eksperymentu były bowiem ściśle kontrolowane. Pułkownik Daniel Javorsek, który nadzoruje w DARPA projekt rozwojów SI pilotujących samoloty stwierdził: My piloci, nigdy nie wierzymy do końca samym symulacjom i modelom komputerowym. Jednym z celów prowadzenia tego typu badań jest rozwój systemów sztucznej inteligencji, które będą wspomagały pilotów w walce. Program komputerowy potrafi bowiem znacznie szybciej niż człowiek zareagować na manewry przeciwnika. Systemy SI mogą też zwiększyć możliwości wojskowych dronów, które wciąż wymagają zdalnego pilotażu. Jak zauważyli specjaliści, jednym z elementów, który zapewnił SI Heron Systems zwycięstwo, była umiejętność lepszego celowania podczas szybko odbywającego się pojedynku. Jednak nie tylko. Jak przyznał „Banger” system był trudnym przeciwnikiem. Standardowe manewry, jakie wykorzystują piloci myśliwców, nie działały. Pilot zauważył, że SI potrafiła znacznie łatwiej usiąść mu na ogonie, niż jest to w stanie wykonać ludzki przeciwnik. Przed czterema laty sensacją było doniesienie, że algorytm sztucznej inteligencji pokonał doświadczonego pilota i wykładowcę taktyki walki myśliwców, pułkownika Lee. « powrót do artykułu
  12. Fizycy z Chin zaprezentowali wersję gry go opierającą się na mechanice kwantowej. W swojej symulacji naukowcy wykorzystali splątane fotony do ustawiania kamieni na planszy, zwiększając w ten sposób trudność gry. Ich technologia może posłużyć jako pole testowe dla sztucznej inteligencji. Wielkim wydarzeniem końca XX wieku było pokonanie arcymistrza szachowego Garry'ego Kasparowa przez superkomputer Deep Blue. Jednak go stanowiło znacznie trudniejsze wyzwanie. Ta gra o bardzo prostych zasadach posiada bowiem więcej kombinacji niż szachy. Jednak 20 lat później, w 2016 roku dowiedzieliśmy się, że SI pokonała mistrza go. Jednak szachy i go to gry o tyle łatwe dla komputerów, że na bieżąco znany jest stan rozgrywki. Nie ma tutaj ukrytych elementów. Wiemy co znajduje się na planszy i co znajduje się poza nią. Zupełnie inne wyzwanie stanowią takie gry jak np. poker czy mahjong, gdzie dochodzi element losowy, nieznajomość aktualnego stanu rozgrywki – nie wiemy bowiem, co przeciwnik ma w ręku – czy też w końcu blef. Także i tutaj maszyny radzą sobie lepiej. Przed rokiem informowaliśmy, że sztuczna inteligencja wygrała w wieloosobowym pokerze. Xian-Min Jin z Szanghajskiego Uniwersytetu Jiao Tong i jego koledzy postanowili dodać element niepewności do go. Wprowadzili więc doń mechanikę kwantową. „Kwantowe go” zostało po raz pierwszy zaproponowane w 2016 roku przez fizyka Andre Ranchina do celów edukacyjnych. Chińczycy wykorzystali tę propozycję do stworzenia systemu, który ma podnosić poprzeczkę sztucznej inteligencji wyspecjalizowanej w grach. W standardowej wersji go mamy planszę z 19 liniami poziomymi i 19 pionowymi. Na przecięciach linii gracze na przemian układają swoje kamienie, starając się ograniczyć nimi jak największy obszar planszy. W kwantowej wersji go ustawiana jest natomiast para splątanych kamieni. Oba kamienie pozostają na planszy dopóty, dopóki nie zetkną się z kamieniem z sąsiadującego pola. Wówczas dochodzi do „pomiaru”, superpozycja kamieni zostaje zniszczona i na planszy pozostaje tylko jeden kamień, a nie splątana para. W go gracz może zbić kamienie przeciwnika wówczas, gdy ustawi swoje kamienie na wszystkich sąsiadujących z przeciwnikiem polach. Jednak by do takiej sytuacji doszło w „kwantowym go” wszystkie otoczone kamienie przeciwnika muszą być kamieniami klasycznymi, żaden z nich nie może pozostawać w superpozycji z innym kamieniem na planszy. Jednak gracze nie wiedzą, który z kamieni w jakim stanie się znajduje, dopóki nie dokonają pomiaru. Jin i jego koledzy wyjaśniają, że ich symulacja pozwala na dostrojenie procesu pomiaru poprzez manipulacje splątaniem. Jeśli kamienie w danej parze są splątane w sposób maksymalny, to wynik pomiaru będzie całkowicie przypadkowy, nie potrafimy przewidzieć, który z kamieni po pomiarze pozostanie na planszy. Jeśli jednak splątanie będzie mniej doskonałe, jeden z kamieni będzie miał większą szansę na pozostanie na planszy. To prawdopodobieństwo będzie znane tylko temu graczowi, do którego kamień należy. Gra traci w tym momencie swoją całkowitą nieprzewidywalność, jednak pozostaje w niej duży element niedoskonałej informacji. Chińczycy przekuli teorię na praktykę tworząc pary splątanych fotonów, które były wysyłane do rozdzielacza wiązki, a wynik takiego działania był mierzony za pomocą czterech wykrywaczy pojedynczych fotonów. Jeden zestaw wyników reprezentował „0” a inny „1”. W ten sposób oceniano prawdopodobieństwo zniknięcia jednej z części pary wirtualnych kamieni ustawianych na przypadkowo wybranych przecięciach linii przez internetowe boty. Poprzez ciągłe generowanie splątanych fotonów i przechowywaniu wyników pomiarów naukowcy zebrali w ciągu godziny około 100 milionów możliwych wyników zniknięcia stanu splątanego. Taka ilość danych pozwala na przeprowadzenie dowolnej rozgrywki w go. Uczeni, analizując rozkład zer i jedynek w czasie potwierdzili, że nie występuje znacząca korelacja pomiędzy następującymi po sobie danymi. Tym samym, dane są rzeczywiście rozłożone losowo. Jin mówi, że rzeczywista złożoność i poziom trudności kwantowego go pozostają kwestią otwartą. Jednak, zwiększając rozmiary wirtualnej planszy i włączając do tego splątanie, można – jego zdaniem – zwiększyć trudność samej gry do takiego stopnia, by dorównywała ona takim grom jak mahjong, gdzie większość informacji jest ukrytych. Dzięki temu kwantowe go może stać się obiecującą platformą do testowania nowych algorytmów sztucznej inteligencji. « powrót do artykułu
  13. Autorzy badań opublikowanych na łamach PNAS ostrzegają, że nie można ufać technikom obrazowania medycznego rekonstruowanym za pomocą sztucznej inteligencji. Międzynarodowy zespół naukowy pracujący pod kierunkiem Andersa Hansena z Uniwersytetu w Cambridge stwierdził, że narzędzia do głębokiego uczenia się, które rekonstruują obrazy wysokiej jakości na podstawie szybkich skanów, tworzą liczne przekłamania i artefakty, które mogą wpływać na diagnozę. Jak niejednokrotnie informowaliśmy, systemy sztucznej inteligencji są już na tyle zaawansowane, że równie dobrze jak radiolodzy, a często i lepiej, potrafią opisywać zdjęcia RTG, obrazy tomografii komputerowej czy rezonansu magnetycznego. W związku z tym pojawił się pomysł, by SI zaprząc do rekonstrukcji obrazów. Pomysł polega na tym, by wykonywać obrazowanie o niższej rozdzielczości, czyli pobierać dane z mniejszej liczby punktów, a następnie, by wytrenowane systemy algorytmy sztucznej inteligencji rekonstruowały na tej postawie obraz o wysokiej rozdzielczości. W ten sposób można by zaoszczędzić czas i pieniądze potrzebny na wykonanie badania. Wykorzystywane tutaj algorytmy były trenowana na dużej bazie danych obrazów wysokiej jakości, co stanowi znaczne odejście od klasycznych technik rekonstrukcji bazujących na teoriach matematycznych. Okazuje się jednak, że takie systemy SI mają poważne problemy. Mogą one bowiem przegapić niewielkie zmiany strukturalne, takie jak małe guzy nowotworowe, podczas gdy niewielkie, niemal niewidoczne zakłócenia spowodowane np. poruszeniem się pacjenta, mogą zostać odtworzone jako poważne artefakty na obrazie wyjściowym. Zespół w skład którego weszli Vegard Antun z Uniwersytetu w Oslo, Francesco Renna z Uniwersytetu w Porto, Clarice Poon z Uniwersytetu w Bath, Ben Adcock z Simon Fraser University oraz wspomniany już Anders Hansen, przetestował sześć sieci neuronowych, wykorzystywanych do rekonstrukcji obrazów tomografii i rezonansu. Sieciom zaprezentowano dane odpowiadają trzem potencjalnym problemom, które mogą się pojawić: niewielkim zakłóceniom, niewielkim zmianom strukturalnym oraz zmianom w próbkowaniu w porównaniu z danymi, na których system był trenowany. Wykazaliśmy, że niewielkie zakłócenia, których nie widać gołym okiem, mogą nagle stać się poważnym artefaktem, który pojawia się na obrazie, albo coś zostaje przez nie usunięte. Dostajemy więc fałszywie pozytywne i fałszywie negatywne dane, wyjaśnia Hansen. Uczeni, chcą sprawdzić zdolność systemu do wykrycia niewielkich zmian, dodali do skanów niewielkie litery i symbole z kart do gry. Tylko jedna z sieci była w stanie je prawidłowo zrekonstruować. Pozostałe sieci albo pokazały w tym miejscu niewyraźny obraz, albo usunęły te dodatki. Okazało się też, że tylko jedna sieć neuronowa radziła sobie ze zwiększaniem tempa skanowania i tworzyła lepszej jakości obrazy niż wynikałoby to z otrzymanych przez nią danych wejściowych. Druga z sieci nie była w stanie poprawić jakości obrazów i pokazywała skany niskiej jakości, a trzy inne rekonstruowały obrazy w gorszej jakości niż otrzymały do obróbki. Ostatni z systemów nie pozwalał na zwiększenie szybkości skanowania. Hansen stwierdza też, że badacze muszą zacząć testować stabilność takich systemów. Wówczas przekonają się, że wiele takich systemów jest niestabilnych. Jednak największym problemem jest fakt, że nie potrafimy w sposób matematyczny zrozumieć, jak działają tego typu systemy. Są one dla nas tajemnicą. Jeśli ich porządnie nie przetestujemy, możemy otrzymać katastrofalnie złe wyniki. Na szczęście takie systemy nie są jeszcze wykorzystywane w praktyce klinicznej. Zespół Hansena stworzył odpowiednie testy do ich sprawdzenia. Uczeni mówią, że nie chcą, by takie systemy zostały dopuszczone do użycia jeśli nie przejdą szczegółowych testów. « powrót do artykułu
  14. Microsoft zwolni kilkudziesięciu pracowników zatrudnionych na umowach-zleceniach. Stracą oni pracę na rzecz... sztucznej inteligencji, która będzie zajmowała się w portalu MSN publikowaniem najświeższych wiadomości. Umowy zostaną rozwiązane 30 czerwca. Pracownicy ci, 50 z USA i 27 z Wielkiej Brytanii, są obecnie odpowiedzialni za wybieranie, edytowanie i przygotowywanie newsow do publikacji. Przedstawiciele Microsoftu oświadczyli, że firma na bieżąco dokonuje zmian w sposobie prowadzeni biznesu. Dodali, że likwidacja stanowisk nie ma związku z pandemią. Nie od dzisiaj mówi się, że sztuczna inteligencja mogłaby wybierać gotowe informacje, a może nawet samodzielnie pisać własne krótkie teksty. Tutaj, prawdopodobnie po raz pierwszy w historii, mamy przykład dużego portalu internetowego, w którym ludzie tracą pracę przy redakcji tekstu i zostają zastąpieni automatem. Microsoft, kończąc współpracę z kilkudziesięcioma osobami i zastępując ich SI, chce z jednej strony przetestować możliwości sztucznej inteligencji na dużą skalę, z drugiej zaś liczy na obniżenie kosztów. « powrót do artykułu
  15. Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa. Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley. Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością. Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej. Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych. Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna. Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów. Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań. Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo. Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy. « powrót do artykułu
  16. Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze. Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI. Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM. Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna. Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe. Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci. Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie. Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman. Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman. Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów. Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE. Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund. Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery. « powrót do artykułu
  17. Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat. Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie. Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat. Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A. Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu. Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania. Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20. Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat. W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił. Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania. « powrót do artykułu
  18. Mówiąc wprost, to prezent dla Unii Europejskiej. Dobiega końca prezydencja Finlandii w UE i nasz kraj zdecydował się przetłumaczyć ten kurs na oficjalny język każdego państwa Unii Europejskiej i udostępnić go obywatelom w prezencie. Nie będzie żadnych ograniczeń geograficznych, a zatem tak naprawdę to prezent dla całego świata, stwierdzili przedstawiciele Finlandii. Mowa tutaj o kursie o podstawach sztucznej inteligencji. Niewielki nordycki kraj, który nie może konkurować w rozwoju sztucznej inteligencji z takimi potęgami jak USA czy Chiny, zdecydował, że nauczy podstaw tej technologii jak największą liczbę swoich obywateli. W styczniu bieżącego roku udostępniono więc online'owy kurs, w którym znalazły zagadnienia od kwestii filozoficznych i etycznych przez sieci neuronowe i uczenie maszynowe po prawdopodobieństwo subiektywne. Kurs składa się z kilku sekcji, nauka w każdej z nich trwa 5–10 godzin, a całość kursu jest rozpisana na sześć tygodni. Podstawy SI odniosły w Finlandii spory sukces. W kursie wzięło udział ponad 1% populacji kraju. Teraz Finowie chcą, by i inni z niego skorzystali. W tej chwili kurs jest dostępny w językach angielskim, niemieckim, szwedzkim, fińskim i estońskim. Zgodnie z zapowiedzią za jakiś czas powinniśmy doczekać się też wersji polskiej. Twórcy kursu, Uniwersytet w Helsinkach i firma Reaktor, stwierdzili, że SI to zbyt poważna kwestia, by pozostawiać ją w ręku wąskiej grupy programistów. Stąd też pomysł na świąteczny prezent dla obywateli Unii Europejskiej. Z kursu można skorzystać na stronie elementstofai.com. « powrót do artykułu
  19. Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński. W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem. Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej. Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje? Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI. W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI. Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach. Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI). Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody. W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe. Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert. Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii. Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich. W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów. Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi. Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne. « powrót do artykułu
  20. Sztuczna inteligencja pomaga w diagnozowaniu stresu pourazowego (PTSD) u weteranów, analizując ich głos. W najnowszym numerze pisma Depression and Anxiety doniesiono, że opracowany na Uniwersytecie Nowojorskim (NYU) system sztucznej inteligencji potrafi z 89-procentową trafnością odróżnić osoby z PTSD od osób zdrowych. Wyniki naszych badań wskazują, że cechy charakterystyczne mowy mogą zostać wykorzystane do zdiagnozowania choroby. Chcemy by w najbliższej przyszłości nasz system, po jego udoskonaleniu i uzyskaniu odpowiednich zgód, trafił do codziennej praktyki klinicznej, mówi jeden z głównych autorów badań, dziekan Wydziału Psychiatrii, profesor Charles R. Marmar. Szacuje się, że ponad 70% dorosłych doświadcza w jakimś momencie życia traumy, a odsetek osób z PTSD jest w niektórych krajach szacowany nawet na 12% dorosłej populacji. Osoby cierpiące na zespół stresu pourazowego doświadczają, gdy zetką się z bodźcem przypominającym o traumie, silnego trwałego stresu. PTSD diagnozuje się podczas wywiadu klinicznego, jednak jest to metoda podatna na błędy. Dlatego też specjaliści od dawna poszukują obiektywnego fizycznego markera PTSD. Jego znalezienie nie jest jednak łatwe. Autorzy najnowszych badań stworzyli algorytm wykorzystujący metodę nauczania random forest, która pozwala klasyfikować np. osoby na podstawie dostępnych przykładów. W ten sposób, działając najpierw na treningowej bazie danych, sztuczna inteligencja udoskonala swoje modele i metody podejmowania decyzji. Najpierw naukowcy nagrali standardowy wielogodzinny wywiad diagnostyczny CAPS (Clinician-Administered PTSD Scale). Zarejestrowano wywiady z 53 weteranami z Iraku i Afganistanu, u których stwierdzono PTSD oraz z 78 weteranami, u których choroba nie występowała. Następnie materiał dźwiękowy został przetworzony przez oprogramowanie firmy SRI International, tej samej, która opracowała apple'owską Siri, a program wyodrębnił z nagrań 40 526 cech, które następnie były analizowane pod kątem występowania wzorców. Sztuczna inteligencja była w stanie powiązać poszczególne cechy z PTSD. Były wśród nich na przykład mniej wyraźna mowa czy pozbawiony życia metaliczny ton głosu. Wcześniej wiedziano o tych dwóch cechach, ale były one jedynie anegdotycznie uznawane za pomocne w diagnostyce. Diagnoza PTSD na podstawie głosu może o tyle mieć uzasadnienie, że teoria dotycząca przyczyn zespołu stresu pourazowego mówi, iż traumatyczne wydarzenia zmieniają połączenia między neuronami odpowiedzialnymi za przetwarzanie emocji i oraz za napięcie mięśniowe, co może wpływać na sposób artykulacji. Mowa jest atrakcyjnym kandydatem dla automatycznego systemu diagnostycznego, gdyż może być ona mierzona i badana w sposób tani, nieinwazyjny i zdalny, mówi główny autor badań, profesor Adam D. Brown. Możliwości analizy głosu stosowane w obecnych badaniach nad PTSD pokrywają się z możliwościami naszem platformy analitycznej SenSay Analytics. Oprogramowanie to analizuje słowa, częstotliwość, rytm, ton oraz cechy charakterystyczne artykulacji i na tej podstawie wyciąga wnioski co do stanu mówiącego, w tym co do jego stanu emocjonalnego, uczuciowego, poznawczego, zdrowotnego, zdrowia psychicznego i zdolności komunikacyjnych, dodaje Dimitra Vergyri z SRI International. « powrót do artykułu
  21. Światowa Organizacja Własności Intelektualnej (WIPO) opublikowała swój pierwszy raport z serii „Technology Trends”. Dotyczy on sztucznej inteligencji. Autorzy raportu wzięli pod uwagę to, co działo się na polu sztucznej inteligencji od jej pojawienia się w latach 50. ubiegłego wieku. Przeanalizowali ponad 340 000 patentów związanych z tą dziedziną wiedzy oraz 1,6 miliona artykułów naukowych na jej temat. Jak się okazuje, większość patentów związanych z SI złożono po roku 2013. Aktywność patentowa na polu sztucznej inteligencji bardzo szybko rośnie, co oznacza, że możemy spodziewać się wysypu produktów, aplikacji i technik bazujących na sztucznej inteligencji. To wpłynie na nasze codzienne życie i ukształtuje przyszłe interakcje człowieka z maszyną, powiedział dyrektor generalny WIPO Francis Gurry. Kluczowymi graczami na rynku sztucznej inteligencji są USA, Chiny oraz Japonia. Przedsiębiorstwa prywatne stanowią 26 z 30 największych posiadaczy patentów związanych z SI. Pozostałe cztery instytucje to uniwersytety lub publiczne organizacje badawcze. Dane dotyczące patentów dotyczą okresu od początku istnienia sztucznej inteligencji po koniec roku 2016. To opóźnienie wynika z czasu, jaki upływa pomiędzy złożeniem wniosku patentowego, a jego upublicznieniem. Największym na świecie portfolio patentów z dziedziny SI może pochwalić się IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406). Z kolei 3 z 4 wspomnianych wcześniej instytucji akademickich znajdujących się w grupie 30 największych światowych posiadaczy patentów SI stanowią instytucje z Chin. Największa z nich, ulokowana na 17. pozycji największych światowych właścicieli patentów SI jest Chińska Akademia Nauk (ponad 2500 patentów). Chińskie instytucje naukowe są potęgą w akademickim świecie SI. Z Państwa Środka pochodzi bowiem aż 17 z 20 właścicieli największego portfolio patentów w świecie akademickim oraz 10 z 20 największych akademickich autorów prac naukowych na temat SI. Dominującą techniką wykorzystywaną w opatentowanych technologiach SI jest maszynowego uczenie się, w szczególności to z wykorzystaniem sieci neuronowych. Wymieniono je w ponad 30% patentów. Na polu tym notuje się imponujący wzrost. Jeszcze w 2013 roku maszynowe uczenie się wymieniono w 9567 nowych wnioskach patentowych, a w roku 2016 liczba ta wzrosła do 20 195. Najszybciej rosnącą techniką z dziedziny maszynowego uczenia się jest deep learning. Tutaj zanotowano imponujący wzrost ze 118 patentów w roku 2013 do 2399 patentów w roku 2016. Roczny wzrost w tej dziedzinie wynosi zatem 175%. Dla porównania, roczny wzrost wszystkich patentów związanych z nowymi technologiami wynosi średnio 10%. Z analizy patentów dowiadujemy się też, że komputerowe widzenie wymieniono w 49% wniosków patentowych oraz, że szybko – w tempie 55% rocznie – rośnie zastosowanie SI w robotyce. Przemysł transportowy jest tym sektorem, w którym najszybciej rośnie zainteresowanie technologiami SI. W 2016 roku złożył on 8764 wnioski patentowe związane ze sztuczną inteligencją. Oznacza to, że od roku 2013 liczba patentów rośnie tutaj w tempie 33% rocznie, a przemysł transportowy złożył 19% wszystkich wniosków patentowych z lat 2013–2016. Wolniej, bo w tempie 23% rocznie rośnie liczba patentów SI związanych z przemysłem telekomunikacyjnym. W roku 2016 złożono 6684 wniosków, a telekomunikacja była odpowiedzialna za 15% patentów SI w latach 2013–2016. Na kolejnym miejscu tej listy znajdziemy szeroko rozumiany sektor zdrowia. Tam SI znajduje zastosowanie w diagnostyce, chirurgii czy personalizacji leków. W 2016 roku sektor zdrowia złożył 4112 wniosków patentowych na sztuczną inteligencję, co oznacza roczny wzrost w tempie 12%, i był odpowiedzialny za 11% wszystkich patentów z lat 2013–2016. W końcu sektory związane z gadżetami, urządzeniami osobistymi, komputerami i interakcją człowiek-komputer wypełniły w 2016 roku 3977 wniosków patentowych. Mamy tutaj do czynienia z 11-procentowym rocznym wzrostem, a wnioski te stanowiły 11% wszystkich z lat 2013–2016. « powrót do artykułu
  22. Yinyin Yuan i jej koledzy z Institute of Cancer Research w Londynie stworzyli system sztucznej inteligencji, który bada różnice w kształtach komórek nowotworowych. Przeanalizowali próbki tkanek 514 kobiet z rakiem jajnika i odkryli, że w bardziej agresywnej formie nowotworu, w której szanse na przeżycie 5 lat wynoszą zaledwie 15 procent, jądra komórkowe mają nieprawidłowy kształt. Tam, gdzie jądra komórkowe mają kształt prawidłowy, mamy do czynienia z łagodniejszą formą nowotworu, o 53-procentowej szansie przeżycia. Jak zauważa Kevin Elias z Dana-Farber Cancer Institute w Bostonie, na razie tego typu test ma bardzo ograniczone możliwości. On jedynie mówi, że rokowania pacjenta są złe. Jeśli nie będę w stanie zaproponować alternatywnego leczenia, taki test nie jest dla mnie użyteczny. Sztuczna inteligencja jest coraz częściej stosowana w onkologii. Głównie wykorzystuje się ją do zbierania i analizowania danych na wiele różnych sposobów. Przydaje się np. do badania ewolucji guza czy ulepszania diagnozy. Yuan i jej zespół chcą w najbliższym czasie wykorzystać SI do przeanalizowania sposobu, w jaki nowotwory nabywają oporności na chemioterapię i na podstawie tej wiedzy będą chcieli opracować lepsze metody leczenia. « powrót do artykułu
  23. Jak dowiedzieli się reporterzy Reutersa, Amazon stworzył algorytm sztucznej inteligencji, który miał pomóc w rekrutacji pracowników. Narzędzie zostało jednak porzucone gdy okazało się, że... dyskryminuje kobiety. W 2014 roku w Amazonie powstał specjalny zespół, którego zadaniem było zbudowanie automatycznego asystenta biorącego udział w rekrutacji. Chcieli, by to działało w ten sposób, że dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych i tych ludzi się zatrudnia, mówi osoba zaznajomiona ze sprawą. Narzędzie miało przyznawać każdemu z kandydatów od 1 do 5 gwiazdek i na tej podstawie wskazywać osobie prowadzącej rekrutację, na kogo warto zwrócić uwagę. Amazon stworzył 500 modeli komputerowych, które przeanalizowały CV znajdujące się w bazie danych firmy i wybrały z nich 50 000 kluczowych terminów. W 2015 roku narzędzie było gotowe. Miało ono przeczesywać sieć w poszukiwaniu odpowiednich kandydatów. Okazało się jednak, że SI najwyraźniej nie lubi kobiet. Stało się tak prawdopodobnie dlatego, że było trenowane na CV kandydatów do Amazona z ostatnich 10 lat. A o pracę starli się tam głównie mężczyźni. Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły. Inżynierowie Amazona naprawili te problemy, jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom. Amazon twierdzi, że narzędzie nigdy nie zostało wdrożone. Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja. To tym większy problem, że coraz więcej firm chce automatyzować część procesu rekrutacji. W 2017 roku przeprowadzono badania, z których wynika, że 55% amerykańskich menedżerów HR uważa, iż w ciągu najbliższych pięciu lat SI będzie standardowo wykorzystywane w ich pracy. Ze zdobytych przez Reutersa informacji wynika, że Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów. « powrót do artykułu
  24. W ubiegłym tygodniu podczas International Conference on Machine Learning (ICML) grupa naukowców pokazała żółwia wydrukowanego techniką 3D. Dla ludzi żółw wyglądał niemal jak żywy. Jednak algorytmy sztucznej inteligencji rozpoznały w obiekcie... strzelbę. W innym przypadku kij baseballowy wykonany techniką druku 3D został przez SI uznany za... filiżankę espresso. Na naszych oczach sztuczna inteligencja, systemy maszynowego uczenia się, czynią tak wielkie postępy, że coraz częściej podnoszą się głosy zaniepokojenia, ostrzegające nas przed zbytnim rozwijaniem inteligencji maszyn. Jednak, jak się okazuje, systemy SI są zdumiewająco podatne na ataki. A w ostatnim czasie eksperci coraz częściej prezentują nam przykłady takich ataków. My, którzy pracujemy nad maszynowym uczeniem się nie jesteśmy przyzwyczajeni, by myśleć o bezpieczeństwie naszych systemów, mówi jeden z twórców żółwia 3D i badań nad atakiem na AI, Anish Athalye z MIT. Specjaliści zajmujący się sztuczną inteligencją mówią, że przeprowadzenie takich ataków jest bardzo użyteczne z naukowego punku widzenia. Pozwalają one bowiem analizować sposób działania sieci neuronowych, które obecnie nie są dobrze rozumiane. Ataki to wspaniałe szkło powiększające, przez które możemy lepiej zrozumieć to, co nazywamy maszynowym uczeniem, mówi Dawn Song z Uniwersytetu Kalifornijskiego w Berkeley. W ubiegłym roku Song i jej koledzy umieścili na standardowym znaku drogowym „STOP” kilka naklejek, które spowodowały, że system SI uznał znak za... ograniczenie prędkości do 45 mil na godzinę. Nietrudno wyobrazić sobie konsekwencje takiego ataku na samochód autonomiczny. Ataki można podzielić na takie, w których napastnik ma wiedzę o algorytmach wykorzystywanych przez system i na takie, w których algorytmów tych nie zna. W pierwszym przypadku może obliczyć, w jaki sposób należy zmienić dane wejściowe do systemu wykorzystującego dane algorytmy, by otrzymać pożądane dane wyjściowe. W ten sposób można np. manipulować obrazem tak, by dla człowieka nie wyglądal on na zmanipulowany, ale by sztuczna inteligencja źle go rozpoznała. Bardziej wymagające są ataki, gdy nie znamy algorytmów. Wówczas napastnik zna tylko danej wejściowe i wyjściowe. Przeprowadzenie takiego ataku jest trudne, ale nie niemożliwe. Podczas ostatniego ICML Athalye i jego zespół zaprezentowali tego typu atak przeciwko usłudze Google Cloud Vision. W sposób niewidoczny dla człowieka zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa. Jednym ze sposobów na uchronienie się przed tego typu atakami jest stworzenie formuły, pozwalającej algorytmom SI zweryfikować, czy dobrze rozpoznały dany obiekt. Jeśli możesz przeprowadzić weryfikację, oznacza to koniec zabawy dla napastników, mówi Pushmeet Kohli z DeepMind. Podczas ICML zaprezentowano nawet dwa takie algorytmy weryfikujące. Problem w tym, że obecnie nie da się ich skalować na duże sieci neuronowe współczesnych SI. Co prawda Kohli twierdzi, że w przyszłości się to uda, jednak Song uważa, że w świecie praktycznych zastosowań będą one miały poważne ograniczenia. Nie istnieje matematyczna definicja tego, kim jest pieszy. Czy możemy więc udowodnić, że autonomiczny samochód w żadnym przypadku nie uderzy w pieszego? Nie możemy, stwierdza uczona. « powrót do artykułu
  25. Ponad 50 ekspertów zajmujących się sztuczną inteligencją wezwało do bojkotu Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST). Zdaniem naukowców, prowadzone przez KAIST badania mogą prowadzić do trzeciej rewolucji w działaniach wojennych. KAIST ściśle współpracuje z największym koreańskim producentem uzbrojenia, firmą Hanwha Systems. Ekspertów zaniepokoił fakt, że niedawno obie instytucje powołały do życia Centrum Badań nad Konwergencją Obrony Narodowej i Sztucznej Inteligencji. Zdaniem naukowców z całego świata, centrum takie może doprowadzić do wyścigu zbrojeń, których celem będzie opracowanie autonomicznych systemów bojowych. Sygnatariusze listu oświadczyli, że nie będą współpracowali z KAIST dopóty, dopóki uczelnia nie zapewni, że nowo powołane centrum badawcze nie będzie prowadziło prac nas autonomiczną bronią. Autonomiczne systemy bojowe, jeśli powstaną, doprowadzą do trzeciej rewolucji w działaniach zbrojnych. Pozwolą one prowadzić wojny szybciej i na większą skalę niż kiedykolwiek wcześniej. Mogą stać się narzędziem do siania terroru. Dyktatorzy i terroryści będą mogli użyć ich przeciwko niewinnym cywilom, uwalniając się ze wszystkich ograniczeń etycznych. Jeśli otworzymy tę puszkę Pandory, trudno będzie ją zamknąć. Możemy jednak zdecydować, że nie będziemy rozwijali takich technologii. Tak, jak w przeszłości zdecydowaliśmy, że nie będziemy np. rozwijali lasera do oślepiania ludzi. Wzywamy KAIST właśnie do takiego postępowania i do prac nad SI, która udoskonala ludzkie życie, a nie mu szkodzi. Organizator bojkotu, profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii powiedział, że rozwój autonomicznych systemów bojowych tylko pogorszy sytuację na Półwyspie Koreańskim. Jeśli ta broń się pojawi, to w końcu będzie miała ją też Korea Północna, która bez najmniejszych wyrzutów sumienia użyje jej przeciwko Południu, stwierdził Walsh. Korea Południowa jest światowym liderem w dziedzinie rozwoju autonomicznych systemów bojowych. Wzdłuż Koreańskiej Strefy Zdemilitaryzowanej rozmieszczono m.in. systemy Samsung SGR-A1. To pierwsze roboty bojowe wyposażone w systemy do nadzoru, śledzenia, prowadzenia ognia i rozpoznawania głosu. Prezydent KAIST, Sung-Chul Shin mówi, że uczelnia nie prowadzi prac nad autonomicznym uzbrojeniem. « powrót do artykułu
×
×
  • Dodaj nową pozycję...