Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' sztuczna inteligencja'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 20 results

  1. Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić. Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo. DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino. Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały. Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner. DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować. CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu. Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”. Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota. « powrót do artykułu
  2. Południowokoreański mistrz Go Lee Sedol, który zdobył ogólnoświatowy rozgłos w 2016 roku po słynnym meczu ze sztuczną inteligencją, odszedł na emeryturę. Przypomnijmy, że w 2016 roku sztuczna inteligencja o nazwie AlphaGo pokonała Lee Sedola stosunkiem 4:1. Wcześniej program rozgromił innych graczy w Go, a Sedol był jedynym, któremu udało się z nim wygrać partię. Sedol, który wkrótce skończy 37 lat, oświadczył, że rezygnuje z profesjonalnej kariery w Go, gdyż w związku z olbrzymimi postępami sztucznej inteligencji, nie może być czołowym graczem, nawet gdyby był najlepszym z ludzi. "Nawet gdybył był numerem jeden, to będzie ktoś, kogoś nie będę w stanie pokonać", powiedział Sedol w wywiadzie dla agencji prasowej Yonhap. Lee Sedol pozostaje jedynym człowiekiem, któremu udało się pokonać AlphaGo. Mistrz uważa, że wygrał dzięki błędowi w oprogramowaniu AlphaGo. Podczas meczu, który odbył się 13 marca 2016 roku grający białymi Lee wykonał nietypowy 78. ruch. Wprawił on AlphaGo w zakłopotanie i system wykonał bardzo słaby ruch 79., który niespodziewanie dał Sedolowi przewagę. Ten jej nie zmarnował i po jakimś czasie AlphaGo poddał partię. Specjaliści uznają ruch 78. za „błyskotliwy, boski”, jednak sam Sedol twierdzi, że wygrał partię, gdyż AlphaGo nie potrafił prawidłowo zareagować na jego nietypowe zagrania. Mój ruch 78. nie był zagraniem, na który należało reagować bezpośrednio. Takie błędy zdarzają się w programie Fine Art (to chiński program komputerowy do gry w Go). Fine Art jest trudny do pokonania, nawet jeśli ma handicap 2 kamieni. Jeśli jednak przegrywa, to w bardzo dziwaczny sposób. To błąd w oprogramowaniu, wyjaśnia Sedol. Mistrz przyznaje, że był sfrustrowany po pierwszych trzech przegranych partiach. Rzadko czytam w internecie informacje na swój temat. Byłem jednak ciekaw, jak bardzo źle ludzie mówią o mnie po tym, jak przegrałem trzy pierwsze partie. Z zaskoczeniem zauważyłem, że niewiele osób mnie krytykowało. Szczerze mówiąc, już przed rozpoczęciem meczu czułem, że mogę przegrać. Ludzie z DeepMind Technologies byli od samego początku bardzo pewni swego, przyznaje. Co ciekawe, jeszcze w grudniu Lee planuje zmierzyć się z kolejnym systemem sztucznej inteligencji grającym w Go. Program HanDol, opracowany w 2018 roku przez firmę NHN Entertainment Corp. już wygrał z 5 czołowymi graczami z Korei Południowej. Nadchodzący mecz Lee Sedol rozpocznie z przewagą dwóch kamieni, które zostaną ustawione na planszy przed rozpoczęciem gry. Kolejne handikapy będą ustalane w zależności od wyniku pierwszej partii. Sądzę, że nawet z przewagą dwóch kamieni przegram z HanDolem. Ostatnio nie czytuję informacji ze świata Go. Chcę w spokoju przygotować się go rozgrywki i zrobię co w mojej mocy, stwierdza Sedol. « powrót do artykułu
  3. Na University of Maryland powstał Geneva (Genetic Evasion), system sztucznej inteligencji, który uczy się omijania cenzury w sieci. Podczas testów w Chinach, Indiach i Kazachstanie Geneva opracował dziesiątki sposobów na ominięci cenzury i dotarł do informacji, których samodzielne odnalezienie było niemożliwe. Geneva to pierwszy krok w kierunku rozpoczęcia nowego wyścigu zbrojeń, w którym konkurowały będą systemy sztucznej inteligencji opracowane przez cenzorów i ich przeciwników, mówi profesor Dave Levin, główny autor badań. Zwycięstwo w tym wyścigu będzie oznaczało wolność słowa i swobodną komunikację dla milionów ludzi na całym świecie, którzy obecnie nie mogą z niej korzystać. Działanie większości systemów internetowej cenzury opiera się na monitorowaniu pakietów wysyłanych przez wyszukiwarki. Blokowane są pakiety zawierające niewłaściwe słowa lub adresy. Geneva w inny sposób dzieli pakiety, przez co systemy cenzurujące nie są w stanie rozpoznać zakazanych treści. Program jest ewoluującym algorytmem, który w każdej swojej generacji identyfikuje te strategie antycenzorskie, które najlepiej działały, wykorzystuje je do dalszej pracy i przestaje używać tych źle działających. Testy Genevy przeprowadzono w Chinach, gdzie użytkownik komputera z zainstalowaną Genevą był w stanie wyszukiwać informacje zawierające zakazane słowa, w Indiach, gdzie władze blokują konkretne witryny i w Kazachstanie, gdzie w czasie testów władze blokowały niektóre serwisy społecznościowe. We wszystkich przypadkach Geneva wygrała z cenzurą. Naukowcy z Maryland chcą udostępnić swoje dane i kod źródłowy, by inni mogli z nich korzystać i rozwijać Genevę. Jeśli Genevę możnaby zainstalować po stronie serwera i po stronie klienta, to miliony ludzi zyskałyby dostęp do informacji. W tym właśnie kierunku zmierzamy, mówi Levin. « powrót do artykułu
  4. Ponad 2000 uczniów klas czwartych z 57 szkół podstawowych, ponad 370 000 rozwiązanych wygenerowanych zadań matematycznych – to efekt pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy". Prowadzony w roku szkolnym 2018/2019 przez naukowców z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej projekt miał dwa podstawowe cele: podniesienie u uczniów kompetencji matematycznych oraz weryfikację działania nowej wersji systemu zeszyt.online. Zespół naukowców skupionych wokół Politechniki Warszawskiej przez ostatnie lata pracował nad opartym na sztucznej inteligencji systemem wspierającym naukę matematyki. System zeszyt.online, bo o nim mowa, to platforma, do której użytkowania wystarczy przeglądarka internetowa. Po zalogowaniu uczeń dostaje zadania, których zakres i poziom trudności na bieżąco dostosowują się do aktualnych umiejętności oraz skuteczności w rozwiązywaniu. Indywidualizacja nauki Indywidualizowanie nauczania to przyszłość, od której nie uciekniemy, jeżeli zależy nam na wysokich efektach dydaktycznych i przewadze naszej młodzieży na tle rówieśników z innych krajów. Nie ma sensu, aby bardzo dobry uczeń rozwiązywał wiele prostych, mechanicznych zadań – mówi Artur Jackowski, kierownik zespołu zeszyt.online. Od pewnego momentu niczego nowego się nie nauczy. Aby efektywniej wykorzystywać czas nauki, lepiej dać mu zadania, które wymagają od niego większego wysiłku intelektualnego. Z drugiej strony nie ma co dawać uczniom słabszym bardzo trudnych zadań. Zapewne na razie nie będą w stanie ich rozwiązać. Zmarnują tylko czas i nabiorą awersji do matematyki. System automatycznie indywidualizuje naukę, próbując odpowiednio dobierać zadania matematyczne. System od początku był projektowany z myślą o samodzielnej pracy. Dlatego uczeń od razu po rozwiązaniu zadania dostaje informację, czy zrobił je poprawnie. Jest to szczególnie przydatne, gdy uczeń jest w domu i nie może liczyć na pomoc rodzica czy też korepetytora. Badania pokazały, że dzięki takiej natychmiastowej automatycznej weryfikacji uczeń, będąc później w szkole, mniej stresuje się przy tablicy, częściej odpowiada na pytania nauczyciela i ogólnie, jest aktywniejszy na lekcji. Odejść od schematów, zrozumieć ucznia To, z czego jesteśmy najbardziej dumni, to uzyskany przez nas przełom w diagnozie przyczyn błędów i trudności z zadaniem, a następnie udzielaniem uczniowi indywidualnej pomocy – mówi o systemie kierownik zespołu. Jesteśmy tutaj pionierami na światową skalę. Znacząco zmieniamy podejście do nauczania matematyki. Klasycznie nauczyciel czy korepetytor tłumaczą uczniowi, jak powinien był rozwiązać zadanie. W konsekwencji uczy się w ten sposób schematów. Uczeń przyjmuje je do wiadomości, zapamiętuje, a później próbuje je odtworzyć. Jest to bierne podejście do nauki, które zabija kreatywność. System zeszyt.online, choć pomaga uczniowi dojść do prawidłowego wyniku, nigdy nie wyświetla mu gotowego rozwiązania. Zamiast tego zmusza go do samodzielnego myślenia i poszukiwań. System, gdy zdiagnozuje przyczynę problemu, tak dobiera następne zadania, aby uzupełnić braki w wiedzy i rozumieniu oraz ćwiczy kojarzenie faktów – wyjaśnia Artur Jackowski. Gdy uczeń jest gotowy, to wraca do oryginalnego zadania, które rozwiązuje bez pomocy człowieka. I to się sprawdza. W zeszłym roku szkolnym uczniowie biorący udział w badaniu zrobili błędnie 108 412 zadań. System poprawnie zdiagnozował i znalazł skuteczną pomoc już w co trzecim przypadku. A mówimy tu o danych statystycznych na całkiem dużej próbie badawczej. U uczniów pracujących systematycznie, uzyskujemy jeszcze lepsze wyniki. Im więcej zadań rozwiązuje dana osoba, tym mamy więcej informacji i możemy skuteczniej dopasowywać pomoc. Jak zostać generałem matematyki? Nauka wymaga od ucznia stałego wysiłku. Aby ją uatrakcyjnić i zmniejszyć odczucie wkładanej pracy, system połączony jest z mechanizmami motywującymi. Uczniowie rozwiązując zadania zbierają punkty, które przekładają się na osiągane stopnie. Każdy zaczyna od szeregowego matematyka i rozwija się w kierunku generała. Dodatkowo zdobywa specyficzne odznaczenia za szczególne osiągnięcia. Koniec z matematycznym koszmarem? Nad projektem pracują analitycy, programiści, metodycy, nauczyciele matematyki, psychologowie, osoby odpowiedzialne za wsparcie techniczne i utrzymanie infrastruktury. To silny i zgrany zespół, który umożliwia skuteczną realizację stawianych przed nim wyzwań. Chcielibyśmy, aby z efektów naszej pracy mogli skorzystać uczniowie z całej Polski – mówi Artur Jackowski. Marzy nam się, aby dzięki zeszyt.online matematyka przestała być postrachem wśród uczniów. Mamy rozwiązania, które umożliwiają wychodzenie ze spirali zaległości, indywidualizowanie i koordynowanie nauki, stawianie uczniom celów i dążenie do ich realizacji, przygotowywanie do sprawdzianów i odległych egzaminów połączone z zarządzaniem powtórkami. Wiele tych funkcjonalności jest ciągle testowana na wąskich grupach użytkowników i wymaga dodatkowych nakładów pracy, zanim zostanie szerzej udostępniona. Większe uruchomienie to także koszty związane z utrzymaniem infrastruktury i zapewnieniem wsparcia dla uczniów i nauczycieli. Zwracamy się do organów prowadzących szkoły – wyjaśnia Artur Jackowski. W ich placówkach już teraz możemy uruchomić nasze oprogramowanie, jeżeli będą pokrywały koszty serwerów, wdrożenia oraz współfinansowały dalszy rozwój. Poszukujemy również sponsorów – zarówno wśród firm prywatnych jak również instytucji publicznych, którym zależy na poprawie jakości edukacji i chciałyby mieć w tym swój wkład. System zeszyt.online zdobył wiele pozytywnych opinii od uczniów i nauczycieli, którzy korzystali z niego w pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy". W tym roku szkolnym w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014–2020 przygotowano bezpłatne miejsca dla 50 dodatkowych klas IV województwa mazowieckiego, żeby dać możliwość przetestowania tego nowatorskiego rozwiązania szerszym kręgom uczniów. Więcej informacji o systemie: zeszyt.online « powrót do artykułu
  5. Problem trzech ciał, czyli ruchu trzech ciał oddziałujących na siebie przez grawitację, stanowi poważne wyzwanie obliczeniowe od czasu sformułowania go przez Newtona. Obecnie, dzięki komputerom. możemy poznać dokładne rozwiązanie problemu, jednak nawet nowoczesnym maszynom obliczenia zajmują całe tygodnie, a nawet miesiące. Grupa naukowców z Uniwersytetów w Lejdzie, Aveiro, Edynburgu i Cambridge zaprzęgła do obliczeń sztuczną inteligencję. Okazało się, że sieci neuronowe radzą sobie z obliczeniami nawet 100 milionów razy szybciej niż najbardziej zaawansowany obecnie algorytm Brutus. Jak mówi Chris Foley z University of Cambridge, to pokazuje, że sieci neuronowe mogą zostać wykorzystane do badania zachowania gromad gwiazd i lepszego poznania wszechświata. Jak czytamy w opublikowanym w arXiv artykule pod tytułem „Newton vs the machine: solving the chaotic three-body problem using deep neural networks [PDF]”, równania takie odgrywają główną rolę w rozwiązaniu wielu klasycznych problemów fizyki. Na przykład wyjaśniają one dynamiczną ewolucję gromad kulistych i jąder galaktycznych, które są uważane za miejsca powstawania układów podwójnych czarnych dziur, które w końcu łączą się, wytwarzając fale grawitacyjne. Los tych systemów zależy od interakcji trzech ciał, układów podwójnych czarnych dziur i pojedynczej czarnej dziury. Interakcje pomiędzy nimi zachodzą zwykle w ściśle określonym przedziale czasu i, biorąc pod uwagę silne interakcje pomiędzy tymi trzema ciałami, można zignorować wpływ innych ciał, co oznacza, że interakcje pomiędzy trzema ciałami można obliczać w izolacji od innych interakcji. Foley zauważa, że jeśli potwierdzi się, że sieć neuronowa pozwala na dokonanie precyzyjnych obliczeń w bardo krótkim czasie, to będziemy mogli myśleć o odpowiedziach na znacznie głębsze pytania, jak np. te o powstawanie fal grawitacyjnych. Jako, że sieci neuronowe wymagają odpowiedniego treningu przed zaprzęgnięciem ich do pracy Foley i jego koledzy – Philip G. Breen, Tjarda Boekholt i Simon Portegies Zwart – przygotowali za pomocą Brutusa 9900 uproszczonych scenariuszy dotyczących problemu trzech ciał. One posłużyły do treningu. Następnie przetestowali swoją sieć neuronową dając jej do rozwiązania 5000 kolejnych problemów tego typu, z którymi wcześniej się nie zetknęła. Okazało się, że wykonane przez nią obliczenia dały bardzo podobne wyniki, jak te, które uzyskano z Brutusa. O ile jednak Brutus potrzebował na rozwiązanie każdego z tych 5000 problemów około 2 minut, sieć neuronowa radziła sobie z nimi w ułamku sekundy. Christopher Foley wyjaśnia, że Brutus i podobne mu algorytmy są znacznie wolniejsze od SI, gdyż prowadzą obliczenia dla każdego niewielkiego przesunięcia się każdego z ciał w układzie. Tymczasem sztuczna inteligencja przygląda się ruchowi i poszukuje wzorców, które pozwolą na przewidzenie przyszłego zachowania ciał. Uczony zauważa, że problemem może być skalowanie możliwości sieci neuronowej. Musi ona bowiem się uczyć na istniejącym zestawie danych. Teraz była trenowana na uproszczonych scenariuszach. Jeśli jednak będzie potrzeba nauczenia jej radzenia sobie z bardziej złożonymi scenariuszami, czy z układami czterech lub nawet pięciu ciał, konieczne będzie wcześniejsze przygotowanie scenariuszy treningowych. A te trzeba będzie wykonać za pomocą powolnego Brutusa. Tu właśnie dochodzimy do momentu, gdy z jednej strony możemy trenować fantastycznie pracującą sieć neuronową, a z drugiej potrzebujemy danych treningowych. To wąskie gardło, stwierdza Foley. Sposobem na poradzenie sobie z tym problemem byłoby stworzenie całego zestawu danych uzyskanych za pomocą takich programów jak Brutus. To jednak oznacza, że najpierw musiałyby powstać standardowe protokoły, dzięki którym dane uzyskane od różnych programów będą spełniały te same wymagania i zostaną zapisane w tych samych formatach. Innym problemem jest fakt, że sieć neuronowa może zostać uruchomiona na określony czas. Nie sposób jednak przewidzieć, jak długo potrwają konkretne obliczenia zatem sieć może przestać działać zanim dostarczy wyników. Foley przewiduje powstawanie hybryd, w których część pracy wykonają programy takie jak Brutus, a sieci neuronowe zajmą się przetwarzaniem tylko najbardziej wymagających obliczeń. Za każdym razem gdy podczas obliczeń Brutus się zatnie, może włączać się sieć neuronowa i popchnie obliczenia do przodu, a gdy Brutus znowu będzie gotów do pracy, podejmie ją na nowo. « powrót do artykułu
  6. Sztuczna inteligencja, analityka danych, biotechnologia, robotyka, transformacja cyfrowa, budowanie zwinnej i pozytywnej kultury organizacyjnej, długowieczność, czytanie emocji, blockchain, przyszłość finansów, miast, mediów, mody i medycyny. Jak wygląda świat jutra, zostanie pokazany podczas 3. edycji konferencji Masters & Robots w dn. 8-9 października. To innowacyjny tygiel, ogromna dawka wiedzy na temat efektywnego wykorzystania nowych technologii oraz nowoczesnego zarządzania biznesem w wykonaniu elity wykładowców i praktyków z całego świata, sesje z mentorami i warsztaty, a także niepowtarzalna okazja do nawiązania kontaktów, które pozwolą na rozwój biznesu w skali globalnej. Głównym sponsorem wydarzenia jest międzynarodowy inwestor, lider młodego pokolenia polskich przedsiębiorców, od lat wspierający startupy - Sebastian Kulczyk. Masters & Robots to coroczne wydarzenie dla przedstawicieli świata biznesu, kadry zarządzającej, ekspertów, urzędników państwowych i przedstawicieli organizacji pozarządowych, inwestorów, pracowników uczelni naukowych, założycieli startupów, którzy myślą o rozwoju swojego biznesu w nadchodzącej dekadzie. To spojrzenie na światowe innowacje pokazane na przykładzie studium przypadku, które można wykorzystać w strategii własnej firmy. To spotkania, które edukują, prowokują do zadawania pytań, tworzą zupełnie nowe perspektywy i świeże spojrzenie na rozwój firmy. Motywem przewodnim wydarzenia jest transformacja cyfrowa i wpływ jaki wywrze na nas w ciągu kolejnych 10 lat, a także spotkania z wizjonerami budującymi rozwiązania „na jutro”. Bardzo dużo mówi się dziś o transformacji cyfrowej organizacji, ale jeśli chodzi o praktykę - wprowadzenie prawdziwej zmiany w firmach, zarówno na poziomie technologii jak i przede wszystkim zmiany w sposobie myślenia i funkcjonowania pracowników - to takich przykładów jest w Polsce i w regionie bardzo mało. Najważniejsze jest, żeby edukować pracowników, pokazywać im przykłady takich transformacji z całego świata, pokazywać im nowe technologie w praktyce, a zwłaszcza Sztuczną Inteligencję i wszystkie tematy związane z analizą danych. To są dziś największe wyzwania - mówi Jowita Michalska, Prezes Fundacji Digital University, organizatora imprezy, wyłącznego przedstawiciela Singularity University w Polsce. Żyjemy w świecie, w którym wiedzą buduje się przewagę konkurencyjną - warto więc w nią inwestować. Na uczestników wydarzenia czekają m.in.: 3 sceny: główna scena Masters & Robots, scena dla młodzieży Masters & Robots Youth oraz scena COINs – poświęcona szczególnie tematyce AI i analityce danych prowadzona przez profesorów z MIT. W trakcie konferencji odbędą się również warsztaty z zagranicznymi ekspertami, wykłady i panele dyskusyjne. Przewidziane są też kameralne spotkania z wykładowcami dla absolwentów programów Singularity University. Wśród tematów poruszanych podczas konferencji będą m.in. przyszłość biznesu (o tym, jak wykorzystywać nowe technologie w organizacji oraz jak prowadzić zwinną, opartą na danych inteligentną firmę), życia (o wykorzystanie najnowszych technologii w urbanistyce, modzie oraz projektowaniu przestrzeni dla pokolenia epoki cyfrowej), medycyny (nowa diagnostyka, sposoby leczenia i rozwiązania, które pozwolą na podniesienie poziomu opieki medycznej). Zaproszeni wykładowcy w większości przypadków po raz pierwszy odwiedzą Polskę i zaprezentują kompletnie nowe rzeczy. A będą to m.in.: Mo Gawdat, były Chief Business Officer w GoogleX, „notoryczny” przedsiębiorca i mentor wielu firm, autor książki „Solve for Happy: Engineer Your Path  to Joy” (2017), gdzie zawarł opracowany przez siebie model szczęścia; Jasna Rokegem, Speaker SXSW, założycielka Jasna Rok – pierwszego studia projektowego FashTech Lab w Belgii łączącego innowacyjną modę z najnowocześniejszymi technologiami; Michael Ventura – Speaker SXSW, CEO & Founder Sub Rosa, autor książki „Applied Empathy”, mentor wielu firm m.in. Johnson & Johnson, Pantone i Adobe; Anahita Moghaddam - założycielka Neural Beings, trenerka Global CEOs, uczennica Dalajlamy; Andrea Fronzetti Colladon - ekspert ds. analityki danych i sztucznej inteligencji, wykładowca MIT, adiunkt na Uniwersytecie w Perugii. Masters & Robots to także wydarzenia towarzyszące, jak np. organizowany 7 października finał międzynarodowego konkursu dla startupów SingularityU Poland GLOBAL IMPACT CHALLENGE. Jego zwycięzca, wybrany spośród finałowej 10-tki, weźmie udział w Global Startup Program – prestiżowym programie akceleracyjnym Singularity University w Dolinie Krzemowej, a także otrzyma zaproszenie do  trzeciej edycji „InCredibles” Sebastiana Kulczyka. Dodatkowym wydarzeniem będzie także HACKATHON, realizowany przed konferencją w dniach 5-6 października wraz z Ambasadą Izraela. Przez 48 godzin programiści z Izraela, Ukrainy i Polski będą pracować nad rozwiązaniem problemu antysemityzmu w Internecie. W trakcie Masters & Robots zostaną zaprezentowani zwycięzcy. Bilety na konferencję można kupić przez https://mastersandrobots.tech/tickets/ Program wydarzenia: https://mastersandrobots.tech/schedule/ Prelegenci: https://mastersandrobots.tech/speakers/ Wydarzenie odbędzie się w 3 lokalizacjach: Multikino Złote Tarasy, ul. Złota 59, Warszawa Google Campus Warsaw, Plac Konesera 10, Warszawa The Heart, Warsaw Spire, plac Europejski 1, Warszawa Organizator: Fundacja Digital University www.digitaluniversity.pl www: https://mastersandrobots.tech/ Wydarzenie na FB:  https://www.facebook.com/events/605070353348287/ Informacja: kontakt@digitaluniversity.pl « powrót do artykułu
  7. Huawei zaprezentowało procesor Ascend 910 oraz framework MindSpore dla platform sztucznej inteligencji. Firma twierdzi, że nowa kość to najpotężniejszy na świecie układ wyspecjalizowany w zadaniach związanych z SI. Po raz pierwszy o pracach nad urządzeniem z rodziny Ascend-Max poinformowano przed rokiem podczas imprezy Huawei Connect. Dla obliczeń zmiennoprzecinkowych połowicznej precyzji (FP16) wydajność układu wynosi 256 TeraFLOPS, a dla obliczeń całkowitych (INT8) jest to 512 TeraOPS. Jednocześnie Ascend 910 charakteryzuje się niedużym poborem mocy. Jest to 310 watów, zatem znacznie mniej niż wstępnie zapowiadane 350 W. Ascend 910 ma być używany do treningu platform sztucznej inteligencji. Twórcy chipa twierdzą, że w połączeniu z MindSpore całość jest około dwukrotnie szybsza niż rozwiązania bazujące na TensorFlow. Zaprezentowany wraz z procesorem framework MindSpore jest kompatybilny ze wszystkimi scenariuszami testowymi. Huawei twierdzi, że w porównaniu z typowymi zastosowaniami NLP (natural language processing) platforma ma 20% mniej linii kodu, a deweloperzy mogą pracować dzięki tej platformie aż o 50% bardziej wydajnie. Przy tym ma wyjątkowo skutecznie dbać o ochronę danych osobowych. « powrót do artykułu
  8. Ostre uszkodzenie nerek (AKI) jest jedną z najczęstszych przyczyn zgonów w szpitalach. W samym tylko 2014 roku doświadczyło go niemal 4 miliony Amerykanów, a każdego roku z jego powodu umierają setki tysięcy ludzi. Ci, którzy przeżyją często wymagają dializowania całymi miesiącami lub latami. Naukowcy z należącej do Google'a firmy DeepMind Health, postanowili zaprząc do pracy sztuczną inteligencję, by ta z wyprzedzeniem identyfikowała pacjentów narażonych na AKI. Zapobieganie ostremu uszkodzeniu nerek nie jest łatwe, gdyż u jego postaw leży wiele przyczyn. Zwykle pojawia się ono podczas rozległych operacji, komplikacji pooperacyjnych lub sepsy, mówi Joseph Vassalotti, nefrolog i prezes ds. medycznych w National Kidney Foundation. Niektóre leki mogą wywoływać też AKI jako skutek uboczny lub też jako reakcję układu odpornościowego, dodaje. Ponadto AKI może pojawiać się w wyniku zablokowania układu moczowego, zawału serca czy poparzeń. Ostre uszkodzenie nerek rozwija się bardzo szybko i przed pojawieniem się niemal nie daje objawów. Są nimi nagły wzrost kreatyniny i spadek funkcji nerek, najczęściej jednak wykrywa się te zjawiska gdy jest już za późno. W DeepMind Health powstał algorytm sztucznej inteligencji, który z 48-godzinnym wyprzedzeniem ma wykrywać ryzyko wystąpienia AKI. Testy wykazały, że ogólna dokładność prognoz algorytmu wynosi 55,8%, jednak dla przypadków cięższych, wymagających późniejszych dializ, trafność ta wynosi już 90,2%. Algorytm był trenowany na danych 703 782 osób pochodzących z bazy Departamentu ds. Weteranów. Były wśród nich informacje dotyczące wyników badań krwi, przyjmowanych leków, zabiegów lekarskich, przyjęć na oddziały szpitalne itp. itd. W sumie w danych znajdowało się ponad 600 000 różnych wskaźników. Na pierwszym etapie badań postanowiono odrzucić wskaźniki nieprzydatne do przewidywania AKI. Za pomocą technik głębokiego uczenia się wyodrębniono grupę 4000 wskaźników, które mogą odgrywać rolę w rozwoju ostrego uszkodzenia nerek. Dzięki temu udało się doprowadzić do sytuacji, gdzie lekarz ma szansę zapobiegać wystąpieniu AKI zamiast starać się ograniczać szkody. Autorzy badań sugerują, że wśród działań zapobiegających u pacjentów, u których może wystąpić AKI, może znaleźć się np. dożylne podawanie płynów, podawanie diuretyków, dodatkowe sprawdzenie, czy przepisane leki nie zaszkodzą nerkom. Vassalotti chwali prace specjalistów z DeepMind, jednak wątpi, czy algorytm przyda się w typowym szpitalu. Przypomina, że dane Departamentu Weteranów są znacznie bardziej dokładne niż typowe dane medyczne, a losy pacjentów trafiających w ciągu życia do różnych lekarzy i placówek medycznych są lepiej śledzone. To zresztą dlatego DeepMind chciało pracować właśnie z tymi danymi. Powstaje więc pytanie, czy algorytm sprawdzi się w sytuacji, gdy szpital nie ma żadnych lub ma niewiele informacji o historii pacjenta sprzed okresu, gdy został on przyjęty do tego szpitala. Ponadto Vassalotti zwraca uwagę na dwie inne słabości algorytmu. Po pierwsze dane kobiet stanowiły zaledwie 6% zestawu treningowego, po drugie algorytm dał dużo fałszywych pozytywnych odpowiedzi. Twórcy algorytmu zauważają, że zdecydowana większość z fałszywych pozytywnych sygnałów dotyczyła ludzi z wcześniejszymi problemami z nerkami. Specjaliści z DeepMind przyznają, że ich algorytm jest na wczesnym etapie rozwoju, przewidują jednak, że w przyszłości będzie go można również zastosować do przewidywania ryzyka wystąpienia sepsy, uszkodzenia wątroby czy komplikacji związanych z cukrzycą. « powrót do artykułu
  9. Inżynierowie z MIT-IBM Watson Lab zaprzęgli do pracy sztuczną inteligencję i stworzyli narzędzie, które zamienia selfie w klasyczne portrety malowane ręką wielkich mistrzów. AIPortraits.com, w przeciwieństwie do popularnej ostatnio aplikacji FaceApp, nie wykorzystuje prostej sztuczki z nakładaniem pewnych elementów na istniejący obraz. Algorytmy, które były trenowane na 45 000 różnych klasycznych portretów, od podstaw tworzą nowe elementy, które będą pasowały do obrazu. Twórcy AIPortraits wykorzystali techniki głębokiego uczenia się, za pomocą których trenowali modele Generative Adversarial Network (GAN). Efekt jest znacznie lepszy niż proste filtry używane przez programy w stylu FaceApp. AIPortraits.com, opierając się na wysłanym zdjęciu, maluje cały portret od podstaw. Algorytm korzysta z wielu różnych stylów charakterystycznych dla mistrzów pędzla: od Rembrandat przez Tycjana po van Gogha. Opierając się na naszym zdjęciu, algorytm decyduje o wyborze stylu tak, by podkreślić elegancję orlego nosa czy szlachetny wygląd czoła. Twórcy AIPortraits.com zapewniają, że nie przechowują przesłanych zdjęć. Służą one jedynie namalowaniu portretu, po czym są natychmiast usuwane. Niestety, nie mogliśmy sprawdzić działania programu. Użytkownicy przeciążyli witrynę i w chwili pisania tekstu była ona wyłączona. « powrót do artykułu
  10. Przed dwoma laty program Libratus wygrał w pokera z czterema zawodowcami. Wielodniowy turniej był rozgrywany w konwencji jeden na jednego, a ludzie ponieśli sromotną klęskę. Dla sztucznej inteligencji był to olbrzymi krok naprzód, jednak nawet współtwórca Libratusa, profesor Tuomas Sandholm, nie wierzył, by SI poradziła sobie jednocześnie z większą liczba graczy. Uczony właśnie udowodnił sam sobie, że się mylił. Sandholm jest współautorem algorytmu o nazwie Pluribus, który właśnie wygrał z sześcioma zawodowcami w nielimitowany Texas Hold'em. Nie sądziłem, że stanie się to możliwe za mojego życia, stwierdził uczony. Dotychczas sztuczna inteligencja coraz lepiej radziła sobie w grach z ludźmi, ale były to rozgrywki jeden na jeden lub drużynowe, dwóch przeciwko dwóm. SI zadziwiała swoimi osiągnięciami w warcabach, szachach, Go oraz pokerze. Wszystkie mecze były rozgrywkami o sumie zerowej. Jedna strona wygrywała, druga przegrywała. Jednak gra przeciwko sześciu osobom to zupełnie inny poziom trudności. Bardziej przypomina to rzeczywiste sytuacje, gdy trzeb podejmować decyzje nie znając zasobów (kart) i procesu podejmowania decyzji przez przeciwników. To pierwszy poważny sprawdzian możliwości SI w sytuacji innej niż pojedynek lub walka dwóch drużyn i gra o sumie zerowej. Po raz pierwszy wyszliśmy poza ten paradygmat i wykazaliśmy, że SI dobrze radzi sobie w takich sytuacjach, mówi współtwórca Pluribusa Noam Brown, zatrudniony w Facebook AI Research. Pluribus zaczynał od rozgrywki, w której brał udział 1 człowiek i 5 niezależnych wersji Pluribusa. Z czasem doszedł do poziomu, w którym mógł wygrać z 5 profesjonalistami jednocześnie. Przeciwnikami sztucznej inteligencji było 15 zmieniających się zawodowych graczy, z których każdy wcześniej wygrał w pokera co najmniej milion dolarów. Rozegrano 10 000 rozdań, a turniej trwał 12 dni. Co prawda Pluribus nie odniósł nad ludźmi tak miażdżącego zwycięstwa jak Libratus, jednak jego osiągnięcia zaskoczyły ekspertów. Istniały pewne dowody wskazujące, że techniki SI wykorzystane w pokerowym pojedynku powinny działać też przy trzech graczach, jednak nie było jasne, czy można je zastosować do większej liczby przeciwników grających na najwyższym poziomie. To naprawdę sensacyjna wiadomość, że sprawdziły się one w meczu sześcioosobowym. To ważny kamień milowy, mówi profesor Michael Wellman z University of Michigan. Pluribus, podobnie jak Libratus, uczył się pokera rozgrywając wiele symulowanych pojedynków sam ze sobą. Jak informują jego twórcy, sukces programu leży w zastosowaniu „wyszukiwania o ograniczonej głębokości”. Mechanizm ten pozwala SI na obliczenie dla wszystkich przeciwników kilku ruchów naprzód i opracowaniu na tej podstawie najlepszej strategii. Tego typu taktykę wykorzystuje wiele programów grających w pokera, jednak jej użycie w przypadku rozgrywki sześcioosobowej wymaga kolosalnych ilości pamięci do przechowania wszystkich możliwych ruchów wszystkich przeciwników oraz wszystkich możliwych zakładów. Libratus radził sobie z tym problemem biorąc pod uwagę jedynie dwie ostatnie rundy podbić. Jednak i tak wymagało to użycia 100 procesorów dla gry dwuosobowej. Pluribus działał nieco inaczej. Brał pod uwagę tylko cztery możliwe zachowania przeciwnika. Jedno to obliczony najbardziej prawdopodobny ruch, drugie w którym przeciwnik skłania się ku pasowi, trzecie gdy przeciwnik raczej wybiera sprawdzenie oraz ostatnie, gdy przeciwnik raczej podbija stawkę. Dzięki temu możliwe było znaczące ograniczenie wymaganych zasobów liczeniowych. Wykorzystane algorytmy były niezwykle wydajne. Dość wspomnieć, że podczas pokazu na żywo Pluribus był uruchomiony na maszynie zawierającej jedynie dwa procesory i 128 GB RAM. To zadziwiające, że w ogóle to się udało i że udało się bez wykorzystywania mocy obliczeniowej procesorów graficznych i innego ekstremalnie wydajnego sprzętu, cieszy się Sandholm. Dość tutaj wspomnieć, że program AlphaGo, który w 2016 roku pokonał w Go Lee Sedola korzystał z 1920 CPU i 280 GPU. Specjaliści z Carnegie Mellon University i Facebooka, którzy stworzyli Pluribusa, opublikują jedynie jego pseudkod, czyli opis kroków niezbędnych do stworzenia podobnego programu. Zdecydowali jednak, że nie upublicznią prawdziwego kodu, by nie ułatwiać rozpowszechniania oprogramowania do gry w pokera. Mogłoby to bowiem zniszczyć zarówno tę dziedzinę działalności gospodarczej jak i społeczność graczy. Wykorzystany algorytm SI może znaleźć zastosowanie wszędzie tam, gdzie trzeba podjąć decyzje bez pełniej wiedzy o tym, co robią lub myślą inni. Przyda się w takich dziedzinach jak cyberbezpieczeństwo, handel, negocjacje biznesowe czy ustalanie cen. Zdaniem Sandhloma może też pomóc podczas zbliżających się wyborów prezydenckich w USA, gdyż pomoże kandydatom na określenie poziomu wydatków potrzebnych do zwycięstwa w kluczowych stanach. Sandholm założył już trzy firmy, które będą świadczyły usługi z wykorzystaniem SI na rynkach biznesowych czy wojskowych,. « powrót do artykułu
  11. Pet-Commerce to internetowy sklep brazylijskiej sieci Petz, w którym dzięki połączeniu technologii rozpoznawania twarzy oraz sztucznej inteligencji pies może kupić swoje ulubione produkty. Wystarczy ustawić kamerę internetową na pysk zwierzęcia. Gdy tylko AI wykryje produkt, który podczas przewijania strony wywołał u psa duże zainteresowanie, zostaje on automatycznie dodany do koszyka. By Pet-Commerce powstał, agencja reklamowa Ogilvy Brazil nawiązała współpracę z trenerem psów Leonardem Ogatą. To on "oświecił" wszystkich w kwestii wyrazów pyska różnych ras i ich znaczenia. Sztucznej inteligencji zaprezentowano tysiące zdjęć psów, tak by mogła się nauczyć lepiej wykrywać szczególiki związane z wyrażaniem zainteresowania przez psy. Stroną produkcyjno-techniczną przedsięwzięcia zajęły się firmy D2G Tecnologia i Hogarth. Produkty z witryny pogrupowano w 3 kategorie: kości, zabawki, piłki. Gdy człowiek klika na dany obiekt, wyświetlają się filmy. Tło jest żółte bądź niebieskie, bo wg Ogaty, to kolory, które psy najlepiej widzą. Poziom zainteresowania psa jest prezentowany za pomocą ikonek w kształcie kości. Witryna przekazuje też ludziom zalecenia, co zrobić, by czworonogowi jak najłatwiej było robić zakupy. Po pierwsze, należy włączyć dźwięk, bo to ważny dla psów zmysł. [Poza tym] pies musi być zrelaksowany, w zabawowym nastroju. Nie należy go podnosić bądź podtrzymywać głowy, bo to może drażnić. Wystarczy nakierować kamerę internetową na jego pysk [...]. Zakup jest dokonywany po potwierdzeniu przez właściciela i wprowadzeniu niezbędnych danych. Na razie Pet-Commerce jest tylko dla psów, ale być może pewnego dnia projekt obejmie też np. koty.   « powrót do artykułu
  12. W książce "Sztuczna inteligencja. Co każdy powinien wiedzieć" Jerry Kaplan analizuje złożone problemy dotyczące sztucznej inteligencji, posługując się jasnym, nietechnicznym językiem. Zastanawia się: • Czy maszyny naprawdę mogą przewyższyć ludzką inteligencję? • Jak sztuczna inteligencja wpłynie na nasze miejsca pracy i dochody? • Czy robot może świadomie popełnić przestępstwo? • Czy maszyna może być świadoma albo posiadać wolną wolę? Wiele systemów sztucznej inteligencji uczy się teraz z doświadczenia i podejmuje działania wykraczające poza zakres tego, do czego zostały pierwotnie zaprogramowane. W związku z tym rodzą się kłopotliwe pytania, na które społeczeństwo musi znaleźć odpowiedź. • Czy naszemu osobistemu robotowi należy pozwolić stać za nas w kolejce albo zmusić go do zeznawania przeciwko nam w sądzie? • Czy tylko my ponosimy wyłączną odpowiedzialność za wszystkie jego działania? • Jeśli załadowanie umysłu do maszyny okaże się możliwe, czy to nadal będziemy my? Odpowiedzi mogą zaskakiwać.
  13. Adrienne Mayor, historyk nauki z Uniwersytetu Stanforda, autorka książki Gods and Robots: Myths, Machines, and Ancient Dreams of Technology, dowodzi, że koncepcja sztucznych istot czy robotów występuje już w mitach i legendach sprzed co najmniej 2700 lat. Nasza zdolność wyobrażenia sobie sztucznej inteligencji datuje się na czasy starożytne. Na długo przed postępami technologicznymi, które sprawiły, że poruszające się samodzielnie urządzenia stały się rzeczywistością, idee tworzenia sztucznego życia i robotów były eksplorowane w mitach. Mayor podkreśla, że najwcześniejsze motywy sztucznej inteligencji, robotów i przemieszczających się samodzielnie obiektów pojawiają się w dziełach Hezjoda i Homera. Wg Mayor, historia Talosa, o której Hezjod wspomina po raz pierwszy ok. 700 r. p.n.e., stanowi jedną z najwcześniejszych koncepcji robota. W mitologii greckiej Talos był olbrzymem wykonanym z brązu przez Hefajstosa. Na rozkaz Zeusa bądź Minosa 3 razy dziennie obchodził Kretę. Strzegł jej przed cudzoziemcami i gdy jakiegoś spostrzegł, rozgrzewał się do czerwoności i brał go w objęcia, paląc żywcem. Walcząc, rzucał olbrzymimi głazami. W jego jedynej żyle, która biegła od szyi do stopy, płynęła boska krew - ichor. W Argonautykach, eposie mitologicznym Apolloniosa z Rodos, napisano, że Medea pokonała Talosa, wyjmując zatykający żyłę od dołu spiżowy kołek. Cała boska krew bluznęła i Talos wyzionął ducha. Hefajstos lubował się w tworzeniu rozmaitych istot. Odlał np. dwadzieścia trójnogów własnym chodzących ruchem. Chciał je pożyczać bogom na zgromadzenia na Olimpie; potem miały samodzielnie wracać do niego (Homer pisze o nich w Iliadzie). Hefajstos stworzył też dwie dziewice, które podpierały go podczas pracy w kuźni. Były one posągami, obdarzonymi przez bogów rozumem, głosem i ruchem. W Theogonii Hezjod wspomina o Pandorze, która została zesłana na Ziemię za karę dla ludzi za to, że Prometeusz ukradł bogom ogień z Olimpu. Na rozkaz Zeusa Hefajstos ulepił ją z gliny i wody. Można by twierdzić, że Pandora była czymś w rodzaju agentki AI. Jej jedyną misją była infiltracja ludzkiego świata i otwarcie puszki z nieszczęściami. Po zesłaniu na Ziemię, żadna z analizowanych opowieści nie kończy się dobrze. To trochę tak, jakby mity mówiły, że dobrze jest, gdy te wszystkie sztuczne byty są używane w niebie przez bogów. Kiedy [bowiem] zaczynają z nich korzystać ludzie, pojawiają się [nieodłączne] chaos i zniszczenie. Jak widać, już w starożytności ludzie byli zafascynowani ideą sztucznego życia. Kiedy jednak powstały pierwsze takie twory? Wiadomo, że w czasach dynastii Han w III w. p.n.e w Państwie Środka cesarzowi grała automatyczna orkiestra. Za rządów dynastii Sui (581-618 r. n.e.) automaty były już rozpowszechnione. Opublikowano nawet dzieło pt. Księga hydraulicznych elegancji. Gdy Chinami rządziła dynastia T'ang (618-907), tutejsi naukowcy umieli zbudować wiele rodzajów automatów, w tym, androidy: żebrzących mnichów czy śpiewające dziewczęta. Mniej więcej 300 lat po upadku tej dynastii prace nad automatami zostały zarzucone. « powrót do artykułu
  14. Obecnie wykorzystywane technologie rozpoznawania obrazów bazują na sztucznej inteligencji. Komputery uczą się odróżniać na zdjęciach i filmach różne przedmioty, ludzi czy zwierzęta. Problem jednak w tym, że proces ten wymaga dużych mocy obliczeniowej i dużych ilości energii, przez co systemy takie nie będą nadawały się np. do przyszłych przenośnych urządzeń medycznych. Naukowcy z Uniwersytetu Stanforda zaprojektowali system, który potrafi znacznie szybciej klasyfikować obrazy, używając przy tym znacznie mniej energii. Samochody autonomiczne mają pod masą dość duże, dość powolne i zużywające dużo energii komputery, mówi profesor Gordon Wetzstein, który stał na czele grupy badawczej. W przyszłości będziemy potrzebowali czegoś szybszego i mniejszego. Wetzstein i Julie Chang postanowili wykonać taki właśnie krok ku przyszłości, tworząc rodzaj optyczno-elektrycznego komputera wyspecjalizowanego w analizie obrazów. Pierwszą warstwą ich prototypowej kamery jest warstwa optyczna, która wstępnie przetwarza obraz. Warstwa druga to tradycyjny komputer. W warstwie optycznej ma miejsce fizyczne przetwarzanie danych z obrazu, który jest po prostu filtrowany na różne sposoby. Jako, że proces ten ma miejsce w miarę przechodzenia światła przez kolejne filtry, całość odbywa się z olbrzymią prędkością i nie wymaga zasilania. Przekazaliśmy optyce część zadań wykonywanych dotychczas przez procesory i sztuczną inteligencję, mówi Chang. W wyniku takiego podejścia cały system ma do przeprowadzenia znacznie mniej obliczeń, znacznie rzadziej odwołuje się do pamięci, a całość trwa znacznie szybciej. Dzięki pominięciu wstępnego przetwarzania obrazu przez procesor osiągnięto wiele korzyści. Pominęliśmy miliony obliczeń, a wszystko to z prędkością światła, mówi Wetzstein. Testy pokazały, że zbudowany prototyp może konkurować pod względem prędkości i dokładności z obecnie używanymi systemami rozpoznawania obrazu. I wystarczy mu do tego znacznie mniej obliczeń. Bez problemu rozpoznawał samoloty, samochody, koty, psy i wiele innych obiektów. Prototyp jest duży, jednak jesto twórcy nie wykluczają, że w przyszłości zostanie zminiaturyzowany na tyle, by mieścić się w kamerze wideo. Przyszłe wersje naszego systemu będzie można wykorzystać do szybkiego podejmowania decyzji np. przez samochody autonomiczne, dodaje Wetzstein. « powrót do artykułu
  15. Samsung zapowiedział inwestycje w wysokości... 161 miliardów dolarów. Dzięki tej olbrzymiej kwocie koncern chce zwiększyć swoje możliwości wytwórcze oraz zaoferować produkty, które zapewnią rozwój w przyszłości. Koreańska firma zainwestuje w sztuczną inteligencję, sieci bezprzewodowe piątej generacji, biofarmację, wyświetlacze, półprzewodniki i "inne kluczowe programy", poinformowali przedstawiciele Samsunga. Kolosalna kwota zostanie wydana w ciągu zaledwie trzech lat, a niemal 3/4 pieniędzy będą inwestowane w Korei Południowej. Samsung od dawna ma opinię firmy, która agresywnie inwestuje, nawet w czasach, gdy konkurencja zmniejsza poziom inwestycji. Dzięki takiej polityce stał się jednym z największych na świecie producentów układów scalonych. Dobrym przykładem jest właśnie wybudowana przez Samsunga największa na świecie fabryka smartfonów. Powstała ona, pomimo że udziały koreańskiej firmy w chińskim rynku uległy zmniejszeniu. Władze Samsunga uważają, że dzięki inwestycjom w sztuczną inteligencję ich firma stanie się jeszcze bardziej innowacyjna, a inwestycje w technologię 5G wspomogą rozwój Internet of Things, robotyki i autonomicznych samochodów. Dlatego też w swoich AI Centers Samsung chce zwiększyć liczbę naukowców do 1000 i ma zamiar stać się światowym potentatem na rynku układów scalonych, urządzeń i wyposażenia 5G. Chce też stać się liderem układów scalonych na rynku autonomicznych samochodów. Firma zainwestuje też w badania podstawowe, które mają w przyszłości wspomóc rozwój technologii, którymi jest zainteresowana. Wspólnie z rządem Korei Samsung założy też i będzie prowadził centra programistyczne w całym kraju. Ma w nich pobierać naukę 10 000 osób. Firma zacieśni też współpracę z czołowymi krajowymi instytutami naukowymi. Oświadczenie o wielkich inwestycjach zostało wydane kilka dni po spotkaniu rządzącego de facto Samsungiem Lee Jae-yonga z koreańskim ministrem finansów Kim Dong-yeonem. « powrót do artykułu
  16. Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go. My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu. My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas. Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe. Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych. « powrót do artykułu
  17. Norman to psychopata. Na szczęście nie jest prawdziwy. To sztuczna inteligencja stworzona na MIT, której rozwojem pokierowano tak, by wykazywała cechy psychopatyczne. Inspiracją dla powstania algorytmu był Norman, bohater filmu Psychoza Hitchcocka. Praca nad Normanem, podobnie jak nad innymi algorytmami sztucznej inteligencji, rozpoczęła się on jego nauczania na bazie materiałów dostępnych w internecie. Jednak zamiast przeglądać przyjemne i neutralne obrazy, Normana skierowano do bardziej mrocznej części internetu. Zadaniem algorytmu było przeglądanie dziwacznych grafik i obrazów, jakie wymieniają między sobą użytkownicy jednego z forów serwisu Reddit. Po takim treningu Normana poproszono o rozwiązanie testu Rorschacha. To znany test plam, w których badani mają rozpoznawać kształty czy obrazy. Zgodnie z oczekiwaniami, Norman dawał dziwaczne odpowiedzi na plamy. Przy planszy 9. w której standardowa sztuczna inteligencja widzi czarno-białe zdjęcie czerwono-białego parasola, Norman widział człowieka poddawanego wstrząsom elektrycznym podczas próby przechodzenia przez ruchliwą ulicę. Z kolei plansza 10., która standardowej SI kojarzy się ze zbliżeniem na tort weselny stojący na stole, dla Normana była grafiką przedstawiającą człowieka zabitego przez pędzący samochód. Twórcy psychopatycznej SI oświadczyli, że Norman ucierpiał od ciągłej ekspozycji na najciemniejsze zakamarki Reddita. Całość może być zabawną wprawką dla twórców inteligentnych algorytmów, pokazuje jednak pewną ważną rzecz. Zachowanie SI jest w dużej mierze zdeterminowane informacjami, jakie zdobywa podczas nauki. Oczywiście to nic nowego. Wystarczy przypomnieć sobie microsoftowego bota, którego koncern z Redmond postanowił skonfrontować w internautami. W ciągu 24 godzin bot stał się rasistą i został wyłączony. « powrót do artykułu
  18. Microsoft kupił firmę Semantic Machines z Berkeley, która pracuje nad sztuczną inteligencją zdolną do nawiązania dialogu z człowiekiem. Obecnie SI dopiero uczy się rozmawiać. Zdecydowana większość botów i inteligentnych asystenów potrafi jedynie reagować na proste komendy lub słowa. Maszyny nie są w stanie zrozumieć języka naturalnego. Semantic Machines wykorzystuje metody nauczania komputerowego, dzięki czemu SI ma łatwiej i szybciej przyswajać umiejętności potrzebne do prowadzenia naturalnego dialogu z człowiekiem. Główną siłą Semantic Machines jest jej kadra. Firma została założona przez przedsiębiorcę Dana Rotha oraz czołowych światowych ekspertów od naturalnego języka i sztucznej inteligencji profesora Dana Kleina z Uniwersytetu Klifornijskiego w Berkeley oraz Larry'ego Gillick, który w był zatrudniony w Apple'u jako główny naukowiec odpowiedzialny za rozwój Siri. W zespole znajdziemy też profesora Percy'ego Lianga z Uniwersytetu Stanforda, który w przeszłości pracował dla Google'a nad technologiami SI dla Google Assistanta. Sam Microsoft od ponad 2 dekad prowadzi własne badania nad rozpoznawaniem mowy i rozumieniem języków naturalnych przez maszyny. Koncern stworzył framework do budowy botów i rozwija cyfrową asystentkę Cortanę. Pracuje też nad społecznościowymi czatbotami, takimi jak np. XieoIce, w którego bazie danych znajduje się ponad 30 miliardów rozmów z 200 milionami użytkowników z Chin, Japonii, USA, Indii i Indonezji. Średnia długość takiej rozmowy to 30 minut. « powrót do artykułu
  19. Na początku swojej działalności Google przyjęło znane motto „Don't be evil”. Jak przyznaje jego pomysłodawca, motto miało być m.in. formą przytyku do konkurencji, która, w Google'a, źle traktowała swoich użytkowników. Niektórzy z pracowników koncernu najwyraźniej wzięła sobie hasło o nieczynieniu zła do serca i zrezygnowali w proteście przeciwko podpisaniu przez Google'a umowy z Pentagonem. Z pracy w Google'u zrezygnowało około 10 osób, które chciały w ten sposób zaprotestować przeciwko wsparciu przez wyszukiwarkowego giganta programu pilotażowego o nazwie Project Maven. To program, który zakłada wykorzystanie sztucznej inteligencji na polu walki. W ramach umowy pomiędzy Google'em a Pentagonem koncern opracuje technologie przyspieszające automatyczną interpretację obrazów z dronów. Mają być one sprawniej klasyfikowane jako ludzie i inne obiekty. Osoby, które zrezygnowały w związku z tym z pracy mówią, że podpisanie takiego kontraktu oznacza naruszenie zasad etycznych firmy. Z pracy zrezygnowało niewiele osób, ale ponad 4000 pracowników Google'a podpisało petycję, w której sprzeciwiają się udziałowi Google'a w projektach Pentagonu, chcąc wypowiedzenia wspomnianej umowy i domagają się wprowadzenia zasad wprost zabraniających firmie udziału w przyszłych projektach wojskowych. Osoby, które zrezygnowały z pracy skarżą sie, że kierownictwo firmy w ostatnich czasach prowadzi mniej przejrzystą politykę i mniej słucha sugestii pracowników. W pewnym momencie zdałem sobie sprawę, że wiedząc to, co wiem, nie mogę z czystym sumieniem polecić komuś pracy w Google'u. Stwierdziłem też, że skoro nie mógłbym nikomu polecić pracy tutaj, to co sam tutaj robię?, mówi jeden z byłych już pracowników. Pracownicy nie są jedynymi zaniepokojonymi zaangażowaniem Google'a w projekty militarne. International Committee for Robot Arms Control wystosował list otwarty, w którym wzywa Google'a do wycofania się z prac nad Project Maven i do wsparcia projektu międzynarodowego traktatu zakazującego rozwijania autonomicznych systemów bojowych. Zdaniem tej organizacji zaangażowanie Google'a przyspieszy rozwój w pełni autonomicznej broni. Jesteśmy też głęboko zaniepokojeni możliwym zintegrowaniem posiadanym przez Google'a danych na temat internautów z wywiadowczymi danymi wojskowymi i z wykorzystaniem tak połączonych informacji do zabijania konkretnych osób, czytamy w apelu. Zaangażowanie się Google'a w amerykańskie projekty wojskowe każe też zadać sobie pytanie o posiadane przezeń dane dotyczące użytkowników w innych krajach. Jeśli zostaną one użyte w celach wojskowych, to z pewnością ucierpi na tym zaufanie do Google'a. Musiałem sobie przypomnieć, że decyzje Google'a nie są moimi decyzjami. Nie odpowiadam za to, co oni robią. Jednak czuję się odpowiedzialny, gdy pomagam w czymś, z czym się nie zgadzam, mówi jeden z pracowników, którzy zrezygnowali z pracy w Google'u. « powrót do artykułu
  20. Padła kolejna bariera oddzielająca ludzką i sztuczną inteligencję. Program Libratus rozgromił światową czołówkę pokerzystów. W nielimitowanym Texas Hold'em sztuczna inteligencja zdobyła na ludziach 1.766.250 dolarów. Dong Kim przegrał z Libratusem 88.649 USD, Jimmy Chou zubożał o 522.857 dolarów, Jason Les stracił 880.087 USD, a Daniel McAulay musiał zapłacić 277.657 USD. Turniej Brains vs. Artificial Intelligence trwał od 11 do 30 stycznia i był rozgrywany w godzinach od 11.00 do 19.00. Składał się w sumie ze 120 000 rozdań. Libratus powstał na Carnegie Mellon University i jest dziełem profesora Tuomasa Sandholma i doktoranta Noama Browna. Podczas uczenia się pokera program nie korzystał z doświadczeń ludzkich graczy. Zaimplementowano mu zasady gry, które miał przeanalizować, a później - na podstawie około 15 milionów godzin obliczeń w Pittsburgh Supercomputing Center - opracowywał własną strategię. Udoskonalał ją też w czasie turnieju. Nie uczyliśmy Libratusa grać w pokera. Daliśmy mu zasady i kazaliśmy się uczyć samemu - mówi Brown. Początkowo rozgrywki były niezwykle chaotyczne, program zgrywał przypadkowe karty. Jednak po bilionach rozdań opracował skuteczną strategię. Przed wielu laty oprogramowanie komputerowe zadziwiło świat wygrywając w szachy z arcymistrzem. Niedawno rozgromiło też mistrza Go. Zwycięstwo w pokerze pokazuje, że algorytmy sztucznej inteligencji przekroczyły kolejną granicę. Poker znacząco różni się bowiem od szachów czy Go. Gracze nie znają stanu rozgrywki, gdyż nie wiedzą, jakie karty ma przeciwnik. Dochodzi tutaj też element losowy, gdyż to on decyduje, kto jakie karty dostanie oraz element blefu. To tak złożone wyzwanie, że dotychczas badacze zajmujący się SI nie radzili sobie z nim, stwierdza Sandholm. Uczony dodaje, że sam nie był pewien możliwości Liberatusa. Międzynarodowe witryny z zakładami stawiały 4:1 przeciwko naszemu programowi. Okazało się jednak, że wszystko to nie stanowi dla Libratusa większego problemu. Sztuczna inteligencja była w stanie prawidłowo interpretować blef, używany przez ludzkich przeciwników, i... sama blefowała, co zaskoczyło jej twórców. Gdy zobaczyłem, że Liberatus blefuje, zdziwiłem się. nie uczyłem go tego. Nie sądziłem, że jest do tego zdolny. Jestem dumny z faktu, że stworzyłem coś, co potrafi tego dokonać - mówi Brown. Libratus był znacznie lepszy niż sądziliśmy. To nieco demoralizujące, mówi Jason Les, który przed dwoma laty był grupie graczy, którzy rozgromili SI Claudico. Tutaj codziennie wstawaliśmy i przez 11 godzin na dobę byliśmy ogrywani. To zupełnie inne doświadczenie emocjonalne - dodaje. Gracze mogli też uczyć się od Libratusa, który stosował agresywną strategię, stawiał duże sumy, by wygrać małe kwoty. Ludzie tak normalnie nie grają, ale to wymusza na tobie ciągłą koncentrację uwagi - dodaje Les. Zastosowane w Libratusie algorytmy nie są wyspecjalizowane w pokerze. A to oznacza, że będzie można zastosować je w wielu dziedzinach, od gier komputerowych, poprzez negocjacje biznesowe, po branże bezpieczeństwa, wojskową czy medyczną - wszędzie tam, gdzie potrzebne jest strategiczne myślenie w oparciu o niepełne informacje. Poker to najmniejsze zmartwienie. Mamy tutaj maszynę, która może skopać ci tyłek w biznesie i zastosowaniach wojskowych. Martwię się, jak ludzkość sobie z tym poradzi - stwierdził profesor Roman V. Yampolskiy z University of Louisville. « powrót do artykułu
×
×
  • Create New...