Jump to content
Forum Kopalni Wiedzy
  • ×   Pasted as rich text.   Paste as plain text instead

      Only 75 emoji are allowed.

    ×   Your link has been automatically embedded.   Display as a link instead

    ×   Your previous content has been restored.   Clear editor

    ×   You cannot paste images directly. Upload or insert images from URL.

  • Similar Content

    • By KopalniaWiedzy.pl
      Gdy robimy zakupy online zwykle wpisujemy kilka wyrazów i liczymy na to, że wyszukiwarka poda nam prawidłowy wynik. Od naszej strony wygląda to banalnie prosto, jednak dopasowanie odpowiedniego produktu wśród milionów innych to nie lada wyzwanie. Dla firm zajmujących się handlem on-line właściwy algorytm może być żyłą złota.
      Badacze z Rice University i Amazona poinformowali właśnie o dokonaniu ważnego przełomu, dzięki któremu rozwiązanie problemów związanych z dopasowaniem, czy to w algorytmach do wyszukiwania towarów w sklepie czy algorytmach tłumaczenia pomiędzy językami, będzie wymagało znacznie mniej zasobów niż obecnie.
      Czas treningu naszego algorytmu jest 7-10 razy krótszy, a potrzebna ilość pamięci 2-4 razy mniejsza niż w najlepszych podobnych systemach, mówi główny autor badań profesor Anshumali Shrivastava. Mamy milion słów w języku angielskim, ale z pewnością online dostępnych jest ponad 100 milionów produktów, informuje doktorant Tharun Medini.
      Miliony ludzi codziennie dokonują zakupów, a każdy robi to na swój sposób. Niektórzy wpisują słowa kluczowe, inni zadają pytania. Wiele osób nie ma też sprecyzowanych oczekiwań. Jako że każdego dnia dokonywane są w ten sposób miliony wyszukiwań, firmy takie jak Google, Amazon czy Microsoft dysponują olbrzymimi bazami danych. Służą one m.in. do maszynowego uczenia algorytmów. Ich twórcy ciągle je udoskonalają, by jak najlepiej dopasować wynik wyszukiwania do potrzeb kupującego.
      Systemy do głębokiego uczenia się, sieci neuronowe do olbrzymie zestawy równań, które przetwarzają dane wprowadzane przez użytkownika w dane wynikowe. Zestawy takie pogrupowane są w matryce, coraz bardziej uściślające wynik wyszukiwania. Dane trafiają do pierwszej matrycy, następnie do kolejnej i następnej. Modele takie zawierają miliardy różnych parametrów służących uzyskaniu jak najlepszych danych wyjściowych. Informacje, jakie w wyszukiwarce sklepu internetowego wprowadza użytkownik mogą dać wiele różnych wyników, dlatego też są przetwarzane w bardzo złożony sposób, by jak najlepiej dopasować wynik do oczekiwania użytkownika. Modele do głębokiego uczenia się tak bardzo rozbudowane i korzystają z tak olbrzymich zestawów danych, że trening przeprowadza się na maszynach, które można uznać z superkomputery.
      Siec neuronowa, która przyjmuje dane wejściowe i dopasowuje je do 100 milionów możliwych danych wyjściowych, czyli produktów, zwykle zawiera 2000 parametrów na każdy produkt. Zatem ostateczna warstwa obliczeniowa tej sieci zawiera 200 miliardów parametrów. Przechowywanie tych 200 miliardów parametrów wymaga około 500 gigabajtów pamięci. Jeśli jednak przyjrzymy się współczesnym algorytmom uczącym, zobaczymy, że w słynnym algorytmie Adam na każdy parametr przypadają dwa dodatkowe służące monitorowaniu i statystykom. Robi nam się z tego 1,5 terabajta pamięci potrzebnej modelowi do pracy. A nie doszliśmy jeszcze do rozmiarów bazy danych. Najlepsze procesory graficzne, wykorzystywane do obliczeń tego typu, obsługują 32 gigabajty pamięci, więc trenowanie takiego modelu wymaga olbrzymiej liczby GPU i szybkiej komunikacji pomiędzy nimi, stwierdza Medini.
      Uczeni z Rice'a opracowali nowy model o nazwie MACH (merged-average classifiers via hashing). To algorytm typu "dziel i zwyciężaj". Aby go zrozumieć, proponują eksperyment myślowy. Należy przypadkowo podzielić wspomniane 100 milionów produktów na trzy klasy. "Powiedzmy, że w wrzucę do jednego worka iPhone'y z t-shirtami. Ze 100 milionów danych wyjściowych robią mi się raptem trzy". W proponowanym eksperymencie myślowym mamy więc 3 worki z produktami. I dwa różne światy. Co oznacza, że w każdym ze światów każdy produkt może znajdować się w innym worku. System klasyfikujący jest trenowany tak, by podawane przez użytkownika dane wejściowe przypisywał do worka, a nie do konkretnego produktu.
      Podajemy dane wejściowe dla wyszukiwania w świecie numer jeden i otrzymujemy wynik: „worek 3”. Następnie to samo wyszukiwanie jest dokonywane w świecie numer dwa i otrzymujemy wynik: „worek 1”. Co to oznacza? Że produkt, którego poszukuję, należy do klasy produktów znajdujących się w obu światach w obu wspomnianych workach. Jeśli policzymy liczbę możliwych rozwiązań to otrzymamy 3 w jednym świecie razy 3 w drugim świecie. W ten sposób redukujemy przestrzeń wyszukiwania 1:9 i tworzymy tylko sześć klas przedmiotów. Jeśli dodamy jeszcze jeden świat z kolejnymi trzema workami, trzykrotnie zwiększymy liczbę powiązań. Mamy więc teraz 27 możliwości, zmniejszyliśmy przestrzeń wyszukiwania do 1:27, ale koszt wyszukiwania to przeszukanie jedynie 9 klas. Zwiększamy więc koszt linearnie, ale możliwości wyszukiwania zwiększają się wykładniczo.
      Specjaliści wykorzystali do swoich badań sklep Amazona, w którym znajduje się 49 milionów produktów. Podzielili te produkty na 10 000 klas (worków) i cały proces powtórzyli 32 razy. W ten sposób liczba parametrów wykorzystanych przez model zmniejszyła się z około 100 miliardów do 6,4 miliarda, a trening modelu wymagał mniej czasu i mniej dostępnej pamięci niż porównywalnych modeli, mówi Medini.
      Naukowiec zauważa, że jedną z najważniejszych cech modelu MACH jest fakt, że nie wymaga on komunikacji pomiędzy procesorami. W naszym eksperymencie myślowym ten brak komunikacji jest reprezentowany przez oddzielne światy. One nie muszą wymieniać się danymi. Możemy przeprowadzić cały proces na pojedynczym GPU, czego nigdy wcześniej nie udało się dokonać, cieszy się Medini.
      Ogólnie rzecz ujmując, trenowanie tego typu algorytmów wymaga ciągłej komunikacji pomiędzy parametrami, co oznacza, że wszystkie uruchomione procesory muszą dzielić się informacjami. Komunikacjach zużywa olbrzymie zasoby systemów do głębokiego uczenia się. Google ma ambicję stworzenia sieci korzystającej z biliona parametrów. MACH, w chwili obecnej, nie może być używany do rozwiązywania przypadków z niewielką liczbą klas, ale tam, gdzie mamy do czynienia z zagadnieniami ekstremalnej klasyfikacji udało nam się spowodować, by system działał bez potrzeby komunikacji pomiędzy procesorami, stwierdza Shrivastava.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić.
      Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem.
      W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo.
      DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino.
      Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały.
      Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner.
      DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować.
      CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu.
      Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”.
      Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Flight Simulator to jedna z najbardziej znanych i popularnych gier Microsoftu oraz jeden z najlepszych i najdłużej publikowanych symulatorów lotu. Jednak znany jest głównie starszym miłośnikom gier, gdyż ostatnia pełna wersja Microsoft Flight Simulator X ukazała się w 2006 roku.
      Mamy jednak dobrą wiadomość dla jej miłośników. Koncern z Redmond ogłosił, że w przyszłym roku opublikuje kolejną wersję Flight Simulatora. Firma nie zdradziła, niestety, zbyt wielu szczegółów.
      Jedyne co wiemy, to że gra będzie nazywać się po prostu Microsoft Flight Simulator oraz że przy jej produkcji korzystano z danych satelitarnych oraz algorytmów sztucznej inteligencji działających na chmurze Azure. Dzięki temu gra wygląda – przynajmniej na udostępnionym materiale wideo – bardzo realistycznie. Przedstawiciele Microsoftu poinformowali również, że ukażą się wersje dla Xboksa oraz pecetów. Nie wiadomo za to, kiedy nastąpi premiera gry, jaka będzie jej cena ani czy będzie ona wspierała dodatki stworzone przez firmy trzecie.
      Historia Flight Simulatora sięga roku 1976, kiedy to Bruce Artwick zaczął publikować serię artykułów na temat grafiki 3D. Gdy czytelnicy zgłaszali chęć kupna odpowiedniego programu, Artwick założył firmę, która zajęła się sprzedażą symulatora lotu na różne platformy. W 1982 roku licencję na wersję dla IBM PC z grafiką CGA kupił Microsoft. Na rynek trafił Microsoft Flight Simulator 1.00. W latach 1982–2006 ukazało się w sumie 12 pełnych wersji gry. Ostatnią bił Microsfot Flight Simulator X z 2006 roku, który w roku 2014 zyskał swoją edycję dla platformy Steam. Na kolejną wersję gry jej miłośnicy musieli poczekać aż 14 lat.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na paskach bambusowych (jiǎndú) z pochówku Liu He, cesarza Chin z dynastii Han, który panował przez 27 dni pomiędzy 18 lipca a 14 sierpnia 74 p.n.e., znajdują się inskrypcje z zaginionymi od wieków zasadami gry planszowej liubo. W grobowcu w Nanchangu odkryto ponad 5200 pasków. Zasady starożytnej "planszówki" dla 2 graczy spisano na ponad 1000 z nich. Potwierdzili to naukowcy z Uniwersytetu Pekińskiego.
      Liubo ma ponad 2 tysiące lat. Uznaje się, że to poprzedniczka Xiangqi, czyli chińskich szachów. Za czasów dynastii Han była bardzo popularna. Później zainteresowanie nią spadało. Choć gra jest nadal wspominana w niektórych źródłach historycznych i poezji dynastii Tang (618-907), wydaje się, że została w dużej mierze wyparta i zastąpiona go.
      Zhu Fenghan, dyrektor Instytutu Badań nad Tekstami z Wykopalisk, podkreśla, że dokładne zasady liubo znaleziono po raz pierwszy. Dotąd grę znano ze starożytnych tekstów i plansz oraz kostek/pionków z grobowców z okresu Zachodniej Dynastii Han.
      Zhu uważa, że dalsza analiza bambusowych pasków pozwoli archeologom zrekonstruować zasady gry.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Czy można skojarzyć prehistorycznego rekina słodkowodnego z japońską grą zręcznościową Galaga z 1981 r.? Jeśli zęby ryby przypominają kształtem statki ze strzelanki, to jak najbardziej tak. W ten sposób zwierzę, które ok. 67 mln lat temu pływało w rzekach dzisiejszej Dakoty Południowej, zyskało nazwę Galagadon nordquistae.
      Choć dziś może to brzmieć dziwnie, ok. 67 mln lat temu teren dzisiejszej Dakoty Południowej pokrywały lasy, bagna i meandrujące rzeki - opowiada Terry Gates z Uniwersytetu Stanowego Dakoty Południowej.
      Drobne zęby, których średnica nie przekracza milimetra, znaleziono w osadach pozostałych po odkryciu kości Sue, obecnie najbardziej kompletnego okazu T. rex. Przy pomocy Karen Nordquist Gates przesiał niemal 2 tony materiału. Łącznie duet wydobył ponad 24 zęby nowego gatunku.
      Zachwyca mnie, że mikroskopijne zęby rekina możemy znaleźć tuż obok kości jednego z największych lądowych drapieżników wszech czasów. Zęby, o których mówię, mają wielkość ziarnka piasku. Bez mikroskopu po prostu by się je wyrzuciło - opowiada Gates.
      Galagadon nie polował [oczywiście] na tyranozaury, triceratopsy czy inne dinozaury, które zapuszczały się do strumieni. Jego zęby nadawały się do chwytania małych ryb czy miażdżenia ślimaków i rakowców.
      G. nordquistae był raczej nieduży - miał 30-45 cm długości. Był spokrewniony z współczesnymi rekinami dywanowymi.

      « powrót do artykułu
×
×
  • Create New...