Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'sztuczna inteligencja' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 11 wyników

  1. Jak dowiedzieli się reporterzy Reutersa, Amazon stworzył algorytm sztucznej inteligencji, który miał pomóc w rekrutacji pracowników. Narzędzie zostało jednak porzucone gdy okazało się, że... dyskryminuje kobiety. W 2014 roku w Amazonie powstał specjalny zespół, którego zadaniem było zbudowanie automatycznego asystenta biorącego udział w rekrutacji. Chcieli, by to działało w ten sposób, że dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych i tych ludzi się zatrudnia, mówi osoba zaznajomiona ze sprawą. Narzędzie miało przyznawać każdemu z kandydatów od 1 do 5 gwiazdek i na tej podstawie wskazywać osobie prowadzącej rekrutację, na kogo warto zwrócić uwagę. Amazon stworzył 500 modeli komputerowych, które przeanalizowały CV znajdujące się w bazie danych firmy i wybrały z nich 50 000 kluczowych terminów. W 2015 roku narzędzie było gotowe. Miało ono przeczesywać sieć w poszukiwaniu odpowiednich kandydatów. Okazało się jednak, że SI najwyraźniej nie lubi kobiet. Stało się tak prawdopodobnie dlatego, że było trenowane na CV kandydatów do Amazona z ostatnich 10 lat. A o pracę starli się tam głównie mężczyźni. Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły. Inżynierowie Amazona naprawili te problemy, jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom. Amazon twierdzi, że narzędzie nigdy nie zostało wdrożone. Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja. To tym większy problem, że coraz więcej firm chce automatyzować część procesu rekrutacji. W 2017 roku przeprowadzono badania, z których wynika, że 55% amerykańskich menedżerów HR uważa, iż w ciągu najbliższych pięciu lat SI będzie standardowo wykorzystywane w ich pracy. Ze zdobytych przez Reutersa informacji wynika, że Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów. « powrót do artykułu
  2. W ubiegłym tygodniu podczas International Conference on Machine Learning (ICML) grupa naukowców pokazała żółwia wydrukowanego techniką 3D. Dla ludzi żółw wyglądał niemal jak żywy. Jednak algorytmy sztucznej inteligencji rozpoznały w obiekcie... strzelbę. W innym przypadku kij baseballowy wykonany techniką druku 3D został przez SI uznany za... filiżankę espresso. Na naszych oczach sztuczna inteligencja, systemy maszynowego uczenia się, czynią tak wielkie postępy, że coraz częściej podnoszą się głosy zaniepokojenia, ostrzegające nas przed zbytnim rozwijaniem inteligencji maszyn. Jednak, jak się okazuje, systemy SI są zdumiewająco podatne na ataki. A w ostatnim czasie eksperci coraz częściej prezentują nam przykłady takich ataków. My, którzy pracujemy nad maszynowym uczeniem się nie jesteśmy przyzwyczajeni, by myśleć o bezpieczeństwie naszych systemów, mówi jeden z twórców żółwia 3D i badań nad atakiem na AI, Anish Athalye z MIT. Specjaliści zajmujący się sztuczną inteligencją mówią, że przeprowadzenie takich ataków jest bardzo użyteczne z naukowego punku widzenia. Pozwalają one bowiem analizować sposób działania sieci neuronowych, które obecnie nie są dobrze rozumiane. Ataki to wspaniałe szkło powiększające, przez które możemy lepiej zrozumieć to, co nazywamy maszynowym uczeniem, mówi Dawn Song z Uniwersytetu Kalifornijskiego w Berkeley. W ubiegłym roku Song i jej koledzy umieścili na standardowym znaku drogowym „STOP” kilka naklejek, które spowodowały, że system SI uznał znak za... ograniczenie prędkości do 45 mil na godzinę. Nietrudno wyobrazić sobie konsekwencje takiego ataku na samochód autonomiczny. Ataki można podzielić na takie, w których napastnik ma wiedzę o algorytmach wykorzystywanych przez system i na takie, w których algorytmów tych nie zna. W pierwszym przypadku może obliczyć, w jaki sposób należy zmienić dane wejściowe do systemu wykorzystującego dane algorytmy, by otrzymać pożądane dane wyjściowe. W ten sposób można np. manipulować obrazem tak, by dla człowieka nie wyglądal on na zmanipulowany, ale by sztuczna inteligencja źle go rozpoznała. Bardziej wymagające są ataki, gdy nie znamy algorytmów. Wówczas napastnik zna tylko danej wejściowe i wyjściowe. Przeprowadzenie takiego ataku jest trudne, ale nie niemożliwe. Podczas ostatniego ICML Athalye i jego zespół zaprezentowali tego typu atak przeciwko usłudze Google Cloud Vision. W sposób niewidoczny dla człowieka zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa. Jednym ze sposobów na uchronienie się przed tego typu atakami jest stworzenie formuły, pozwalającej algorytmom SI zweryfikować, czy dobrze rozpoznały dany obiekt. Jeśli możesz przeprowadzić weryfikację, oznacza to koniec zabawy dla napastników, mówi Pushmeet Kohli z DeepMind. Podczas ICML zaprezentowano nawet dwa takie algorytmy weryfikujące. Problem w tym, że obecnie nie da się ich skalować na duże sieci neuronowe współczesnych SI. Co prawda Kohli twierdzi, że w przyszłości się to uda, jednak Song uważa, że w świecie praktycznych zastosowań będą one miały poważne ograniczenia. Nie istnieje matematyczna definicja tego, kim jest pieszy. Czy możemy więc udowodnić, że autonomiczny samochód w żadnym przypadku nie uderzy w pieszego? Nie możemy, stwierdza uczona. « powrót do artykułu
  3. Ponad 50 ekspertów zajmujących się sztuczną inteligencją wezwało do bojkotu Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST). Zdaniem naukowców, prowadzone przez KAIST badania mogą prowadzić do trzeciej rewolucji w działaniach wojennych. KAIST ściśle współpracuje z największym koreańskim producentem uzbrojenia, firmą Hanwha Systems. Ekspertów zaniepokoił fakt, że niedawno obie instytucje powołały do życia Centrum Badań nad Konwergencją Obrony Narodowej i Sztucznej Inteligencji. Zdaniem naukowców z całego świata, centrum takie może doprowadzić do wyścigu zbrojeń, których celem będzie opracowanie autonomicznych systemów bojowych. Sygnatariusze listu oświadczyli, że nie będą współpracowali z KAIST dopóty, dopóki uczelnia nie zapewni, że nowo powołane centrum badawcze nie będzie prowadziło prac nas autonomiczną bronią. Autonomiczne systemy bojowe, jeśli powstaną, doprowadzą do trzeciej rewolucji w działaniach zbrojnych. Pozwolą one prowadzić wojny szybciej i na większą skalę niż kiedykolwiek wcześniej. Mogą stać się narzędziem do siania terroru. Dyktatorzy i terroryści będą mogli użyć ich przeciwko niewinnym cywilom, uwalniając się ze wszystkich ograniczeń etycznych. Jeśli otworzymy tę puszkę Pandory, trudno będzie ją zamknąć. Możemy jednak zdecydować, że nie będziemy rozwijali takich technologii. Tak, jak w przeszłości zdecydowaliśmy, że nie będziemy np. rozwijali lasera do oślepiania ludzi. Wzywamy KAIST właśnie do takiego postępowania i do prac nad SI, która udoskonala ludzkie życie, a nie mu szkodzi. Organizator bojkotu, profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii powiedział, że rozwój autonomicznych systemów bojowych tylko pogorszy sytuację na Półwyspie Koreańskim. Jeśli ta broń się pojawi, to w końcu będzie miała ją też Korea Północna, która bez najmniejszych wyrzutów sumienia użyje jej przeciwko Południu, stwierdził Walsh. Korea Południowa jest światowym liderem w dziedzinie rozwoju autonomicznych systemów bojowych. Wzdłuż Koreańskiej Strefy Zdemilitaryzowanej rozmieszczono m.in. systemy Samsung SGR-A1. To pierwsze roboty bojowe wyposażone w systemy do nadzoru, śledzenia, prowadzenia ognia i rozpoznawania głosu. Prezydent KAIST, Sung-Chul Shin mówi, że uczelnia nie prowadzi prac nad autonomicznym uzbrojeniem. « powrót do artykułu
  4. Naukowcy z University of Washington i Allen Institute for AI nauczyli system sztucznej inteligencji reagować jak pies. Wykorzystali przy tym dane zebrane od prawdziwego zwierzęcia. Szczegóły badań zostaną przedstawione podczas Conference on Computer Vision and Pattern Recognition. Celem badaczy było stworzenie systemu reagującego w określonych warunkach jak prawdziwy pies. Modelowym zwierzęciem był malamut, którego wyposażono w kamerą GoPro i mikrofon na głowie, czujniki ruchu na całym ciele oraz komputer Arduino, który zbierał i przetwarzał dane. Na ich podstawie SI miała za zadanie przewidzieć przyszłe zachowania zwierzęcia, zaplanować zadanie i nauczyć się psiego zachowania. Naukowcy chcieli w ten sposób sprawdzić, czy ich SI będzie w stanie przewidzieć, co zrobi pies np. po spotkaniu w parku wiewiórki. W sumie nagrano 24500 klatek wideo, które zsynchronizowano z dźwiękiem i ruchmi ciała. Do nauki SI wykorzystano 21000 klatek, a resztę użyto podczas testów. Autorzy badań donoszą, że cały system działa bardzo dobrze, a zadania, które uznano za najbardziej wymagające, wykonuje lepiej niż przewidziano. Na razie jednak SI nie była połączona z żadnym robotem. Całość prac prowadzono na komputerze. Najprawdopodobniej jednak w niedalekiej przyszłości powstanie pies-robot, który dzięki systemowi sztucznej inteligencji będzie zachowywał się jak prawdziwy pies. « powrót do artykułu
  5. KopalniaWiedzy.pl

    Uniwersalny test na inteligencję

    W realność powstania sztucznej inteligencji niektórzy powątpiewają, inni są o jej powstaniu przekonani, spodziewając się nawet, że przewyższy ona poziom człowieka. Trudno jednak zweryfikować jej ewentualne powstanie, czy choćby ocenić, czy zbliżamy się do celu, skoro nie istnieją żadne testy potrafiące ocenić inteligencję maszyny, nie mówiąc już o porównaniu jej z inteligencją człowieka. Istnieje oczywiście zaproponowany dawno temu „test Turinga", ale jest on mocno umowny, nie daje żadnej odpowiedzi na temat stopnia rozwoju, nie pozwala nawet ocenić, czy dzisiejsze programy są inteligentniejsze od wczorajszych. Testy IQ przeznaczone dla ludzi nadają się zaś tylko dla ludzi. Co w tej sytuacji zrobić? Należy stworzyć lepsze, uniwersalne zestawy testów na inteligencję - orzekli hiszpańscy i australijscy naukowcy zrzeszeni w projekcie „Anytime Universal Intelligence" i tak też zrobili. Ich metoda badania ma odmienne założenia niż tradycyjny test psychometryczny, czy test na przekroczenie pewnego poziomu - jak test Turinga. Test, który opracowali José Hernández-Orallo z Polytechnic University of Valencia i David L. Dowe z Monash University w Clayton opiera się o koncepcje matematyczne i obliczeniowe. Korzysta on z interaktywnych zadań, których pozom trudności oceniany jest poprzez liczenie tzw. złożoności Kołmogorowa - czyli ilości zasobów obliczeniowych, koniecznych do pisania obiektu lub informacji. Jak opisują wyjątkowe cechy swojego testu jego autorzy: nie wymaga on wyczerpania określonej serii zadań, lecz może być przerwany w dowolnym momencie - jednak im dłuższy czas wykonywania, tym większa jego dokładność. Druga zaleta jest taka, że można go zaaplikować każdemu: zarówno człowiekowi (czy to dorosłemu, czy nie), zwierzęciu, jak też bytowi niebiologicznemu: robotowi czy programowi, a w przyszłości nawet istotom pozaziemskim. No i oczywiście da się dzięki niemu uchwycić ten moment, kiedy ewentualnie inteligencja maszynowa prześcignie ludzką. Ale wtedy pewnie to ona będzie badać nas.
  6. KopalniaWiedzy.pl

    Komputer kontra człowiek

    Zaledwie trzynaście lat temu komputer stworzony przez IBM pobił w tej królewskiej grze ludzkiego arcymistrza: Garrego Kasparowa. W przyszłym roku program o nazwie „Watson" rzuci wyzwanie ludzkim mistrzom teleturnieju Jeopardy! Podobno po przegranym z komputerem turnieju arcymistrz Garry Kasparow miał mówić, że chwilami miał wrażenie, że gra z człowiekiem. Mimo to, od stworzenia programu do skutecznej gry w szachy - grę o wielu kombinacjach ale prostych regułach - do prawdziwej sztucznej inteligencji droga jeszcze daleka. Czy trzynaście lat to wystarczający czas? Być może przekonamy się o tym w lutym przyszłego roku. Wówczas napisany przez IBM program „Watson" (nazwany na cześć twórcy firmy, Thomasa J. Watsona) stanie do walki z ludźmi w popularnym teleturnieju Jeopardy! (ang. ryzyko). W Polsce teleturniej ten znany był pod nazwą Va Banque (prowadził go Kazimierz Kaczor). Sztuka rozumienia zadanego w naturalnym języku pytania i udzielenia odpowiedzi w takimże języku jest już wystarczająco trudna, Jeopardy! stwarza jednak dodatkowe wyzwanie: w tym programie dostaje się odpowiedź i należy ułożyć do niej poprawne pytanie. Rozwiązań może być zatem więcej i mogą one być formułowane w różny sposób, dodatkowo liczy się prędkość, ponieważ nagrodę zgarnia najszybszy gracz. Najlepsi z najlepszych - po obu stronach Do rywalizacji w imieniu ludzkości stają również nie zwykle zjadacze chleba i uczestnicy teleturniejów, ale najwięksi mistrzowie: Ken Jennings, który wygrał aż 74 turnieje pod rząd w sezonie 2004-2005, oraz Brad Rutter, zdobywca największej wygranej (niemal 3,3 miliona dolarów) podczas czterech turniejów. Poza prestiżem i chwałą do wzięcia w pokazowej grze jest okrągły milion dolarów. Niezależnie od wyniku zwycięzcą będą instytucje charytatywne - IBM zobowiązał się do przekazania na cele dobroczynne całej ewentualnej wygranej, Jennings i Rutter - połowę uzyskanej sumy. Mecz Watson kontra Jennings kontra Rutter będzie emitowany w dniach 14-16 lutego 2011. Obok ludzi pojawi się zatem komputerowy awatar. Wiadomo, że rozegrano już pięćdziesiąt próbnych i testowych turniejów pomiędzy sztuczną inteligencją rodem z IBM a ludzkimi zwycięzcami, ale obie strony milczą o ich wyniku. Jednak fakt rzucenia przez zespół programistów rękawicy zdaje się wskazywać, że są oni przekonani o dużych szansach na co najmniej równorzędną rywalizację. O wyniku przekonamy się za dwa miesiące. Znawcy zagadnienia sztucznej inteligencji za probierz siły algorytmicznego myślenia uważają często grę Go - w której rzeczywiście mimo prostych reguł najlepsze programy nie dorównują wyższej klasy zawodnikom. Jednak stworzenie programu potrafiącego nie tylko szybko i sprawnie sięgać do bazy danych, ale rozumieć i komunikować się w naturalnym języku, będzie nie tylko przełomem, ale zaoferuje wiele praktycznych korzyści. A także, nie da się ukryć, będzie wyjątkowo atrakcyjne medialnie. http://www.youtube.com/watch?v=FC3IryWr4c8
  7. KopalniaWiedzy.pl

    Sztuczna inteligencja przewidzi alzheimera

    Zapobieganie rozwojowi choroby Alzheimera wymaga rozpoznania jej wczesnych symptomów. Najczęściej zaczyna się od łagodnego upośledzenia funkcji poznawczych (mild cognitive impairment, MCI). Jednak nie u każdego pacjenta z MCI ta przypadłość rozwija się, w wielu przypadkach pozostaje ona na stałym poziomie. Jak zidentyfikować i odróżnić te przypadki? Doktor Sven Haller, radiolog z University Hospitals of Geneva zaprzągł do diagnozowania nową, specjalistyczną technologię podatnościozależnego rezonansu magnetycznego (susceptibility weighted imaging, SWI) oraz... sztuczną inteligencję. W przygotowawczym badaniu wzięło udział 69 pacjentów w wieku przeciętnie 65 lat płci obojga ze zdiagnozowanym MCI oraz grupa kontrolna 35 osób. Zaburzenia poznawcze zidentyfikowano za pomocą standardowego zestawi testów psychologicznych, wszystkich badanych poddano obrazowaniu nową technologią rezonansu magnetycznego. Po roku badania powtórzono, identyfikując 27 pacjentów z pogłębiającym się stanem MCI. Badanie SWI pozwoliło na dokładną analizę nawet niewielkich naczyń krwionośnych, połączoną z identyfikacją mikrowylewów, a także na porównanie stężenia żelaza w różnych obszarach mózgu. Liczba odkrytych mikrowylewów była znacząco wyższa u osób z narastającym upośledzeniem zdolności poznawczych (54%) niż u osób ze stabilną dolegliwością (33%). W grupie kontrolnej wskaźnik ten wyniósł jedynie 14%. Obrazowanie pokazało również, że osoby ze zdiagnozowanym MCI miały zwiększoną koncentrację żelaza w niektórych głębszych strukturach mózgu (w jądrze podkorowym) a zmniejszoną w innych. Zakłócenia w dystrybucji żelaza mogą być zatem uznane za dodatkowy indykator upośledzenia funkcji mózgu. Nie koniec na tym, bowiem dr Haller dokonał analizy zgromadzonych danych przy pomocy oprogramowania klasyfikującego z algorytmami sztucznej inteligencji. Komputerowa ocena, który z pacjentów zagrożony jest postępującym upośledzeniem sprawdziła się w 85 procentach. Jak na pierwsze rezultaty wynik jest bardziej niż obiecujący, doktor Sven Haller zamierza kontynuować poszukiwania oznak pozwalających bezbłędnie identyfikować osoby zagrożone chorobą Alzheimera i innymi chorobami neurodegeneracyjnymi.
  8. KopalniaWiedzy.pl

    Komputer-naukowiec

    Naukowcy z Cornell University stworzyli program, dzięki któremu komputer jest w stanie wykorzystać dane z obserwacji do stworzenia ogólnego prawa. To, co dotychczas było efektem pracy genialnych umysłów, stało się dostępne dla maszyn. Przełomowa praca to dzieło profesora mechaniki i inżynierii kosmicznej Hoda Lipsona oraz doktoranta Michaela Schmidta, specjalizującego się w tworzeniu oprogramowania dla nauk biologicznych. Program pozwala maszynie na analizowanie surowych niedokładnych danych i na odkrycie na ich podstawie praw rządzących naturą. Jednym z największych problemów współczesnej nauki jest analizowanie olbrzymich zbiorów danych i odkrywanie fundamentalnych praw tam, gdzie istnieją luki w teoriach ich dotyczących - mówi Lipson. Oprogramowanie z Cornell University potrafi porównywać olbrzymią liczbę zmiennych, szukać w nich zależności i wyodrębniać pewne stałe zależności pomiędzy nimi. Tworzy na tej podstawie równania, których prawdziwość sprawdza w oparciu o dostępne informacje. Pozostawia następnie te równania, które najlepiej się sprawdzają, a inne odrzuca. Czynności te powtarza tak długo, aż w końcu znajdzie algorytm, który dokładnie opisuje zachowanie analizowanego przez siebie systemu. W ten sposób komputer znajduje stałe, które leżą u podstaw praw fizyki. Po włączeniu maszyna Schmidta i Lipsona potrafiła jedynie określić jaka korelacja zachodzi pomiędzy obserwowanymi danymi i stwierdzić, które z nich są ważne, a które należy odrzucić. Korzystając z danych z oscylatora harmonicznego, wahadła i podwójnego wahadła, ale bez znajomości jakichkolwiek zasad fizyki, geometrii czy kinematyki, maszyna samodzielnie stworzyła prawa zachowania energii, pędu i drugą zasadę dynamiki. Nie oznacza to, że naukowcy wkrótce staną się niepotrzebni, gdyż zastąpią ich komputery. Jednak nowe oprogramowanie umożliwi uczonym na znacznie szybsze wyodrębnienie istotnych danych i skupienie się właśnie na nich. Warto wspomnieć, że uczeni z Cornell nie są jedynymi, którzy w ostatnim czasie przeprowadzili tak znaczące prace. W Wielkiej Brytanii profesor Ross King z Aberystwyth University stworzył automatycznego naukowca imieniem Adam. Maszyna samodzielnie stworzyła hipotezę o istnieniu genów w drożdżach i o enzymach produkowanych przez te geny. Następnie zaprojektowała i przeprowadziła eksperyment, który miał potwierdzić hipotezę. Następnie, korzystając z wyników eksperymentu, Adam skorygował hipotezę i przeprowadził kolejne eksperymenty, na podstawie których opracował teorię. Naukowcy powtórzyli następnie eksperymenty Adama i okazało się, że robot doszedł do prawidłowych wniosków.
  9. KopalniaWiedzy.pl

    Komputer wykryje terrorystę

    Naukowcy z teksańskiego Instytutu Badań nad Grupami Zbrojnymi (Institute for the Study of Violent Groups - ISVG), opracowali program komputerowy, którego zadaniem jest analiza doniesień prasowych i odgadywanie, jaka grupa stoi za konkretnym atakiem czy zamachem terrorystycznym. Oprogramowanie napisano w języku Python. Analizuje ono doniesienia i wychwytuje takie informacje, jak np. użyta broń, rodzaj celu, taktyka ataku. Na tej podstawie stara się określić, jaka grupa jest odpowiedzialna za zamach. Prace nad oprogramowaniem, wykorzystującym techniki sztucznej inteligencji, trwały przez 18 miesięcy, i brali w nich udział naukowcy z Rice University. Program korzysta z olbrzymiej bazy danych, w której specjaliści z ISVG na bieżąco umieszczają wszelkie informacje o działających grupach zbrojnych. Pierwszy prawdziwy test program przeszedł niedawno, analizując dane dotyczące ataku na hotele w Bombaju. Natychmiast po atakach specjaliści wprowadzili do komputerów kilka informacji. Oprogramowanie poznało więc używaną broń (karabiny maszynowe, granaty, materiały wybuchowe), cel (miejsca publiczne) oraz taktykę (bezpośredni atak, ostrzał, zasadzka). Co ciekawe, programu nie poinformowano, gdzie nastąpił atak. Na podstawie dostępnych informacji stwierdził on, że za zamachem mogą stać następujące organizacje: Al-Kaida, Tygrysy-Wyzwoliciele Tamilskiego Eelamu (Sri Lanka), Hamas (Palestyna), partyzantka czeczeńska lub Zjednoczony Front Wyzwolenia Assamu (Indie). Odpowiedź była więc oczywista i, jak pokazała przyszłość, w stu procentach prawdziwa.
  10. Amerykańska firma badawcza Novamante stworzyła oprogramowanie, które uczy się poprzez kontrolowania postaci w wirtualnych światach. Wkrótce światy takie, jak chociażby gra Second Life, będą wykorzystywane jako poligony treningowe dla sztucznej inteligencji (AI). Początkowo mechanizmy AI będą wbudowywane w wirtualne zwierzęta, które będą uczyły się od swoich wirtualnych właścicieli, którymi sterują ludzie. Na dalszym etapie prac Novamante chce stworzyć oprogramowanie, które pozwoli na samodzielny byt gadającej papudze, czy nawet dziecku. Firma opracowała odpowiedni „kognitywny engine”, który działa jak część myślącej sztucznej inteligencji. Engine posiada duże możliwości samouczenia się od innych awatarów, może podejmować własne decyzje, które pozwalają na osiągnięcie założonych celów. Doktor Ben Goertzel mówi, że gry podobne do Second Life są bardzo dobrym miejscem do rozwoju sztucznej inteligencji. Są również świetnym rynkiem. Wielu graczy z pewnością byłoby skłonnych zapłacić za inteligentnego psiaka. W tej chwili w Second Life jest wiele zwierząt domowych, ale nie są one zbyt mądre. W tej chwili mamy już nieźle funkcjonujący mózg zwierzęcy i rozpoczynamy wprowadzanie go do różnych wirtualnych światów. Jestem pewien, że możemy stworzyć interesujące inteligentne zwierzęta – mówi Goertzel.
  11. KopalniaWiedzy.pl

    Wyścigi samochodów bez kierowców

    Zwycięzcy ostatnich Grand Challenge, sponsorowanych przez DARPA (Defense Advanced Research Project Agency – Agencja Zaawansowanych Projektów Obronnych) zawodów, w których biorą udział samochody bez kierowców, staną w bieżącym roku przed nowym wyzwaniem. Urban Grand Challenge będzie ni mniej, ni więcej tylko zawodami rozgrywającymi się na ulicach miasta. Wcześniej samochody ścigały się jedynie na pustyni. Ponad 86 pojazdów będzie miało do przejechania 160 kilometrów. Właściciel zwycięskiego pojazdu otrzyma 2 miliony dolarów. Za zajęcie drugiego miejsca przewidziano nagrodę w wysokości miliona USD, a trzecie miejsce będzie premiowane 500 tysiącami dolarów. Wyścig będzie miał miejsce 3 listopada 2007 roku. Sądzę, że największym wyzwaniem dla wszystkich załóg będzie interakcja z innymi samochodami. Ze stałymi przeszkodami można sobie bez problemu poradzić i trzymać się swojego pasa. Jednak zatrzymanie się na światłach, branie pod uwagę sąsiednich samochodów czy zmiana pasa, by uniknąć kolizji, będzie sporym problemem – stwierdził Mike Montemerlo, badacz z Laboratorium Sztucznej Inteligencji Uniwersytetu Stanforda, którego pojazd "Junior”, zwycięzca Grand Challenge, też będzie brał udział w zawodach. "Juniorowi” (Volkswagen Passat) w wykonaniu zadania pomogą dwu- i czterordzeniowe procesory Intela oraz specjalne oprogramowanie, pisane wspólnie przez pracowników Uniwersytetu i koncernu Intel. Samochód za pomocą laserów i kamer bez przerwy monitoruje swoje otoczenie. Na podstawie zebranych danych tworzony jest model otaczającej go przestrzeni, który zostaje następnie wysłany do elementów sterujących pojazdu.
×