Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Zaledwie trzynaście lat temu komputer stworzony przez IBM pobił w tej królewskiej grze ludzkiego arcymistrza: Garrego Kasparowa. W przyszłym roku program o nazwie „Watson" rzuci wyzwanie ludzkim mistrzom teleturnieju Jeopardy!

Podobno po przegranym z komputerem turnieju arcymistrz Garry Kasparow miał mówić, że chwilami miał wrażenie, że gra z człowiekiem. Mimo to, od stworzenia programu do skutecznej gry w szachy - grę o wielu kombinacjach ale prostych regułach - do prawdziwej sztucznej inteligencji droga jeszcze daleka. Czy trzynaście lat to wystarczający czas? Być może przekonamy się o tym w lutym przyszłego roku. Wówczas napisany przez IBM program „Watson" (nazwany na cześć twórcy firmy, Thomasa J. Watsona) stanie do walki z ludźmi w popularnym teleturnieju Jeopardy! (ang. ryzyko). W Polsce teleturniej ten znany był pod nazwą Va Banque (prowadził go Kazimierz Kaczor).

Sztuka rozumienia zadanego w naturalnym języku pytania i udzielenia odpowiedzi w takimże języku jest już wystarczająco trudna, Jeopardy! stwarza jednak dodatkowe wyzwanie: w tym programie dostaje się odpowiedź i należy ułożyć do niej poprawne pytanie. Rozwiązań może być zatem więcej i mogą one być formułowane w różny sposób, dodatkowo liczy się prędkość, ponieważ nagrodę zgarnia najszybszy gracz.

 

Najlepsi z najlepszych - po obu stronach

 

Do rywalizacji w imieniu ludzkości stają również nie zwykle zjadacze chleba i uczestnicy teleturniejów, ale najwięksi mistrzowie: Ken Jennings, który wygrał aż 74 turnieje pod rząd w sezonie 2004-2005, oraz Brad Rutter, zdobywca największej wygranej (niemal 3,3 miliona dolarów) podczas czterech turniejów.

Poza prestiżem i chwałą do wzięcia w pokazowej grze jest okrągły milion dolarów. Niezależnie od wyniku zwycięzcą będą instytucje charytatywne - IBM zobowiązał się do przekazania na cele dobroczynne całej ewentualnej wygranej, Jennings i Rutter - połowę uzyskanej sumy.

Mecz Watson kontra Jennings kontra Rutter będzie emitowany w dniach 14-16 lutego 2011. Obok ludzi pojawi się zatem komputerowy awatar. Wiadomo, że rozegrano już pięćdziesiąt próbnych i testowych turniejów pomiędzy sztuczną inteligencją rodem z IBM a ludzkimi zwycięzcami, ale obie strony milczą o ich wyniku. Jednak fakt rzucenia przez zespół programistów rękawicy zdaje się wskazywać, że są oni przekonani o dużych szansach na co najmniej równorzędną rywalizację. O wyniku przekonamy się za dwa miesiące.

Znawcy zagadnienia sztucznej inteligencji za probierz siły algorytmicznego myślenia uważają często grę Go - w której rzeczywiście mimo prostych reguł najlepsze programy nie dorównują wyższej klasy zawodnikom. Jednak stworzenie programu potrafiącego nie tylko szybko i sprawnie sięgać do bazy danych, ale rozumieć i komunikować się w naturalnym języku, będzie nie tylko przełomem, ale zaoferuje wiele praktycznych korzyści. A także, nie da się ukryć, będzie wyjątkowo atrakcyjne medialnie.

 

http://www.youtube.com/watch?v=FC3IryWr4c8

Share this post


Link to post
Share on other sites

hm...a jaka mamy pewnosc ze komputer nie bedzie sterowany przez czlowieka, nie bedzie gdzies w furgonie siedzial tabun ludzi myslacych nad odpowiedziami (pytaniami)? ;)

 

A tak jezeli chodzi o temat...wystarczy troche oleju w glowie zeby stworzyc aplikacje gry w POKERA i gwarantuje, ze wygra nawet z najlepszym pokerzysta.

Szachy wymagaja glownie wiedzy taktycznej aczkolwiek nie opierajacej sie wylacznie na zasadach gry. Otoz najlepsi gracze wykorzystuja nerwy, zmeczenie, mimike przeciwnika, to wlasnie uniemozliwilo wygranie Kasparowowi z "Deeper Blue". Pozatym kraza pogloski ze za kurtynami mogli siedziec ludzie ktorzy pomagali maszynie.

Share this post


Link to post
Share on other sites

hm...a jaka mamy pewnosc ze komputer nie bedzie sterowany przez czlowieka, nie bedzie gdzies w furgonie siedzial tabun ludzi myslacych nad odpowiedziami (pytaniami)? ;)

 

A tak jezeli chodzi o temat...wystarczy troche oleju w glowie zeby stworzyc aplikacje gry w POKERA i gwarantuje, ze wygra nawet z najlepszym pokerzysta.

 

Zakładając odpowiednio dużą liczbę rozdań. W krótszym dystansie może być problem.

 

Otoz najlepsi gracze wykorzystuja nerwy, zmeczenie, mimike przeciwnika, to wlasnie uniemozliwilo wygranie Kasparowowi z "Deeper Blue".

 

Chcesz powiedzieć, że Deep Blue zwodził Kasparowa sugerując mimiką, że nie jest pewny czy robi dobry ruch? Czy też jest wręcz przeciwnie: analizował mimikę Kasparowa i adaptował stosownie strategię?

 

Pozatym kraza pogloski ze za kurtynami mogli siedziec ludzie ktorzy pomagali maszynie.

 

Może. Choć mnie wydaje się to troche bez sensu. Szachy to nie ciężary. Pułk mistrzów nie pokona arcymistrza - widać to w symultanach. Jak mieliby sie podzielić zadaniami? Jeden rusza wieżą a drugi, wybacz mój klatchiański, koniem ?

Share this post


Link to post
Share on other sites

Chcesz powiedzieć, że Deep Blue zwodził Kasparowa sugerując mimiką, że nie jest pewny czy robi dobry ruch? Czy też jest wręcz przeciwnie: analizował mimikę Kasparowa i adaptował stosownie strategię?

Tak gwoli scislosci, Deep Blue zostal zmasakrowany przez Kasparova 3:1

Dopiero Deeper Blue zwyciezyl.

Co do pytania:

Wrecz zupelnie od inszej strony ;)

Komputery nie maja mimiki i wiadomo,ze teorytycznie sie nie mecza.

Wiec Kasparov byl na niby gorszej pozycji bo nie mogl wykorzystac slabosci ludzkich grajac z komputerem.

 

 

Sam Kasparov twierdzil, ze bez problemu mogl odczuc, ze komputer gra na zasadzie przemyslenia wszystkich mozliwych przebiegow gry po kazdym ruchu. Natomiast odczul w kilku ruchach pewna inteligencje na jego zagrania taktyczne.

Share this post


Link to post
Share on other sites

Niestety obecnie nikt nie wygra z komputerem w szachy:) Bodajże w tamtym roku pewien superkomputer rozgryzł wszystkie możliwe kombinacje pozwalające wygrać. Czyli już po pierwszym ruchu, komputer będzie przewidywał dokładnie co zrobić by wygrać i wygra na 100%.

 

Rozpracowanie innych gier, to kwestia czasu i pamięci...

Share this post


Link to post
Share on other sites
Niestety obecnie nikt nie wygra z komputerem w szachy:) [/size] 

Komputery umią się bronić bo tyle umie programista  ;):P  , natomiast nie potrafią  atakować , myślę ze powinni skupić się na obronie tak by maszyna zaczęła wykozystywać któryś ze schematów ataku, a następnie rozpoznać ten schemat , wpuścić w pułapkę i dowalić robotom - ludzie wygrają (w końcu tak naprawdę grają z programistami).

Share this post


Link to post
Share on other sites

Bodajże w tamtym roku pewien superkomputer rozgryzł wszystkie możliwe kombinacje pozwalające wygrać.

IMHO "bodajże" jest bardzo na miejscu. Wszechświat liczy osobie ~1018 s. Komputera o mocy 1018 FLOPS (eksa) dopiero się spodziewamy. Razem do kupy, to jakieś 1036 operacji od Big Bang-u. Najniższe oszacowanie na liczbę możliwych rozgrywek jakie znalazłem w Sieci to 1040. Brakuje mi 104 zakładając ocenę pozycji w jednym FLO.

Link do "bodajże" poproszę...

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Na University of Leeds powstał system sztucznej inteligencji (SI), który analizuje skany oczu wykonywane podczas rutynowych wizyt u okulisty czy optyka i wskazuje osoby narażone na... wysokie ryzyko ataku serca. System analizuje zmiany w miniaturowych naczyniach krwionośnych siatkówki, o kórych wiemy, że wskazują na szerszy problem z układem krążenia.
      Specjaliści z Leeds wykorzystali techniki głębokiego uczenia się, by przeszkolić SI w automatycznym odczytywaniu skanów oraz wyławianiu osób, które w ciągu najbliższego roku mogą doświadczyć ataku serca.
      System, który został opisany na łamach Nature Machine Intelligence, wyróżnia się dokładnością rzędu 70–80 procent i zdaniem jego twórców może być wykorzystany przy diagnostyce chorób układu krążenia.
      Choroby układu krążenia, w tym ataki serca, to główne przyczyny zgonów na całym świecie i druga przyczyna zgonów w Wielkiej Brytanii. To choroby chroniczne, obniżające jakość życia. Ta technika może potencjalnie zrewolucjonizować diagnostykę. Skanowanie siatkówki to tani i rutynowy proces stosowany w czasie wielu badań oczu, mówi profesor Alex Frangi, który nadzorował rozwój nowego systemu. Osoby badane przez okulistę czy optometrystę mogą niejako przy okazji dowiedzieć się, czy nie rozwija się u nich choroba układu krążenia. Dzięki temu leczenie można będzie zacząć wcześniej, zanim pojawią się inne objawy.
      System sztucznej inteligencji trenowano na danych okulistycznych i kardiologicznych ponad 5000 osób. Uczył się odróżniania stanów patologicznych od prawidłowych. Gdy już się tego nauczył, na podstawie samych skanów siatkówki był w stanie określić wielkość oraz wydajność pracy lewej komory serca. Powiększona komora jest powiązana z większym ryzykiem chorób serca. Następnie SI, łącząc dane o stanie lewej komory serca z informacjami o wieku i płci pacjenta, może przewidzieć ryzyko ataku serca w ciągu najbliższych 12 miesięcy.
      Obecnie rozmiar i funkcjonowanie lewej komory serca jesteśmy w stanie określić za pomocą echokardiografii czy rezonansu magnetycznego. To specjalistyczne i kosztowne badania, które są znacznie gorzej dostępne niż badania prowadzone w gabinetach okulistycznych czy optycznych. Nowy system nie tylko obniży koszty i poprawi dostępność wczesnej diagnostyki kardiologicznej, ale może odegrać olbrzymią rolę w krajach o słabiej rozwiniętym systemie opieki zdrowotnej, gdzie specjalistyczne badania są bardzo trudno dostępne.
      Ten system sztucznej inteligencji to wspaniałe narzędzie do ujawniania wzorców istniejących w naturze. I właśnie to robi, łączy wzorce zmian w siatkówce ze zmianami w sercu, cieszy się profesor Sven Plein, jeden z autorów badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zróżnicowanie komórek mózgowych może prowadzić do szybszego uczenia się, odkryli naukowcy z Imperial College London (ICL). Spostrzeżenie to może zwiększyć wydajność systemów sztucznej inteligencji. Uczeni zauważyli, że gdy w symulowanych sieciach neuronowych indywidualnie dobierali właściwości elektryczne poszczególnych komórek, sieci takie uczyły się szybciej, niż sieci złożone z komórek o identycznych parametrach.
      Okazało się również, że gdy mamy zróżnicowane komórki, sieć neuronowa potrzebuje ich mniej, a całość zużywa mniej energii niż sieć o identycznych komórkach.
      Zdaniem autorów badań, może to wyjaśniać, dlaczego mózgi tak efektywnie potrafią się uczyć. Mózg musi być wydajny energetycznie, a jednocześnie zdolnym do rozwiązywania złożonych zadań. Nasza praca sugeruje, że zróżnicowanie neuronów – zarówno w mózgach jak i w systemach sztucznej inteligencji – pozwala spełnić oba warunki, mówi główny autor badań, doktorant Nicolas Perez z Wydziału Inżynierii Elektrycznej i elektronicznej.
      Odkrycie powinno też zachęcić twórców sieci neuronowych do budowania ich tak, by były bardziej podobne do mózgu. Nasze mózgi składają się z neuronów. Pozornie są one identyczne, ale przy bliższym przyjrzeniu się, widoczne są liczne różnice. Z kolei każda komórka sztucznych sieci neuronowych jest identyczna, różnią się one tylko połączeniami. Pomimo dużych postępów w rozwoju systemów sztucznej inteligencji, bardzo daleko im do mózgów. Dlatego też uczeni z ICL zastanawiali się, czy przyczyną nie jest brak zróżnicowania komórek sztucznych sieci neuronowych.
      Rozpoczęli więc badania, w ramach których emulowali różne właściwości komórek składających się na siec sztucznej inteligencji. Zauważyli, że zróżnicowanie komórek spowodowało zwiększenie szybkości uczenia się i spadek zapotrzebowania na energię. Ewolucja dała nam niesamowicie funkcjonujący mózg. Dopiero zaczynamy rozumieć, jak on działa, stwierdził doktor Dan Goodman.
      W ramach badań uczeni manipulowali „stałą czasową”, czyli tym, jak szybko każda komórka sztucznej sieci neuronowej decyduje, co ma zrobić w zależności od tego, co robią połączone z nią komórki. Niektóre z tak manipulowanych komórek podejmowały decyzję bardzo szybko, natychmiast po tym, jak działania podjęły komórki z nimi połączone. Inne zaś odczekały chwilę i podejmowały decyzję na podstawie tego, co przez pewien czas robiły komórki z nimi połączone.
      Po zróżnicowaniu „stałej czasowej” swoich komórek, naukowcy przeprowadzili zestaw testów dla uczenia maszynowego się, takich jak rozpoznawanie gestów, pogrupowanie ubrań czy ręcznie napisanych cyfr oraz zidentyfikowanie wypowiadanych komend oraz cyfr.
      Eksperymenty pokazały, że połączenie komórek o różnej „stałej czasowej” powoduje, że cała sieć lepiej rozwiązuje złożone zadania. Okazało się przy okazji, że najlepiej sprawuje się sieć o takiej konfiguracji, której zróżnicowanie jest najbliższe zróżnicowaniu komórek w mózgu. To z kolei sugeruje, że nasz mózg ewoluował w kierunku osiągnięcia najlepszego poziomu zróżnicowania dla optymalnego uczenia się.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rynkowy sukces lub porażka układu scalonego zależą w dużej mierze od etapu jego projektowania. Wtedy właśnie zostają podjęte decyzje odnośnie umiejscowienia na krzemie modułów pamięci i elementów logicznych. Dotychczas zadania tego nie udawało się zautomatyzować, a etap projektowania zajmuje inżynierom całe tygodnie lub miesiące. Inżynierowie Google'a poinformowali właśnie, że stworzony przez nich system sztucznej inteligencji poradził sobie z częściowym zaprojektowaniem chipa w ciągu godzin.
      Współczesne układy scalone składają się z miliardów tranzystorów, dziesiątek milionów bramek logicznych, tysiące bloków logicznych i łączących je kilometrów ścieżek. Lokalizacja poszczególnych układów i bloków logicznych odgrywa kluczową rolę dla przyszłej wydajności chipa. Specjaliści od dziesięcioleci pracują nad rozwiązaniami pozwalającymi zautomatyzować proces projektowania.
      Jako że bloki logiczne to duże elementy, tysiące i miliony razy większe od bramek logicznych, bardzo trudno jest jednocześnie umieszczać bloki i bramki. Dlatego współcześni projektanci układów najpierw umieszczają na krzemie bloki, a wolne miejsca zostają zapełnione pozostałymi bramkami logicznymi.
      Już samo rozmieszczenie bloków jest niezwykle wymagające. Eksperci Google'a obliczyli, że liczba możliwych kombinacji rozmieszczenia makrobloków, które brali pod uwagę w swoich badaniach, wynosi 102500.
      Planując rozmieszczenie bloków, inżynierowie muszą pamiętać o pozostawieniu miejsca na inne elementy i ich łączenie. Azalia Mirhoseini i jej zespół poinformowali na łamach Nature o stworzeniu metody automatycznego wstępnego projektowania chipa w czasie krótszym niż 6 godzin, które swoimi wynikami dorównuje lub nawet przewyższa to, co potrafią doświadczeni inżynierowie.
      naukowcy z Google'a wykorzystali techniki maszynowego uczenia się do wytrenowania swojego programu tak, by rozmieszczał na planie makrobloki. Po umieszczeniu każdego z nich program dokonuje oceny całego chipa, a następnie wykorzystuje to, czego się nauczył, do zaplanowania jak najlepszego kolejnego kroku.
      Co interesujące, projekty tworzone przez google'owską SI znacząco różnią się od tego, jak projektuje człowiek. Sztuczna inteligencja rozpoczyna od największych makrobloków. Ponadto w jakiś sposób unika ciągłego poprawiania tego, co już zostało zrobione. Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych. SI tego nie robi. Mimo to udało jej się zaprojektować układy, w których sygnał pomiędzy poszczególnymi elementami biegnie równie sprawnie, co między układami zaprojektowanymi przez ludzi.
      Google już stosuje metody opracowane prze Mirhoseini do projektowania układów dla przyszłej generacji systemów sztucznej inteligencji. Tymczasem producenci układów scalonych próbują odtworzyć osiągnięcie Google'a i wdrożyć podobne rozwiązania do własnego procesu projektowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.
      Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.
      Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.
      Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.
      Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.
      Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.
      Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.
      Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...