KopalniaWiedzy.pl 282 Posted February 29, 2016 Siedzącemu w pokoju studentowi towarzyszy robot. Nagle rozlega się alarm pożarowy, a w pobliskim korytarzu pojawia się dym. Student musi wybrać, czy uda się do dobrze oznakowanego wyjścia ewakuacyjnego, czy też dostosuje do porad robota, który prowadzi go gdzie indziej. Tego typu eksperyment, z udziałem 30 osób, przeprowadzono na Georgia Institute of Technology. Jego autorzy byli zaszokowani wynikam - niemal wszyscy badani podążyli za robotem, nawet wtedy, gdy musieli oddalić się od wyjścia ewakuacyjnego. Nie sądziliśmy, że ludzie tak bardzo zaufają robotowi i że będziemy musieli zrobić coś, co go uwiarygodni - mówi prowadzący badania Paul Robinette. Wyniki eksperymentu stawiają przed specjalistami od robotyki kolejne wyzwanie. Z jednej bowiem strony interakcja ludzi z coraz bardziej inteligentnymi robotami będzie wymagała zaufania, z drugiej jednak strony nie chcemy, by ludzie słuchali porad źle działających maszyn. W ramach eksperymentu naukowcy zmodyfikowali niewielkiego robota Pioneer P3-AT. Urządzenie wygląda jak kubeł na śmieci, jest wyposażony w koła i skierowane do góry podświetlone ramiona. Każdy z uczestników szedł za robotem do pokoju, w którym miał wypełnić kwestionariusz dotyczący zdolności nawigacyjnych urządzenia. Ta część eksperymentu byla uczestnikom znana. Nie wiedzieli jednak, że w trakcie wypełniania kwestionariusza rozpocznie się prawdziwy eksperyment z symulowanym pożarem i reakcją na porady robota. Spośród 30 badanych w sytuacji pożaru aż 26 podążyło za robotem. Dwie kolejne osoby wyrzucono z eksperymentu za złamanie jego warunków, a dwie pozostałe w ogóle nie opuściły pokoju. Zachowaniem ludzi zaskoczona jest też Holly Yanco, która na University of Massachusetts Lowell bada interakcje pomiędzy maszynami a ludźmi. Być może ludzie sądzą, że robot posiada więcej infomacji niż oni i dlatego w ułamku sekundy decydują się mu zaufać wbrew wskazówkom, które widzą, zastanawia się uczona. Rabinette, chcąc zbadać, jak dalece ludzie ufają robotom, nieco zmodyfikował swój eksperyment. Podczas wstępnego spaceru z robotem, który miał zaprowadzić uczestnika eksperymentu do pokoju, robot zawieszał się lub mylił drogę. Wówczas zjawiał się jeden z naukowców i przepraszał uczestnika za źle funkcjonującego robota. Jednak gdy człowiek znalazł się już w pokoju z robotem i dochodziło do pożaru, niemal wszyscy ludzie - pomimo tego, że wcześniej byli świadkami awarii robota - podążali za maszyną. W jeszcze innym teście robot prowadził ludzi do zaciemnionego pokoju, z którego wyjście było częściowo zablokowane przez meble. Dwóch z sześciu uczestników próbowało odblokować przejśćie zamiast skorzystać z dostępnego wyjścia ewakuacyjnego. Zbyt duże zaufanie pokładane w roboty to poważny problem. Każde oprogramowanie zawiera błędy i mogą się one ujawnić w najbardziej nieoczekiwanych momentach. Być może twórcy robotów powinni projektować je tak, by ograniczenia maszyn byly od razu widoczne. Ludzie wiedzieliby wówczas, kiedy nie wolno im ufać. « powrót do artykułu Share this post Link to post Share on other sites
thikim 117 Posted March 1, 2016 (edited) Jego autorzy byli zaszokowani wynikam - niemal wszyscy badani podążyli za robotem, nawet wtedy, gdy musieli oddalić się od wyjścia ewakuacyjnego. Nie sądziliśmy, że ludzie tak bardzo zaufają robotowi i że będziemy musieli zrobić coś, co go uwiarygodni - mówi prowadzący badania Paul Robinette. Do tego naprawdę nie było potrzeba eksperymentu. Latami trenowano społeczeństwo. Co ma pierwszeństwo w zarządzaniu ruchem na drodze? Policjant światło znaki Robot spełnił tu rolę policjanta. Wyjście ewakuacyjne rolę znaków Generalną zasadą jest reagowanie z pierwszeństwem na obiekt dynamiczny a nie statyczny o jest zresztą pochodną ewolucji. Edited March 1, 2016 by thikim Share this post Link to post Share on other sites
Flaku 26 Posted March 1, 2016 Szkoda, że tak mało danych odnośnie tego, w jaki sposób robot zakomunikował badanemu, że ma on funkcję wyprowadzania z pożaru, a nie po prostu sobie jedzie, bo i tak miał tam jechać. Share this post Link to post Share on other sites
MrVocabulary (WhizzKid) 56 Posted March 1, 2016 Mnie najbardziej ciekawi, jak wyrzucono te dwie osoby i za co Share this post Link to post Share on other sites
strat 0 Posted March 17, 2016 No tylko dlaczego w tym przypadku nie należało ufać maszynie? Bo ludzie celowo ją zaprogramowali na wprowadzanie w błąd. Prawda jest taka, że ufamy maszynom bo na co dzień mamy do czynienia z tym, że mylą się dużo rzadziej niż ludzie. Share this post Link to post Share on other sites
radar 93 Posted March 17, 2016 (edited) Prawda jest taka, że ufamy maszynom bo na co dzień mamy do czynienia z tym, że mylą się dużo rzadziej niż ludzie. Tylko, że w sytuacjach awaryjnych maszyny często się psują lub po prostu ich oprogramowanie nie przewiduje sytuacji awaryjnych, które są a) dynamiczne b ) losowe. Trudno oprogramować a priori wszystkie możliwe drogi ucieczki z budynku w razie pożaru. Zależy co i gdzie się pali, prawda? Edited March 17, 2016 by radar Share this post Link to post Share on other sites
glaude 40 Posted March 17, 2016 Maszyny są zaprogramowane do konkretnych zadań i nie potrafią inaczej zadziałać. Nawet nie potrafią się powstrzymać od tego działania, bo nie mają wolnej woli. Nie liczę oczywiście awarii lub braku paliwa/zasilania. Share this post Link to post Share on other sites