Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Obecność nieprzyjaznego robota pozwala nam skupić uwagę

Recommended Posts

Humanoidalne roboty będą powoli wkraczały do naszej codzienności. Dlatego też psychologów interesuje kwestia interakcji człowieka z takimi maszynami i chcą znać odpowiedź na pytanie, jak reagujemy na obecność humanoida.

Okazuje się, że obecność takiej maszyny zmienia np. naszą zdolność koncentracji. Grupa francuskich naukowców przeprowadziła eksperyment, w którym wzięło udział 58 osób. Badani mieli do rozwiązania standardowy test skupienia uwagi. Na ekranie pokazywano im różne wyrazy, a ich zadaniem było odpowiedzenie, jakiego koloru są litery. Trzeba było zatem skupić się na kolorze, a ignorować znaczenie słowa. Szybkość odpowiedzi świadczyła o stopniu skupienia uwagi.

Respondenci byli poddawani testom dwukrotnie. Raz gdy byli sami, a drugi raz gdy w odległości 1,5 metra od nich stał humanoidalny robot i obserwował ich przez 60% czasu testu.

Zanim jednak przystąpili do testu ludzie zapoznawali się z robotem. Zadawali mu serię zdefiniowanych wcześniej pytań. Robot odpowiadał albo przyjaźnie, przekazując pozytywne odpowiedzi, albo był niegrzeczny, a treść odpowiedzi miała negatywny wydźwięk.

Okazało się, że osoby, które były obserwowane przez „niegrzecznego” robota kończyły test wcześniej niż wówczas, gdy wykonywały go same. W przypadku, gdy mieli do czynienia z „dobrym” robotem nie zauważono żadnej zmiany tempa odpowiedzi.
Naukowcy spekulują, że w obecności nieprzyjaźnie nastawionego robota ludzie są bardziej czujni, co pozwala na lepsze skupienie uwagi. Wcześniej podobne zjawisko zaobserwowano u osób, które były obserwowane przez krytycznie nastawionych do nich ludzi. Tutaj opisano pierwsze badania, w których ludzi zastąpiono robotem.


« powrót do artykułu

Share this post


Link to post
Share on other sites
Guest

Lub po prostu nie chcieli siedzieć przy niegrzecznym robocie wiec prędzej rozwiązywali testy... skupienie wynikło z powodu, iż chcieli jak najszybciej wyjść z pomieszczenia.

Edited by Guest

Share this post


Link to post
Share on other sites

Na to samo wychodzi. Poza tym z tego co rozumiem niegrzeczny robot był niegrzeczny przed testem, podczas zapoznania, a nie ingerował w jego trakcie. Działała więc tylko sama świadomość wyimaginowanego zagrożenia. Wniosek płynie z tego nieco inny — ludzie bez nadzoru,, sytuacji zagrożenia są leniwi, niedokładni czy po prostu nie pracują w pełni swoich możliwości, choć optymalnie (zapewne gdyby test trwał znacznie dłużej, to tym pod wpływem stresu szybciej spadłaby wydajność — kwestia wydatkowania energii). Niby oczywiste, ale smutne jednak.

Share this post


Link to post
Share on other sites

Rozumiem, że uwzględnili również jakość udzielanych odpowiedzi, a nie tylko czas.

Ale nawet jak tak, to moim zdaniem to źle zaprojektowany eksperyment, bo tak zachowałby się pewnie też człowiek w stosunku do innego, "nieprzyjemnego" człowieka.

Chcemy się natomiast dowiedzieć jak to jest w przypadku robotów, więc może zamiast bezpośredniej interakcji powinni pokazać film z robotami ratującymi życie w szpitalach (operacje) albo film o autonomicznych robotach wojskowych zabijających ludzi (nawet jakieś fikcyjne dokumenty czy coś), a potem postawić takie/podobne roboty w pobliżu i badać.

Ciekawym rozwinięciem byłoby sprawdzenie jak to się zmienia gdy robot się rusza (np ramię robota swobodnie się porusza, ale poza zasięgiem obserwatora), bo ruch przyciąga wzrok/uwagę, i teraz czy robot medyczny będzie "bezpieczniejszy" niż robot "militarny"?

Edited by radar

Share this post


Link to post
Share on other sites

Uśmiechnięty miły robot macha do uczestników testu swoim ramieniem z wbudowanym karabinem. ;-)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      W Parku Archeologicznym Pompejów pracę rozpoczął Spot, czworonożny robot, który pomaga w monitorowaniu zabytkowego miejsca i dba o bezpieczeństwo jego pracowników. Spot przeprowadza inspekcję ruin, dostarczając nagrań, które następnie są wykorzystywane podczas badań archeologicznych i podejmowania decyzji dotyczących m.in. konieczności przeprowadzenia prac zabezpieczających.
      Spot pracuje w ramach szerszego projektu o nazwie Smart @ POMPEI. W jego ramach tworzony jest inteligentny samowystarczalny system zarządzania Parkiem. Obecnie w ramach projektu pracują Leica BLK2FLY, czyli pierwszy latający skaner laserowy zdolny do autonomicznego wykonywania skanów 3D oraz wspomniany już Spot firmy Boston Dynamics. Analizą danych dostarczonych przez urządzenia zajmują się specjalne stworzone na potrzeby Pompejów inteligentne platformy.
      Postęp technologiczny w dziedzinie robotyki, sztucznej inteligencji i systemów autonomicznych doprowadził do pojawienia się rozwiązań, które łatwo znalazły zastosowanie w przemyśle i produkcji. Dotychczas nie stosowano takich rozwiązań w archeologii, gdyż to rozległe heterogeniczne środowisko. Dzisiaj, dzięki współpracy z przemysłem wysokich technologii chcemy przetestować roboty w podziemnych tunelach wykopanych przez złodziei rabujących Pompeje. Tunele takie to często bardzo niebezpieczne miejsca. Dzięki robotom będziemy w stanie szybko i bezpiecznie je eksplorować, mówi dyrektor Parku Gabriel Zuchtriegel.
      Od 2012 roku aktywność złodziei rabujących Pompeje wyraźnie się zmniejszyła, gdyż włoska policja zintensyfikowała wysiłki na rzecz walki z nimi. Jednak na terenie otaczającym Pompeje wciąż znajdowane są nowe tunele wykopane przez rabusiów.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naszym rozmówcą jest dr n. med. Tomasz Stępień, adiunkt w Instytucie Psychiatrii i Neurologii i koordynator wyjątkowego projektu Digital Brain. Doktor Stępień specjalizuje się w neuropatologii, jest autorem licznych prac naukowych z tej dziedziny. Poza tym opiekuje się największym zbiorem mózgów na świecie.
      Jest Pan koordynatorem projektu Digital Brain. Na czym on polega? Kto będzie mógł korzystać z cyfrowych zasobów platformy?
      Digital Brain to projekt digitalizacji, gromadzonych od przeszło pół wieku, zasobów Instytutu Psychiatrii i Neurologii. Wychodząc naprzeciw potrzebom środowiska naukowego i medycznego, przy współpracy z Centrum Projektów Polska Cyfrowa i Ministerstwem Cyfryzacji, powołano do życia projekt o nazwie Digital Brain. Głównym celem przyświecającym autorom projektu było zdigitalizowanie skolekcjonowanego materiału archiwalnego Zakładu Neuropatologii, Instytutu Psychiatrii i Neurologii.
      W grupie docelowej projektu znalazły się także instytucje szkolnictwa wyższego, jednostki naukowe, placówki medyczne, przedsiębiorcy rozwijający innowacyjne technologie medyczne, organizacje pozarządowe zajmujące się ochroną zdrowia. Platforma Digital Brain powstała przede wszystkim z myślą o lekarzach, naukowcach różnych specjalności, psychologach, studentach, dziennikarzach popularnonaukowych, a także wszystkich tych, którzy są zainteresowani neuronauką. Dzięki takiej formie szerzenia wiedzy udostępnione zasoby nauki będą cennym materiałem dla lekarzy i naukowców poszukujących czynników patogenetycznych, prowadzących badania nad nowymi biomarkerami i terapiami w jednostkach chorobowych.
      Czy mógłby Pan opowiedzieć o historii zbiorów Instytutu Psychiatrii i Neurologii? Przeczytałam, że archiwizację fragmentów mózgu zapoczątkowała wybitna polska neuropatolog, prof. Ewa Osetowska. Od lat 50. kolekcja się rozrastała. Czy to prawda, że obecnie należy do największych na świecie? Jak ma się jej wielkość do zasobów Harvard Brain Tissue Resource Center czy LIBD?
      W zasobach Instytutu Psychiatrii i Neurologii znajduje się ogromny, unikalny zbiór mózgów Zakładu Neuropatologii, obejmujący materiał gromadzony od 1952 roku do chwili obecnej przez kolejne pokolenia neuropatologów. Archiwizację fragmentów mózgów zainicjowała wybitna polska neuropatolog, prof. Ewa Osetowska. Kolekcja obejmuje zbiór fragmentów mózgów utrwalonych w zbuforowanym roztworze formaliny, bloczki parafinowe, preparaty histologiczne i immunohistochemiczne oraz protokoły neuropatologiczne z kilkudziesięciu jednostek chorobowych.
      Mózg przeznaczony do diagnostyki neuropatologicznej zostaje umieszczony w zbuforowanym roztworze formaliny w celu utrwalenia. Sekcja utrwalonego mózgu przeprowadzana jest metodą Spielmeyera. Podczas sekcji mózgu został sporządzony protokół badania neuropatologicznego wraz z wykazem pobranych wycinków mózgu. Do protokołu badania neuropatologicznego zostały dołączone dane kliniczne i patologiczne. Pobrane fragmenty mózgu zostały zatopione w parafinie. Skrojone 5-8-μm preparaty zostały zabarwione metodami histologicznymi oraz metodami immunohistochemicznymi przy użyciu odpowiednich przeciwciał.
      Po wykonaniu diagnostyki mikroskopowej fragmenty mózgów, bloczki, preparaty i protokoły badania neuropatologicznego zostają zarchiwizowane. Całość stworzyła zasoby o unikalnym charakterze, które są gotowym materiałem do dalszych badań. Wyjątkowy charakter zasobów Instytutu Psychiatrii i Neurologii podkreśla fakt, że jest największa tego typu kolekcja na świecie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cassie, pierwszy dwunożny robot używający maszynowego uczenia się do kontroli otoczenia w czasie poruszania się na zewnątrz, przeszedł do historii, przebywając samodzielnie 5 kilometrów w czasie około 53 minut. Robot powstał pod kierunkiem profesora Jonathana Hursta, a na jego powstanie grant w wysokości 1 miliona dolarów przyznała DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych).
      Robot powstał w 2017 roku i od tego czasu Narodowa Fundacja Nauki finansowała dalsze badania nad nim. Pracujący przy Cassie naukowcy i studenci skupili się na opracowaniu mechanizmów maszynowego uczenia się.
      Cassie nauszył się biegać korzystając z algorytmu deep reinforcement learning. Dzięki niemu robot nauczył się nieprzerwanego dokonywania drobnych korekt pozycji, balansowania, by utrzymać się w pionie podczas biegu. "Cassie jest bardzo wydajny, gdyż z takim zamysłem był projektowany i budowany. Chcemy dotrzeć do granic możliwości tego sprzętu i pokazać, na co go stać", mówi doktorant Jeremy Dao z Dynamic Robotics Laboratory. Deep reinforcement learning to potężny algorytm, który daje możliwość nauczenia robota takich czynności jak bieganie, skakanie czy wchodzenie i schodzenie po schodach, dodaje Yesh Godse.
      Naukowcy twierdzą, że pewnego dnia widok robota na ulicy będzie równie powszechny jak widok samochodu. I roboty, podobnie jak samochody, znacząco zmienią nasze życie.
      Obecnie poważnym ograniczeniem w rozpowszechnieniu się robotów jest zrozumienie przemieszczania się z użyciem kończyn. Jednak na tym polu dokonuje się duży postęp.
      Wspomniana na wstępie 5-kilometrowa przebieżka zajęła Cassie 53 minuty i 3 sekundy. Wliczono w to około 6,5 minuty, jakich było potrzeba, by robot zresetował się po dwóch upadkach. Przyczyną pierwszego było przegrzanie komputera, przyczyną drugiego, zbyt duża prędkość podczas zakręcania.
      Cassie już wcześniej nauczył się chodzić po schodach, a proces uczenia możemy oglądać na poniższym filmie.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na stanowisku Nesher Ramla w Izraelu międzynarodowy zespół archeologów znalazł czaszkę przedstawiciela nieznanej dotychczas populacji człowieka. Nazwany roboczo „Nesher Ramla Homo” reprezentuje nieznaną dotychczas ostatnią istniejącą populację środkowoplejstoceńskiego Homo, która przetrwała w Europie, Azji Południowo-Zachodniej i Afryce. Wiek czaszki określono na 120–140 tysięcy lat.
      Dotychczasowe badania pokazały, że człowiek ten posługiwał się technologiami, które są łączone z H. sapiens lub H. neanderthalensis. Nesher Ramla Homo polował na małą i dużą zwierzynę, używał drewna na podpałkę, podtrzymywał ogniska i gotował lub piekł mięso. Odkrycie to potwierdza, że w środkowym plejstocenie dochodziło do mieszania różnych linii rozwojowych gatunku Homo.
      Niedawne badania morfologiczne i genetyczne wskazują, że neandertalczycy mogli w pewnym momencie historii krzyżować się z nieznaną wcześniej populacją spoza Europy. Tymczasem analizy kości ciemieniowej, żuchwy i drugich dolnych zębów trzonowych wykazały, że Nesher Ramla Homo łączy w sobie cechy neandertalskie i archaiczne. Odkrywcy nowego gatunku, wśród nich Israel Hershkovitz, Yossi Zaidner, Gerhard W. Weber i Fabio Di Vincenzo, uważają, że populacja ta brała w środkowym plejstocenie udział w ewolucji Homo na terenie Europy i Azji Wschodniej.
      Analizy wykazały, że nie mamy tutaj do czynienia ani z „pełnym” H. sapiens, ani z neandertalczykiem. A dotychczas sądzono, że w tym czasie w regionie żyły tylko te dwa gatunki. Nesher Ramla H. reprezentuje zatem nieznaną dotychczas unikatową populację.
      Jego kość ciemieniowa jest bardziej archaiczna i znacząco różni się od kości ciemieniowej H. sapiens, jest też znacząco grubsza od kości ciemieniowej neandertalczyka i większości wczesnych H. Sapiens. Żuchwa ma cech archaiczne oraz cechy neandertalskie. W sumie całość to unikatowa kombinacja cech archaicznych i neandertalskich, różna od wczesnych H. sapiens i późniejszych neandertalczyków.
      Autorzy obecnych badań sugerują, że wcześniej znalezione na terenie Izraela ludzkie skamieniałości, w tym szczątki Tabun C1 oraz te z jaskiń Qesem i Zuttiyeh, mogą należeć do Nesher Ramla Homo. Jeśli tak, to wyjaśniałoby to niektóre niezgodności zauważone w ich budowie.
      Co więcej, na stanowisku Nesher Ramla znaleziono koło 6000 kamiennych narzędzi, które są tak podobne, do współczesnych im narzędzi wytwarzanych przez H. sapiens, co sugeruje, że H. sapiens i Nesher Ramla Homo nie tylko wymieniały geny, ale regularnie dochodziło między nimi do kontaktów i wymiany kulturowej.
      Wyniki badań nad Nesher Ramla Homo opublikowano na łamach Science.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ludzkość może nie być w stanie kontrolować superinteligentnej sztucznej inteligencji (SI), sądzą autorzy najnowszych teoretycznych badań. Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy tego typu AI (artificial intelligence).
      Na naszych oczach dokonuje się szybki postęp algorytmów sztucznej inteligencji. Maszyny wygrywają z ludźmi w go i pokera, pokonują doświadczonych pilotów myśliwców podczas walki powietrznej, uczą się od podstaw metodą prób i błędów, zapowiadają wielką rewolucję w medycynie i naukach biologicznych, stawiają diagnozy równie dobrze co lekarze i potrafią lepiej od ludzi odróżniać indywidualne ptaki. To pokazuje, na jak wielu polach dokonuje się szybki postęp.
      Wraz z tym postępem rodzą się obawy o to, czy będziemy w stanie kontrolować sztuczną inteligencję. Obawy, które są wyrażane od co najmniej kilkudziesięciu lat. Od 1942 roku znamy słynne trzy prawa robotów, które pisarz Isaac Asimov przedstawił w opowiadaniu „Zabawa w berka”: 1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy, 2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem, 3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem. Później Asimov dodał nadrzędne prawo 0: Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
      W 2014 roku filozof Nick Bostrom, dyrektor Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim badał, w jaki sposób superinteligentna SI może nas zniszczyć, w jaki sposób możemy ją kontrolować i dlaczego różne metody kontroli mogą nie działać. Bostrom zauważył dwa problemy związane z kontrolą AI. Pierwszy to kontrolowanie tego, co SI może zrobić. Na przykład możemy kontrolować, czy podłączy się do internetu. Drugi to kontrolowanie tego, co będzie chciała zrobić. Aby to kontrolować, będziemy np. musieli nauczyć ją zasad pokojowego współistnienia z ludźmi. Jak stwierdził Bostrom, superinteligentna SI będzie prawdopodobnie w stanie pokonać wszelkie ograniczenia, jakie będziemy chcieli nałożyć na to, co może zrobić. Jeśli zaś chodzi o drugi problem, to Bostrom wątpił, czy będziemy w stanie czegokolwiek nauczyć superinteligentną sztuczną inteligencję.
      Teraz z problemem kontrolowania sztucznej inteligencji postanowił zmierzyć się Manuel Alfonseca i jego zespół z Universidad Autonoma de Madrid. Wyniki swojej pracy opisał na łamach Journal of Artificial Intelligence Research.
      Hiszpanie zauważają, że jakikolwiek algorytm, którego celem będzie zapewnienie, że AI nie zrobi ludziom krzywdy, musi najpierw symulować zachowanie mogące zakończyć się krzywdą człowieka po to, by maszyna potrafiła je rozpoznać i zatrzymać. Jednak zdaniem naukowców, żaden algorytm nie będzie w stanie symulować zachowania sztucznej inteligencji i z całkowitą pewnością stwierdzić, czy konkretne działanie może zakończyć się krzywdą dla człowieka. Już wcześniej udowodniono, że pierwsze prawo Asimova jest problemem, którego nie da się wyliczyć. Jego przestrzeganie jest więc nierealne.
      Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy superinteligentną maszynę, stwierdzają badacze. Wynika to z twierdzenia Rice'a, zgodnie z którym nie można odgadnąć, jaki będzie wynik działania programu komputerowego patrząc wyłącznie na jego kod.
      Alfonseca i jego koledzy mają jednak też i dobre wiadomości. Otóż nie musimy się już teraz martwić tym, co zrobi superinteligentna SI. Istnieją bowiem trzy poważne ograniczenia dla badań takich, jakie prowadzą Hiszpanie. Po pierwsze, taka niezwykle inteligentna AI powstanie nie wcześniej niż za 200 lat. Po drugie nie wiadomo, czy w ogóle możliwe jest stworzenie takiego rodzaju sztucznej inteligencji, czyli maszyny inteligentnej na tylu polach co ludzie. Po trzecie zaś, o ile możemy nie być w stanie kontrolować superinteligentnej SI, to powinno być możliwe kontrolowanie sztucznej inteligencji, która jest superinteligentna w wąskim zakresie. Już mamy superinteligencję takiego typu. Na przykład mamy maszyny, które liczą znacznie szybciej niż ludzie. To superinteligencja wąskiego typu, prawda?, stwierdza Alfonseca.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...