Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Moralność Terminatora

Rekomendowane odpowiedzi

Noel Sharkey, jeden z czołowych ekspertów ds. robotyki, mówi, że jest naprawdę przerażony planami USA i innych krajów dotyczącymi prac nad robotami bojowymi. W chwili obecnej w Iraku znajduje się ponad 4000 półautonomicznych robotów wojskowych, wykorzystywanych przez Stany Zjednoczone.

Sharkeya nie przeraża jednak sama ich liczba, a ich przyszłość. Obecnie to człowiek podejmuje decyzje. Jednak Pentagon od dwóch lat prowadzi już badania nad w pełni automatycznymi maszynami, które samodzielnie będą decydowały o naciśnięciu spustu.

Amerykański Departament Obrony (DoD) opublikował swoje plany dotyczące badań nad robotami bojowymi. Do roku 2010 chce wydać na ich rozwój 4 miliardy dolarów, a później dołoży do tego kolejne 20 miliardów. Trzeba przy tym pamiętać, że podobne maszyny powstają też w kilku krajach Europy, w Kanadzie, Korei Południowej, RPA, Singapurze i Izraelu.

Sharkey uważa, że powinno zostać nałożone tymczasowe moratorium na rozwój autonomicznych robotów bojowych. Dałoby to czas na określenie, jak daleko można posunąć się w ich produkcji i jakie mechanizmy bezpieczeństwa należy im zaimplementować.

Sharkeya popiera Ronald Arkin, specjalista robotyki z GaTech. Sądzi on, że rzeczywiście należy problem przedyskutować. Uważa jednak, że w przyszłości roboty będą postępowały bardziej etycznie niż współcześni żołnierze.

Zdaniem Arkina maszyny powinny przestrzegać międzynarodowych porozumień. Jest on jednak optymistą: Jestem pewien, że w robocie nie zrodzi się chęć zrobienia krzywdy cywilowi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nawet gdyby ktoś się nimi przejmował, to i tak roboty nie są w stanie "pojąć", na czym miałoby polegać "nieszkodzenie" sobie czy człowiekowi. To tak jakby próbować wytresować bakterię...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie. Współczesne roboty nie są wyposażone w sztuczną inteligencję, a jedynie szereg algorytmów typu "co i kiedy można zrobić, a czego nie". Nie ma takiej możliwości  by "przyszło im do głowy" uszkodzenie swoich ludzkich kolegów. Do tego jest potrzebna mówiąc trochę nie konkretnie "wolna wola", a tym czasem maszyny te w dużym uproszczeniu wgrany będą miały jedynie scenariusz typu :"strzelać do gośći w  takich a takich uniformach z brotami i z kałasznikowami". Oczywiście te algorytmy nie są takie proste, dlatego idzie na badania tyle $. Jednak w kwestii wyboru te maszyny defacto go nie mają.

 

A propo mojego przedmówcy. Przykład z bakterią jest niezły ale mam lepszy. To tak jakbyś napisał program który podaje współżędne zielonej kropki znajdującej się na zdjęciu, a program "zmieniłby zdanie" i wskazał czerwoną. Jedyne błędy jakie mogą się pojawić będą powodowane przez nieskuteczny algorytm rozpoznawania zielonej kropki, ale to już kwiestia nie związana z trzema prawami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W latach 30. w siłach zbrojnych Wielkiej Brytanii może służyć około 30 000 robotów, które będą wypełniały różne zadania zarówno na linii frontu jak i w jej pobliżu, stwierdził szef sztabu brytyjskiej armii generał Nick Carter. Myślę, że możemy mieć 120-tysięczną armię, z czego 30 000 to będą roboty, kto wie, powiedział.
      Obecnie Wielka Brytania ma 73 870 żołnierzy gotowych do prowadzenia działań bojowych. To sporo mniej niż zakładane 82 050. W przyszłości zakładana liczba może zostać obniżona do 75 000 przy założeniu, że część luk wypełni technologia.
      Wszystkie rodzaje brytyjskich sił zbrojnych są obecnie zaangażowane w prace badawczo-rozwojowe, w ramach których powstają zarówno niewielkie drony, jak i zdalnie sterowany pojazdy lądowe i podwodne. Niektóre z nich mają być uzbrojone, inne będą służyły wyłącznie działaniom rozpoznawczym. Wśród rozwijanych systemów jest np. dron i9, który jest uzbrojony w dwie strzelby. Maszyna ma być używana podczas walk w mieście, przede wszystkim do szturmowania budynków, kiedy to dochodzi do największej liczby strat własnych.
      Zgodnie z obecnie obowiązującymi zasadami brytyjskiego Ministerstwa Obrony jedynie ludzie mogą decydować o otwarciu ognia. Jednak pojawia się coraz więcej obaw o wybuch wojny, w której będą brały udział autonomiczne roboty samodzielnie podejmujące decyzje o działaniach bojowych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go.
      My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu.
      My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas.
      Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe.
      Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ronald Arkin z Georgia Institute of Technology wybrał sobie nietypową specjalizację. Od lat pracuje nad "systemem winy" u robotów. Właśnie wygasł jego trzyletni kontrakt z US Army, w ramach którego Arkin pracował nad "etyką" robotów bojowych.
      Zdaniem naukowca, w niedalekiej przyszłości tego typu maszyny mogą zostać wyposażone w "moralność", dzięki czemu na polach bitew będą zachowywały się bardziej humanitarnie niż ludzie.
      Arkin udzielił interesującego wywiadu serwisowi CNET, w którym mówi o swojej 25-letniej pracy w dziedzinie robotyki oraz o etyce maszyn. Podkreśla w nim, że nie chodzi tutaj o odczuwanie empatii przez roboty, ale o to, by postępowały etycznie. "Obecnie pracujemy nad systememi, które będą przestrzegały międzynarodowych przepisów dotyczących prowadzenia wojny, naszych własnych kodeksów etycznych i zasad oraz warunków przystąpienia do walki i jej prowadzenia" - mówi Arkin. Dlatego też, stwierdza, zdecydowano, że roboty należy wyposażyć w system poczucia winy. Byłby on rodzajem "kary" dla robota, która polega na automatycznym zmniejszeniu jego zdolności do prowadzenia walki w sytuacji, gdy dotychczasowe działania maszyny doprowadziły do większych niż założono ofiar i zniszczeń. System poczucia winy ma też powstrzymywać robota przed podjęciem akcji bądź też użyciem broni które mogą spowodować nieakceptowalne w danej sytuacji zniszczenia.
      Jak mówi Arkin: "Nie tworzymy etyki. Etyka pochodzi z traktatów stworzonych przez prawników i filozofów. Przepisy te były kodyfikowane przez tysiące lat i obecnie istnieją w formie międzynarodowych umów. To, czym się zajmujemy, to przełożenie tych zasad na język, który roboty zrozumieją i będą mogły z nim pracować".
      Cały wywiad dostępny jest w serwisie CNET.com.
    • przez KopalniaWiedzy.pl
      Roboty buntujące się przeciwko ludziom to jeden z popularnych wątków kina i literatury. Lockheed Martin uczynił właśnie duży krok w kierunku realizacji takiego scenariusza w rzeczywistości.
      Z opublikowanej informacji prasowej dowiadujemy się o zakończonych sukcesem testach systemu ICARUS (Intelligent Control and Autonomous Re-planning of Unmanned Systems - Inteligentna Kontrola i Autonomiczne Zmienianie Planów w Systemach Bezzałogowych). To nic innego jak autonomiczny system kierowania robotami, w tym robotami bojowymi. Nad ICARUSEM od sześciu lat pracują słynne Skunk Works należące do Lockheeda Martina.
      John Clark, odpowiedzialny z rozwój projektu ICARUS, stwierdził: Przeprowadzone z powodzeniem testy naszego autonomicznego systemu zarządzania misjami ICARUS dowodzą słuszności projektu. Udowodniliśmy, że dzięki ICARUSOWI można zmniejszyć zaangażowanie ludzi, a jednocześnie sprawować kontrolę nad zespołem bezzałogowych urządzeń wykonujących złożone misje w dynamicznie zmieniającym się środowisku.
      System ICARUS został przetestowany w dniach 12-14 sierpnia podczas tygodniowych ćwiczeń Edge Command and Control/Hybrid Operations prowadzonych przez Marynarkę Wojenną USA.
      Przypomnijmy, że doszło już do przynajmniej jednego incydentu z nieprzewidzianym zachowaniem robotów bojowych. 
    • przez KopalniaWiedzy.pl
      Kevin Fahey, odpowiedzialny w Armii USA za naziemne systemy bojowe ujawnił, że w Iraku doszło do niepokojące incydentu z udziałem robotów bojowych. Maszyny SWORDS (Special Weapons Observation Reconneissance Direct-action System) nagle zaczęły się obracać, a lufy lekkich karabinów maszynowych, w które są wyposażone, poruszyły się w kierunku amerykańskich żołnierzy. Broń zaczęła się poruszać wtedy, gdy nie powinna - powiedział Fahey.
      Sytuację udało się opanować, ale wygląda na to, że bardzo przestraszyła ona Amerykanów. Fahey stwierdził: gdy zdarzy się coś naprawdę nieprzyjemnego, musi minąć 10-20 lat, zanim się ponownie tego spróbuje.
      Być może SWORDS zostaną wycofane ze służby i zastąpione przez swoją ulepszoną wersję o nazwie MAARS (Modular Advanced Armed Robotic System).
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...