-
Podobna zawartość
-
przez KopalniaWiedzy.pl
W latach 30. w siłach zbrojnych Wielkiej Brytanii może służyć około 30 000 robotów, które będą wypełniały różne zadania zarówno na linii frontu jak i w jej pobliżu, stwierdził szef sztabu brytyjskiej armii generał Nick Carter. Myślę, że możemy mieć 120-tysięczną armię, z czego 30 000 to będą roboty, kto wie, powiedział.
Obecnie Wielka Brytania ma 73 870 żołnierzy gotowych do prowadzenia działań bojowych. To sporo mniej niż zakładane 82 050. W przyszłości zakładana liczba może zostać obniżona do 75 000 przy założeniu, że część luk wypełni technologia.
Wszystkie rodzaje brytyjskich sił zbrojnych są obecnie zaangażowane w prace badawczo-rozwojowe, w ramach których powstają zarówno niewielkie drony, jak i zdalnie sterowany pojazdy lądowe i podwodne. Niektóre z nich mają być uzbrojone, inne będą służyły wyłącznie działaniom rozpoznawczym. Wśród rozwijanych systemów jest np. dron i9, który jest uzbrojony w dwie strzelby. Maszyna ma być używana podczas walk w mieście, przede wszystkim do szturmowania budynków, kiedy to dochodzi do największej liczby strat własnych.
Zgodnie z obecnie obowiązującymi zasadami brytyjskiego Ministerstwa Obrony jedynie ludzie mogą decydować o otwarciu ognia. Jednak pojawia się coraz więcej obaw o wybuch wojny, w której będą brały udział autonomiczne roboty samodzielnie podejmujące decyzje o działaniach bojowych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go.
My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu.
My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas.
Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe.
Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Ronald Arkin z Georgia Institute of Technology wybrał sobie nietypową specjalizację. Od lat pracuje nad "systemem winy" u robotów. Właśnie wygasł jego trzyletni kontrakt z US Army, w ramach którego Arkin pracował nad "etyką" robotów bojowych.
Zdaniem naukowca, w niedalekiej przyszłości tego typu maszyny mogą zostać wyposażone w "moralność", dzięki czemu na polach bitew będą zachowywały się bardziej humanitarnie niż ludzie.
Arkin udzielił interesującego wywiadu serwisowi CNET, w którym mówi o swojej 25-letniej pracy w dziedzinie robotyki oraz o etyce maszyn. Podkreśla w nim, że nie chodzi tutaj o odczuwanie empatii przez roboty, ale o to, by postępowały etycznie. "Obecnie pracujemy nad systememi, które będą przestrzegały międzynarodowych przepisów dotyczących prowadzenia wojny, naszych własnych kodeksów etycznych i zasad oraz warunków przystąpienia do walki i jej prowadzenia" - mówi Arkin. Dlatego też, stwierdza, zdecydowano, że roboty należy wyposażyć w system poczucia winy. Byłby on rodzajem "kary" dla robota, która polega na automatycznym zmniejszeniu jego zdolności do prowadzenia walki w sytuacji, gdy dotychczasowe działania maszyny doprowadziły do większych niż założono ofiar i zniszczeń. System poczucia winy ma też powstrzymywać robota przed podjęciem akcji bądź też użyciem broni które mogą spowodować nieakceptowalne w danej sytuacji zniszczenia.
Jak mówi Arkin: "Nie tworzymy etyki. Etyka pochodzi z traktatów stworzonych przez prawników i filozofów. Przepisy te były kodyfikowane przez tysiące lat i obecnie istnieją w formie międzynarodowych umów. To, czym się zajmujemy, to przełożenie tych zasad na język, który roboty zrozumieją i będą mogły z nim pracować".
Cały wywiad dostępny jest w serwisie CNET.com.
-
przez KopalniaWiedzy.pl
Roboty buntujące się przeciwko ludziom to jeden z popularnych wątków kina i literatury. Lockheed Martin uczynił właśnie duży krok w kierunku realizacji takiego scenariusza w rzeczywistości.
Z opublikowanej informacji prasowej dowiadujemy się o zakończonych sukcesem testach systemu ICARUS (Intelligent Control and Autonomous Re-planning of Unmanned Systems - Inteligentna Kontrola i Autonomiczne Zmienianie Planów w Systemach Bezzałogowych). To nic innego jak autonomiczny system kierowania robotami, w tym robotami bojowymi. Nad ICARUSEM od sześciu lat pracują słynne Skunk Works należące do Lockheeda Martina.
John Clark, odpowiedzialny z rozwój projektu ICARUS, stwierdził: Przeprowadzone z powodzeniem testy naszego autonomicznego systemu zarządzania misjami ICARUS dowodzą słuszności projektu. Udowodniliśmy, że dzięki ICARUSOWI można zmniejszyć zaangażowanie ludzi, a jednocześnie sprawować kontrolę nad zespołem bezzałogowych urządzeń wykonujących złożone misje w dynamicznie zmieniającym się środowisku.
System ICARUS został przetestowany w dniach 12-14 sierpnia podczas tygodniowych ćwiczeń Edge Command and Control/Hybrid Operations prowadzonych przez Marynarkę Wojenną USA.
Przypomnijmy, że doszło już do przynajmniej jednego incydentu z nieprzewidzianym zachowaniem robotów bojowych.
-
przez KopalniaWiedzy.pl
Kevin Fahey, odpowiedzialny w Armii USA za naziemne systemy bojowe ujawnił, że w Iraku doszło do niepokojące incydentu z udziałem robotów bojowych. Maszyny SWORDS (Special Weapons Observation Reconneissance Direct-action System) nagle zaczęły się obracać, a lufy lekkich karabinów maszynowych, w które są wyposażone, poruszyły się w kierunku amerykańskich żołnierzy. Broń zaczęła się poruszać wtedy, gdy nie powinna - powiedział Fahey.
Sytuację udało się opanować, ale wygląda na to, że bardzo przestraszyła ona Amerykanów. Fahey stwierdził: gdy zdarzy się coś naprawdę nieprzyjemnego, musi minąć 10-20 lat, zanim się ponownie tego spróbuje.
Być może SWORDS zostaną wycofane ze służby i zastąpione przez swoją ulepszoną wersję o nazwie MAARS (Modular Advanced Armed Robotic System).
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.