Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Kevin Fahey, odpowiedzialny w Armii USA za naziemne systemy bojowe ujawnił, że w Iraku doszło do niepokojące incydentu z udziałem robotów bojowych. Maszyny SWORDS (Special Weapons Observation Reconneissance Direct-action System) nagle zaczęły się obracać, a lufy lekkich karabinów maszynowych, w które są wyposażone, poruszyły się w kierunku amerykańskich żołnierzy. Broń zaczęła się poruszać wtedy, gdy nie powinna - powiedział Fahey.

Sytuację udało się opanować, ale wygląda na to, że bardzo przestraszyła ona Amerykanów. Fahey stwierdził: gdy zdarzy się coś naprawdę nieprzyjemnego, musi minąć 10-20 lat, zanim się ponownie tego spróbuje.

Być może SWORDS zostaną wycofane ze służby i zastąpione przez swoją ulepszoną wersję o nazwie MAARS (Modular Advanced Armed Robotic System).

Share this post


Link to post
Share on other sites
nagle zaczęły się obracać, a lufy lekkich karabinów maszynowych, w które są wyposażone, poruszyły się w kierunku amerykańskich żołnierzy. Broń zaczęła się poruszać wtedy, gdy nie powinna

 

Tak jakby chciały  powiedzieć nie rób drugiemu co tobie niemiłe. 8)

Share this post


Link to post
Share on other sites

A wiecie, że amerykańscy żołnierze mogą zabijać cywilów bez konsekwencji? Podobno ustalono to na forum ONZ przed atakiem na Irak. Usłyszałem na ten temat w TV, gdy głośno było o zaatakowaniu wioski przez Polaków.

Share this post


Link to post
Share on other sites

A wiecie, że amerykańscy żołnierze mogą zabijać cywilów bez konsekwencji? Podobno ustalono to na forum ONZ przed atakiem na Irak. Usłyszałem na ten temat w TV, gdy głośno było o zaatakowaniu wioski przez Polaków.

 

która stacja tv i kiedy oznajmiła o istnieniu takiego porozumienia w ONZ?

Share this post


Link to post
Share on other sites

Jakiś z polskich serwisów informacyjnych. Wiadomości, Fakty, Wydarzenia -coś z tej trójki. Byłem w lekkim szoku jak to usłyszałem. Z drugiej strony po przeanalizowaniu sytuacji można było się tego spodziewać. W Iraku i Afganistanie zabili pewnie już wielu cywilów i jakoś afery nikt z tego nie robił i nie robi.

Share this post


Link to post
Share on other sites

a świstak siedzi i zawija, gdyby naprawdę było takie pozwolenie to nie przeszło by aż tak bez echa, by szary człowiek o nim nie usłyszał-przynajmniej ufam w to że by tak nie było...

PS:ostatnio nasłuchałem się o tym, że większość kierowców ciężarówek w USA to szyici/czy ogólnie muzułmanie-więc może szykują zamach ;)

Share this post


Link to post
Share on other sites
wiecie, że amerykańscy żołnierze mogą zabijać cywilów bez konsekwencji

 

To że pozwolę ci zabić, a ty to zrobisz rodzi konsekwencje dla ciebie, po prostu jesteś frajerem bo dałeś się zmanipulować, i jest to smutne że w XXI wieku jeszcze na to nie wpadli.  8)

Share this post


Link to post
Share on other sites
Guest tymeknafali

A wszystko o rope i pieniądze... straszne, jak tak można zabijać...  :-\

Share this post


Link to post
Share on other sites
Guest macintosh

a ja chce być T1000  ;D

ciekawe, szkoda, że nie rozwinęli wątku,

algorytmy rozpoznawania zawiodły?

czy AI istnieje już od dawna?

bo jak tak to ja che pogadać z AI

Share this post


Link to post
Share on other sites

czy AI istnieje już od dawna?

bo jak tak to ja che pogadać z AI

Oj, niestety ten typ AI chyba służy do wydajnego zabijania, nie do dyskusji o Kartezjuszu :/

Share this post


Link to post
Share on other sites
Guest macintosh

mikroos: o czym interesującym mówił Kartezjusz, zobaczyłem sobie na wikipedii, cogito ergo sum, i nie mysl niczego czego nie doświadczyłeś(wersja beta); chciałbym usłyszeć/przeczytać, from You, jak brzmiałoby pierwsze pytanie mikroos'a do AI about Descartes;

choć ja chciałbym zadać inne pytanie AI : czym chciałAbyś być? po co to wszystko? (i nie potrzebna mi tu odpowiedz "Deus Ex Machina" 'y)

były takie odpowiedzi/pytania, ale chciałbym wiedzieć jakie pytanie mikroos zadałby na poczatek,

o ile moje pytanie nie jest zbyt osobiste,

ale to, chyba, byłby cały legion powiązanych pytań...

Share this post


Link to post
Share on other sites

Za wpisaniem nazwiskiem tego konkretnego filozofa nie stała żadna głębsza myśl. To po prostu pierwszy filozof, który mi przyszedł na myśl, by zobrazować, że z robotem bojowym nie porozmawiasz o rzeczach ważnych, bo on służy do zabijania.

Share this post


Link to post
Share on other sites
Guest tymeknafali

Ciekawe do czego nas zaprowadzi to jak maszyny faktycznie zaczną myśleć i się zbuntują.

Share this post


Link to post
Share on other sites
Guest tymeknafali

Eeeee..... lepiej na pilota, zbliż się do takiej maszyny zbuntowanej co ma kałacha w ręku  ;D

Share this post


Link to post
Share on other sites
Guest macintosh

ja nie miałbym nic przeciwko zbuntowanej i myślącej lepiej ode mnie maszynie, byleby nie miała dostępu do środków nacisku/zabijania/zagłady/dekoniunktury/manipulacji/itd;

a Kartezjusz jest ok  :;)

Share this post


Link to post
Share on other sites
ja nie miałbym nic przeciwko zbuntowanej i myślącej lepiej ode mnie maszynie, byleby nie miała dostępu do środków nacisku/zabijania/zagłady/dekoniunktury/manipulacji/itd

 

a ciebie traktowała jako jako paliwo?? 8)

Share this post


Link to post
Share on other sites
Guest tymeknafali
a ciebie traktowała jako jako paliwo??

A czy My żyjemy w Matrixie, czy mamy kontrole nad tym?

Share this post


Link to post
Share on other sites
Guest macintosh

przecież napisałem .../manipulacji/...  :-\

ale wolałbym być tam niż tu, albo przynajmniej zrobić takie miejsce(dla jednej os by wystarczyło- doskonały interfejs użytkownika; agenci do skasowania; można polatać; pozmieniać prawa fizyki)

matrix to moje marzenie  8) - nie potrzebnie wykluczyłem w powyższej liście  ???

Share this post


Link to post
Share on other sites
Guest macintosh
a ciebie traktowała jako jako paliwo?? 8)

dobra transakcja 8)

Share this post


Link to post
Share on other sites
Guest tymeknafali

Jeżeli w każdym momencie mógłbym z niego wyjść,to faktycznie było by fajne.

Share this post


Link to post
Share on other sites
Guest macintosh

najfajniejsze w technologiach matrixowych to możliwość implementowania sobie dużych porcji wiedzy przez łącze(Trinity nauczyła się latać helikopterm w mnie niż 7sec; Neo kung-fu w 10h<na poziomie mistrzowskim>)

Share this post


Link to post
Share on other sites
Guest tymeknafali

Ciekawe ile trwała by nauka tańca ludowego? ;)

Share this post


Link to post
Share on other sites

Ciekawe ile trwała by nauka tańca ludowego? ;)

 

Przez światłowód czy wifi? ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go.
      My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu.
      My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas.
      Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe.
      Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ronald Arkin z Georgia Institute of Technology wybrał sobie nietypową specjalizację. Od lat pracuje nad "systemem winy" u robotów. Właśnie wygasł jego trzyletni kontrakt z US Army, w ramach którego Arkin pracował nad "etyką" robotów bojowych.
      Zdaniem naukowca, w niedalekiej przyszłości tego typu maszyny mogą zostać wyposażone w "moralność", dzięki czemu na polach bitew będą zachowywały się bardziej humanitarnie niż ludzie.
      Arkin udzielił interesującego wywiadu serwisowi CNET, w którym mówi o swojej 25-letniej pracy w dziedzinie robotyki oraz o etyce maszyn. Podkreśla w nim, że nie chodzi tutaj o odczuwanie empatii przez roboty, ale o to, by postępowały etycznie. "Obecnie pracujemy nad systememi, które będą przestrzegały międzynarodowych przepisów dotyczących prowadzenia wojny, naszych własnych kodeksów etycznych i zasad oraz warunków przystąpienia do walki i jej prowadzenia" - mówi Arkin. Dlatego też, stwierdza, zdecydowano, że roboty należy wyposażyć w system poczucia winy. Byłby on rodzajem "kary" dla robota, która polega na automatycznym zmniejszeniu jego zdolności do prowadzenia walki w sytuacji, gdy dotychczasowe działania maszyny doprowadziły do większych niż założono ofiar i zniszczeń. System poczucia winy ma też powstrzymywać robota przed podjęciem akcji bądź też użyciem broni które mogą spowodować nieakceptowalne w danej sytuacji zniszczenia.
      Jak mówi Arkin: "Nie tworzymy etyki. Etyka pochodzi z traktatów stworzonych przez prawników i filozofów. Przepisy te były kodyfikowane przez tysiące lat i obecnie istnieją w formie międzynarodowych umów. To, czym się zajmujemy, to przełożenie tych zasad na język, który roboty zrozumieją i będą mogły z nim pracować".
      Cały wywiad dostępny jest w serwisie CNET.com.
    • By KopalniaWiedzy.pl
      Roboty buntujące się przeciwko ludziom to jeden z popularnych wątków kina i literatury. Lockheed Martin uczynił właśnie duży krok w kierunku realizacji takiego scenariusza w rzeczywistości.
      Z opublikowanej informacji prasowej dowiadujemy się o zakończonych sukcesem testach systemu ICARUS (Intelligent Control and Autonomous Re-planning of Unmanned Systems - Inteligentna Kontrola i Autonomiczne Zmienianie Planów w Systemach Bezzałogowych). To nic innego jak autonomiczny system kierowania robotami, w tym robotami bojowymi. Nad ICARUSEM od sześciu lat pracują słynne Skunk Works należące do Lockheeda Martina.
      John Clark, odpowiedzialny z rozwój projektu ICARUS, stwierdził: Przeprowadzone z powodzeniem testy naszego autonomicznego systemu zarządzania misjami ICARUS dowodzą słuszności projektu. Udowodniliśmy, że dzięki ICARUSOWI można zmniejszyć zaangażowanie ludzi, a jednocześnie sprawować kontrolę nad zespołem bezzałogowych urządzeń wykonujących złożone misje w dynamicznie zmieniającym się środowisku.
      System ICARUS został przetestowany w dniach 12-14 sierpnia podczas tygodniowych ćwiczeń Edge Command and Control/Hybrid Operations prowadzonych przez Marynarkę Wojenną USA.
      Przypomnijmy, że doszło już do przynajmniej jednego incydentu z nieprzewidzianym zachowaniem robotów bojowych. 
    • By KopalniaWiedzy.pl
      Noel Sharkey, jeden z czołowych ekspertów ds. robotyki, mówi, że jest naprawdę przerażony planami USA i innych krajów dotyczącymi prac nad robotami bojowymi. W chwili obecnej w Iraku znajduje się ponad 4000 półautonomicznych robotów wojskowych, wykorzystywanych przez Stany Zjednoczone.
      Sharkeya nie przeraża jednak sama ich liczba, a ich przyszłość. Obecnie to człowiek podejmuje decyzje. Jednak Pentagon od dwóch lat prowadzi już badania nad w pełni automatycznymi maszynami, które samodzielnie będą decydowały o naciśnięciu spustu.
      Amerykański Departament Obrony (DoD) opublikował swoje plany dotyczące badań nad robotami bojowymi. Do roku 2010 chce wydać na ich rozwój 4 miliardy dolarów, a później dołoży do tego kolejne 20 miliardów. Trzeba przy tym pamiętać, że podobne maszyny powstają też w kilku krajach Europy, w Kanadzie, Korei Południowej, RPA, Singapurze i Izraelu.
      Sharkey uważa, że powinno zostać nałożone tymczasowe moratorium na rozwój autonomicznych robotów bojowych. Dałoby to czas na określenie, jak daleko można posunąć się w ich produkcji i jakie mechanizmy bezpieczeństwa należy im zaimplementować.
      Sharkeya popiera Ronald Arkin, specjalista robotyki z GaTech. Sądzi on, że rzeczywiście należy problem przedyskutować. Uważa jednak, że w przyszłości roboty będą postępowały bardziej etycznie niż współcześni żołnierze.
      Zdaniem Arkina maszyny powinny przestrzegać międzynarodowych porozumień. Jest on jednak optymistą: Jestem pewien, że w robocie nie zrodzi się chęć zrobienia krzywdy cywilowi.
    • By KopalniaWiedzy.pl
      Izraelska firm Elbit Systems pokazała robota bojowego "Viper”. Urządzenie wielkości małego telewizora wyposażono w kamerę, pistolet maszynowy UZI z celownikiem laserowym oraz granaty. "Viper” w przyszłości może być wykorzystywany podczas walk w mieście, korytarzach czy tunelach. Urządzenie przypomina niewielki czołg.
      W chwili obecnej robot znalazłby przede wszystkim zastosowanie przy neutralizacji ładunków wybuchowych. Mógłby też służyć żołnierzom jako zwiadowca w terenie, gdzie spodziewają się min-pułapek czy ukrytego wroga.
      Urządzenie nie jest niezależne. Wymaga współpracy z operatorem, który najpierw musi je przenieść na miejsce akcji, a później nim kierować.
       
×
×
  • Create New...