Ciekawostka taka. Ponieważ zawsze mnie to nurtowało. Nie pamiętam dokładnie słowo w słowo ale postaram się oddać ogólny sens. Stanisław Lem w powieści "Fiasko" przedstawia komputer lotu obdarzony sztuczną inteligencją postawiony przed problemem decyzji o uratowania załogi.
Sprawa wygląda tak: Komputer zapytany o dostępne opcje wybiera 2 warianty.
Pierwszy ma szansę 90% powodzenia na uratowanie np. 25% stanu osobowego załogi, 10% szans na zagładę wszystkich.
Drugi wariant zakłada przy 25% prawdopodobieństwa uratowanie 100% załogi (jakiś ryzykowny manewr) jednak istnieje ogromne ryzyko ze zginą przy tej próbie wszyscy.
Komputer również posiada zaprogramowaną wiedzę o ludzkiej naturze, empatii, chęci podejmowania ryzyka, instynktów oraz analizuje te dane. Wychodzi mu iż istnieje bardzo wysokie prawdopodobieństwo iż człowiek wybierze drugą opcję. Po czym postanawia w ogóle NIE przedstawiać drugiej z możliwości pilotom... Jako normalną analizę pokazuje tylko jedno wyjście kierując się żelazną logiką (25% może dalej kontynuować misję)
Mam nadzieję że za bardzo nie pozmieniałem Pana Lema (Dawno dosyć czytałem)
Natomiast co do Terminatora i zaprogramowania to pojawiają się już głosy o tym iż Drony bojowe będą mogły samodzielnie podejmować decyzję o ataku na dostrzeżone cele. Co prawda wszyscy na razie protestują no ale wojsko już nie w takie rzeczy się bawiło ;D
Albo np. takie inteligentne samochody kiedyś będą kierować za nas i co jeśli kalkulacja ryzyka wyjdzie takiemu autku że lepiej zaryzykować życie kierowcy bo np. na ulice w nocy wybiegnie 2 pijanych meneli i wyjdzie mu że lepiej skręcić na pobocze w drzewa (1 kierowca < 2 ludzi na drodze). Przypadek wcale nie taki skrajny.