Jump to content
Forum Kopalni Wiedzy

Niedobry

Users
  • Content Count

    1
  • Joined

  • Last visited

Community Reputation

0 Neutral

About Niedobry

  • Rank
    Fuks
  1. Ciekawostka taka. Ponieważ zawsze mnie to nurtowało. Nie pamiętam dokładnie słowo w słowo ale postaram się oddać ogólny sens. Stanisław Lem w powieści "Fiasko" przedstawia komputer lotu obdarzony sztuczną inteligencją postawiony przed problemem decyzji o uratowania załogi. Sprawa wygląda tak: Komputer zapytany o dostępne opcje wybiera 2 warianty. Pierwszy ma szansę 90% powodzenia na uratowanie np. 25% stanu osobowego załogi, 10% szans na zagładę wszystkich. Drugi wariant zakłada przy 25% prawdopodobieństwa uratowanie 100% załogi (jakiś ryzykowny manewr) jednak istnieje ogromne ryzyko ze zginą przy tej próbie wszyscy. Komputer również posiada zaprogramowaną wiedzę o ludzkiej naturze, empatii, chęci podejmowania ryzyka, instynktów oraz analizuje te dane. Wychodzi mu iż istnieje bardzo wysokie prawdopodobieństwo iż człowiek wybierze drugą opcję. Po czym postanawia w ogóle NIE przedstawiać drugiej z możliwości pilotom... Jako normalną analizę pokazuje tylko jedno wyjście kierując się żelazną logiką (25% może dalej kontynuować misję) Mam nadzieję że za bardzo nie pozmieniałem Pana Lema (Dawno dosyć czytałem) Natomiast co do Terminatora i zaprogramowania to pojawiają się już głosy o tym iż Drony bojowe będą mogły samodzielnie podejmować decyzję o ataku na dostrzeżone cele. Co prawda wszyscy na razie protestują no ale wojsko już nie w takie rzeczy się bawiło ;D Albo np. takie inteligentne samochody kiedyś będą kierować za nas i co jeśli kalkulacja ryzyka wyjdzie takiemu autku że lepiej zaryzykować życie kierowcy bo np. na ulice w nocy wybiegnie 2 pijanych meneli i wyjdzie mu że lepiej skręcić na pobocze w drzewa (1 kierowca < 2 ludzi na drodze). Przypadek wcale nie taki skrajny.
×
×
  • Create New...