I w tym tkwi zasadniczy problem, w rutynie.
W czasie II WŚ piloci myśliwców mieli taką zasadę - jeśli dłużej niż 30 sekund nie spojrzysz w lusterko wsteczne, jesteś trupem.
Ja stosuję jej odpowiednik na drodze. Maszyna tylko analizuje, ja dodatkowo przewiduję, fakt że czas reakcji mam żałosny w porównaniu do niej.
Zgodzę się, że w 90% przypadków maszyna będzie lepsza niż człowiek i pozostałe 10% przypadków nie przeważa szali na korzyść człowieka,
chociaż sam jestem wciąż żywy dzięki tym 10%. To jest bardzo duży plus maszyn.
Ale nie w tym rzecz.
Problem tkwi w podatności systemów złożonych na manipulację z zewnątrz. Dopóki nie odkryje się sposobu na manipulację ludzkim umysłem,
zastosowanie człowieka będzie zawsze bezpieczniejsze.
A póki co w tym temacie panuje spychologia, udawanie że temat nie istnieje, lub że problem jest marginalny - to jest właśnie problem.
Możemy sobie na to pozwolić z Windowsem, ale nie w przypadku systemów autonomicznych w takiej skali. Samochód to nie kosiarka do trawy.
Doskonałym przykładem tego co może się stać jest 11 września w NY, gdy nieodpowiednie osoby uzyskały dostęp do zwykłej maszyny jaką jest samolot.
Samochody to pryszcz w porównaniu do autonomicznych maszyn bojowych.
Już teraz miały miejsce przypadki przejęcia dronów a są to przecież obiekty wojskowe, które powinny być teoretycznie odporne.
Reasumując, w dłuzszej perspektywie czasu nie ma znaczenia, czy 100 tys. kierowców uśnie za kierownicą i uderzy w drzewo, czy w tej samej liczbie
autonomicznych samochodów aktywuje się złośliwy kod powodujący kolizję z drzewem.
Ale człowiek zawsze kierował się doraźną korzyścią, wiec będzie co ma być.