Fallo. Sei tu che hai detto "basta leggere" non puoi chiedere a me di trovare le prove a sostegno della tua tesi.
Quindi o la macchina non è in grado di fare quello che le viene chiesto, o ne perde la capacità a seguito di intervento umano "non conforme". Ergo non è la macchina a sbagliare, ma l'umano che la progetta/manutenziona.
Ergo non è la macchina a sbagliare ma è l'umano che non sa/non riesce ad adoperare la macchina come previsto.
Non credo che alla Fiat i robot della catena di montaggio se ne vadano a zonzo schiacciando operai per il livello tecnologico o la formazione/specializzazione dei suddetti. Immagino che finché il robot si trova a operare nel percorso previsto, e finché questo resti sgombro da operai e capiturno, la percentuale degli incidenti sia in bello zero tondo, ma aspetto di sentire i tuoi dati.
In ogni ambito ci sono rischi accettabili e non. Attualmente la percentuale di rischio di un aereo in manovra di avvicinamento ILS, o quella di un robot in catena di montaggio appaiono accettabili rispetto alla stessa operazione svolta da un umano con più o meno ausili. Quella dell'autopilot Tesla, o di un qualsiasi altro veicolo autonomo immerso nel traffico standard, IMHO attualmente non lo è ancora (e probabilmente non lo sarà mai, per i motivi suesposti).