Se un software dovesse scegliere chi non salvare (sacrificare)?
Immaginiamo una macchina autoguidata che debba scegliere, perché non vi sono alternative, chi sacrificare.
Ad esempio rischiare un frontale mettendo a repentaglio i passeggeri di entrambi i mezzi, investire i pedoni in mezzo alla strada o schivare e investire le biciclette con relativi ciclisti a destra?
E’ solo un esempio ma sicuramente succederà e con criteri da noi impostati il software (prima che diventi intelligenza artificiale reale) sceglierà.
Numero minore di possibili vittime?
In caso di numero uguale, età e/o valore del totale delle singole vittime?
Ad es. tra un nonno ed un bambino? E nel caso di nonno e bambino e di una giovane coppia?
Dovremmo girare con RFID che indicano il nostro valore in modo tale di agevolare il software in queste decisioni?