Si el propósito de un sistema de justicia penal es minimizar el daño a las partes inocentes, entonces enfatizará la prevención y la restauración sobre el castigo. El castigo sirve para ese propósito solo en la medida en que disuade a otros crímenes. Incluso en los sistemas judiciales que enfatizan el castigo, la volición es una consideración importante, por lo que su pregunta realmente habla sobre si el robot autoconsciente tiene libre albedrío.
Lo hará? ¿Hacemos? Nuestras sociedades están organizadas como si esto fuera así, pero la investigación ha encontrado que tomamos decisiones y comenzamos a tomar acciones en consecuencia un poco antes de que nos demos cuenta de haber tomado esas decisiones.
No creo que sea factible que los robots sufran, aunque podrían experimentar “dolor” en el sentido de sensaciones o pérdidas no deseadas. Pero no creo que el dolor físico tenga mucho efecto en los robots. Si el dolor físico es la base del castigo, entonces los robots tendrán habilidades extraordinarias para compartimentarlo e ignorarlo. La respuesta de Jonathan Kolber a la filosofía: si tuviéramos un robot operado por una computadora, que es y piensa como un ser humano, ¿sería moral hacerlo sufrir?
- ¿Cuándo se crearán los robots que ayudan con nuestras necesidades cotidianas?
- ¿La IA se convertirá en el día del juicio final del futuro?
- ¿Sería útil una IA que detecte noticias falsas?
- ¿Hay alguna solución disponible para entrenar redes neuronales específicamente en CPU, donde una GPU podría no estar disponible?
- ¿Qué adiciones o cambios harías a las tres leyes de la robótica?
Existen otros tipos de dolor, como la pérdida de la compañía o las experiencias deseadas. Estos podrían imponerse a los robots. Sin embargo, dado el supuesto de que un robot autoconsciente será en realidad una IA alojada dentro de una máquina móvil, la IA tendría la capacidad de “modelar” a esos compañeros o experiencias internamente de modo que no experimente pérdida.