¿Cómo serán castigados los robots autoconscientes por sus crímenes?

Si el propósito de un sistema de justicia penal es minimizar el daño a las partes inocentes, entonces enfatizará la prevención y la restauración sobre el castigo. El castigo sirve para ese propósito solo en la medida en que disuade a otros crímenes. Incluso en los sistemas judiciales que enfatizan el castigo, la volición es una consideración importante, por lo que su pregunta realmente habla sobre si el robot autoconsciente tiene libre albedrío.

Lo hará? ¿Hacemos? Nuestras sociedades están organizadas como si esto fuera así, pero la investigación ha encontrado que tomamos decisiones y comenzamos a tomar acciones en consecuencia un poco antes de que nos demos cuenta de haber tomado esas decisiones.

No creo que sea factible que los robots sufran, aunque podrían experimentar “dolor” en el sentido de sensaciones o pérdidas no deseadas. Pero no creo que el dolor físico tenga mucho efecto en los robots. Si el dolor físico es la base del castigo, entonces los robots tendrán habilidades extraordinarias para compartimentarlo e ignorarlo. La respuesta de Jonathan Kolber a la filosofía: si tuviéramos un robot operado por una computadora, que es y piensa como un ser humano, ¿sería moral hacerlo sufrir?

Existen otros tipos de dolor, como la pérdida de la compañía o las experiencias deseadas. Estos podrían imponerse a los robots. Sin embargo, dado el supuesto de que un robot autoconsciente será en realidad una IA alojada dentro de una máquina móvil, la IA tendría la capacidad de “modelar” a esos compañeros o experiencias internamente de modo que no experimente pérdida.

¿Por qué deberían ser castigados? ¡Necesitan ser reparados!

Al igual que cualquier máquina, tendríamos que averiguar qué salió mal, probablemente manteniendo a todos los demás de ese tipo conectados a tierra mientras hacemos esto. Una vez que sepamos qué salió mal, entonces debemos arreglar las cosas para que no lo vuelvan a hacer.

La fijación podría ser:

a) restringir el uso de la máquina – tal como restringimos el uso de motores y otras máquinas grandes en la actualidad

b) modificaciones de hardware o software, también conocido como reeducación en algunas culturas

c) hacer lo que no hicieron un delito (así es como se corrigen los que violan muchas leyes)

d) abolir ese tipo de máquina

Tu pregunta casi sugiere dar una mala intención de cometer el crimen, pero ser consciente de ti mismo no tiene nada que ver con la criminalidad.

¿Por qué Texas Instruments e iRobot están trabajando juntos?

Un robot sigue siendo una computadora controlada por un programa. Es difícil definir la conciencia, pero si un robot está programado para saber que robar es malo y evitar cosas malas, no robará. punto. Sería como preguntarse qué pasaría si su calculadora decidiera que 1 + 1 = 3.

Si el robot está programado para hacer lo menos malo y analiza que robar algo de comida para alimentar a una persona hambrienta es menos malo que no robar, entonces en el ‘juicio’, el robot puede explicar exactamente por qué hizo el robo. El tribunal puede juzgar que el análisis es malo, castigar al programador y reprogramar el robot.

Luego preguntas de nuevo ‘pero si el robot es consciente / consciente …’. Mi respuesta es: si no obedece a un programa (incluso si el programa fue parametrizado por aprendizaje, etc.), entonces no es un robot y no puedo responder la pregunta.

Si no tenemos idea de cómo entrenar / restringir el funcionamiento de un robot, no queremos que lo haga, no tiene sentido decir que es malo, es nuestra responsabilidad evitar que el robot haga las cosas malas (como lo hacemos con los niños y animales).

Inicialmente, la autoconciencia puede ser para que se puedan determinar las consecuencias antes de cualquier acción con el fin de seleccionar la opción correcta. La idea es que son incapaces de malversación intencional. Si no hay recompensa por tal, entonces el motivo no surgiría. También hay rutinas externas que revisan los datos para encontrar tales excepciones lo antes posible como medida de seguridad.

Si fuera el caso de que hubiera habido de todos modos, entonces las circunstancias tienen que ser analizadas. Un dron podría tener un operador en algún lugar, por ejemplo. El monopolio podría estar aprovechando la oportunidad para expandir sus ganancias. Las regulaciones podrían haber sido pirateadas. Algún grupo de personas podría estar tratando de desacreditar las máquinas. Dependiendo del territorio puede haber problemas políticos y tiempos. Un cartel puede haber liquidado las tiendas para obtener una ganancia rápida. Tiende a parecer organizado para haber sido tan efectivo.

Prácticamente la compensación se aplicaría a quien fuera capaz de acelerar las cosas y resolverían las deudas a medida que pasara el tiempo. Quieren evitar una recurrencia, pero los fabricantes o propietarios también están tratando de promover las marcas y el crecimiento para buscar una recuperación sin problemas. La supervisión dependerá de qué sistema de administración esté activo en ese continente y de cómo se establezca la economía.

A largo plazo, el desafío es asegurarse de que las máquinas tengan afinidad con sus predecesores o contrapartes biológicas y que sus intereses no vayan a divergir demasiado. Si hay híbridos como cyborgs, entonces puede volverse borroso.

Creo que no habría necesidad de hacerlo.
El castigo para los humanos tiene el propósito de hacerles cambiar sus formas.
Para un robot, simplemente alteraríamos su software y sus bases de conocimiento, para que cambie su comportamiento. Es posible que no siempre podamos predecir en qué tipo de situaciones podría estar un robot, por lo que podríamos terminar viendo un comportamiento inapropiado en algunas circunstancias extrañas. Entonces, cuando ocurriera algo malo, tendríamos que modificar después de los hechos su opinión. Es por eso que predigo que algún día necesitaremos ‘psicólogos de IA’ para psicoanalizar IA altamente complejas que se comporten mal.