Había 10 comandantes originales para gobernar a los israelitas. Sin embargo, cuando estos “mandamientos” o código moral se expandieron en una serie de leyes, nos quedamos con muchas decenas de miles de leyes que rigen la interacción y las obligaciones de los seres humanos entre sí. Es razonable suponer que los códigos que rigen el comportamiento del robot eventualmente serán complejos también.
Quizás deberíamos considerar las tres leyes como principios. Subyacente a los tres principios está la noción de que los robots están subordinados a los seres humanos.
Por ejemplo, la tercera ley, la autoconservación, está subordinada a la necesidad de proteger la existencia de un ser humano frente a la existencia de un robot. La existencia de un robot es como un servidor según lo prescrito por la segunda ley. La primera ley también indica que un robot no matará a un humano en defensa propia. Por lo tanto, la vida de un humano es estrictamente más valiosa que la de un robot.
- ¿Cuáles son los mayores defectos en la IA de Age of Empires II?
- ¿Puede el aprendizaje automático ser un político?
- ¿Cómo se aplica el aprendizaje profundo y las redes neuronales, especialmente el aprendizaje no supervisado, en las redes informáticas?
- ¿Cuáles son los famosos programas de IA sobre ajedrez?
- ¿Cuál es la diferencia entre el valor umbral y el sesgo en la red neuronal artificial?
Tenga en cuenta que no se da ninguna justificación (a, u conocimiento). Estas leyes son por mandato y establecen explícitamente la posición subordinada de un robot. Entonces, en este sentido, estos principios deberían garantizar contra un levantamiento de robots.
¿Pero lo harán? ¿Son estos principios incluso morales?
Si la historia es una guía, a medida que evoluciona la conciencia de las humanidades, tendremos menos prejuicios contra las formas alternativas de “inteligencia” y contemplaremos otorgar a los robots derechos de existencia altamente inteligentes a la par con los humanos.
Sin embargo, hay un giro. Los robots tienen el potencial de inmortalidad o al menos tener su “conciencia” respaldada y restaurada en un cuerpo alternativo si su cuerpo primario es destruido. Tendremos que luchar con los códigos morales que rigen a todos los seres inteligentes, algunos mortales y otros inmortales. Los seres inmortales pueden terminar con menos derechos en última instancia, ya que su “muerte” o “daño” tiene poco significado.
Obviamente, este cambio de conciencia no sucederá de la noche a la mañana. Pero cuando lo hace, podemos encontrar que las leyes de Asimov son un retroceso atávico que refleja un momento en que ciertos grupos de humanos subordinaron a otros.
Irónicamente, la subordinación de los robots puede sembrar las semillas del descontento en una comunidad de seres altamente inteligentes. Si consideramos a largo plazo, tal vez deberíamos pensar en otorgar a los robots (y primates y otros seres) más derechos más temprano que tarde.