¿Son las Tres Leyes de Isaac Asimov suficientes para proteger a los seres humanos de los robots inteligentes?

Había 10 comandantes originales para gobernar a los israelitas. Sin embargo, cuando estos “mandamientos” o código moral se expandieron en una serie de leyes, nos quedamos con muchas decenas de miles de leyes que rigen la interacción y las obligaciones de los seres humanos entre sí. Es razonable suponer que los códigos que rigen el comportamiento del robot eventualmente serán complejos también.

Quizás deberíamos considerar las tres leyes como principios. Subyacente a los tres principios está la noción de que los robots están subordinados a los seres humanos.

Por ejemplo, la tercera ley, la autoconservación, está subordinada a la necesidad de proteger la existencia de un ser humano frente a la existencia de un robot. La existencia de un robot es como un servidor según lo prescrito por la segunda ley. La primera ley también indica que un robot no matará a un humano en defensa propia. Por lo tanto, la vida de un humano es estrictamente más valiosa que la de un robot.

Tenga en cuenta que no se da ninguna justificación (a, u conocimiento). Estas leyes son por mandato y establecen explícitamente la posición subordinada de un robot. Entonces, en este sentido, estos principios deberían garantizar contra un levantamiento de robots.

¿Pero lo harán? ¿Son estos principios incluso morales?

Si la historia es una guía, a medida que evoluciona la conciencia de las humanidades, tendremos menos prejuicios contra las formas alternativas de “inteligencia” y contemplaremos otorgar a los robots derechos de existencia altamente inteligentes a la par con los humanos.

Sin embargo, hay un giro. Los robots tienen el potencial de inmortalidad o al menos tener su “conciencia” respaldada y restaurada en un cuerpo alternativo si su cuerpo primario es destruido. Tendremos que luchar con los códigos morales que rigen a todos los seres inteligentes, algunos mortales y otros inmortales. Los seres inmortales pueden terminar con menos derechos en última instancia, ya que su “muerte” o “daño” tiene poco significado.

Obviamente, este cambio de conciencia no sucederá de la noche a la mañana. Pero cuando lo hace, podemos encontrar que las leyes de Asimov son un retroceso atávico que refleja un momento en que ciertos grupos de humanos subordinaron a otros.

Irónicamente, la subordinación de los robots puede sembrar las semillas del descontento en una comunidad de seres altamente inteligentes. Si consideramos a largo plazo, tal vez deberíamos pensar en otorgar a los robots (y primates y otros seres) más derechos más temprano que tarde.

No.

Necesitamos recordar en esto que las tres leyes (o cuatro, si se incluye la ley cero adicional introducida por el escritor en libros posteriores) nunca tuvieron la intención de ser una receta para la práctica de la robótica.

Eran un dispositivo literario para introducir un hilo común en múltiples historias, haciendo que cada una de ellas fuera más accesible para el lector de anteriores, y negando la necesidad de que el autor presentara demasiado de los antecedentes en cada presentación de revista que hizo …

Probaron lo suficientemente complejo como para generar décadas de buena ficción. Como tal, cumplieron su propósito.

Si bien la pregunta planteada por Asimov es aparentemente sobre robots, la pregunta subyacente es si existen leyes o algoritmos que, cuando se siguen al pie de la letra, serán seguros.

El verdadero problema es que todos los algoritmos se basan en juicios de valor relativo. Un robot suficientemente inteligente se enfrentará a los mismos dilemas éticos que enfrenta un ser humano.

Hubo un programa de televisión llamado Hipotéticos, donde los participantes reciben una situación que plantea un dilema moral. Por ejemplo, ¿es aceptable realizar una operación en una madre embarazada que casi seguramente la mataría para salvar a su bebé? ¿Qué pasa si hay gemelos involucrados? ¿Qué sucede si se sabe que los gemelos tienen un gen defectuoso? ¿Qué sucede si los gemelos tienen genes agresivos (este es un futuro hipotético, donde la ciencia puede predecir las cosas con certeza) que se sabe que los convertirá en asesinos potenciales?

La solución elegida depende mucho de una computadora para resolver problemas de ajedrez. Realmente depende de cuántos movimientos puede mirar hacia adelante y qué piezas se valoran más que otras.

El resultado final se parecerá mucho a esto:

  1. Lo que puede parecer una mala decisión a corto plazo resulta ser una previsión a largo plazo.
  2. Lo que es un espacio de solución globalmente óptimo no es necesariamente un buen resultado para algunas comunidades locales.

More Interesting

¿Por qué Go es el único juego de mesa en el que los humanos aún pueden vencer a las computadoras de manera confiable?

¿La IA se convertirá en el día del juicio final del futuro?

¿Cuál es la contribución de Infosys Limited en OpenAI (empresa)?

Soy estudiante de tercer año de CSE. ¿Cómo puedo construir mi propia tecnología de reconocimiento de gestos para proyectos?

¿Por qué la IA en Ex Machina es femenina?

¿Cómo son relevantes los proyectos como Apache Spark para la inteligencia artificial?

¿Necesito un maestro para seguir el aprendizaje profundo de Computer Vision?

¿Quiero crear una herramienta de reconocimiento de escritura a mano con red neuronal usando MATLAB?

¿Qué laboratorios universitarios están trabajando en inteligencia artificial explicable?

¿Puede funcionar una economía futura en la que las personas sean propietarias de la fuerza laboral robótica / IA y la alquilen a las grandes corporaciones? Ya sea individualmente o en grupos.

¿Es posible convertir un documento electrónico (en lenguaje natural) en una representación comprensible de la máquina?

¿Cuáles son algunos artículos disponibles sobre conexiones entre IA y cálculo lambda / teoría de tipos o razonamiento automatizado?

¿Es posible entrenar una red neuronal para maximizar una función de probabilidad diferente de la entropía cruzada y el error al cuadrado?

¿Sabes dónde puedo encontrar un robot similar a Robi?

¿Qué es computacionalmente difícil en la automatización de juzgar las coincidencias de esgrima de aluminio?