¿Podría la IA realmente tener la capacidad de dañar? (leer detalles)

En forma de simulación, eso ya ha sucedido. Hace décadas, un estudiante graduado de Stanford, Doug Lenat, creó un sistema de inteligencia artificial llamado Eurisko. Era un sistema de planificación de batalla naval. Lenat cuenta una simulación en la que Eurisko, para facilitar la salida del teatro, decidió hundir uno de sus propios barcos, más lentos. Esto es lo que llevó a Lenat a la noción de razonamiento de “sentido común” en el que se utilizan grandes cuerpos de conocimiento lógico (como lo hacen los humanos) para evitar hacer cosas contraproducentes como matar a la esposa de alguien para cobrar una prima de seguro de vida.

Ciertamente, nunca le daríamos a un AI / robot la agencia y las habilidades físicas necesarias para matar a un ser humano sin darles el conocimiento y la capacidad de razonamiento para impedir tales actos.

Por supuesto, se vuelve más complicado que eso. Si este robot hipotético con inteligencia y razonamiento se encuentra con un acto de agresión física entre una persona y otra, ¿cómo reacciona entonces, cuando la acción dañaría a una persona y la inacción provocaría el daño a otra? Hay muchos de estos escenarios que uno podría construir y las Tres Leyes de Asimov realmente no resuelven el problema en sí mismas, ya que son, como la mayoría de las reglas y principios humanos, demasiado vagos para que una computadora los interprete y aplique directamente. Por otra parte, supongo que este robot inteligente con habilidades de lenguaje humano podría hacer un trabajo razonable …

Todo es muy hipotético porque estamos lejos de crear cualquiera de estas cosas, y menos aún la parte de inteligencia humana.

Sí. Una IA tiene la capacidad de dañar. Pero la pregunta es demasiado vaga y obliga a cualquier respuesta a definir los términos de la pregunta. “Daño” e “IA” son palabras con varios significados. La historia tampoco es muy útil, ya que está claro que el protagonista fue probablemente el creador de IA más terrible que podríamos esperar.

Así que supongamos “daño” en su forma más genérica. Consideraré dañar como cualquier cosa que cause un efecto adverso en una víctima desprevenida. Y supongamos los dos tipos principales de IA; IA débiles , que son IA programadas para seguir ciertas tareas. Y IAs fuertes , que son IAs capaces de pensamiento independiente y autónomo.

Una IA débil puede causar daño, ya sea programada deliberadamente para hacerlo o mal programada. Esto parece obvio. Pero lo que puede ser menos obvio es que a medida que seguimos desarrollando nuestras IA en tareas más complejas, también introducimos más complejidad en el código y, por lo tanto, corremos el riesgo de un aumento de resultados inesperados. Un motor de búsqueda puede causar daños al devolver resultados menos que óptimos, pero un robot de empleada doméstica puede causar daños al envenenar involuntariamente a la familia debido a un error en el código. La primera es una IA débil con requisitos mínimos de código, la segunda es una IA débil con código complejo con una amplia gama de vías de procesamiento que pueden ser extremadamente difíciles de proteger contra errores.

Las IA débiles son programadas por seres humanos falibles. Estas IA no piensan ni se mueven fuera de su conjunto de algoritmos deterministas. Sus procesos estocásticos proporcionan la ilusión de inteligencia, pero estos deben protegerse cuidadosamente contra todos los casos de esquina y esto no siempre es posible. Tan pronto como introducimos la aleatoriedad y el comportamiento basado en estadísticas, limitamos nuestra capacidad de probar completamente los resultados de todas las entradas posibles. Ni un conjunto de reglas similares a las Tres Leyes de Asimov son suficientes para salvaguardar las IA débiles. Ese tipo de idea pertenece solo a la ciencia ficción. Esas reglas deben existir en estrecha colaboración con el código AI real. ¿De qué sirve “no deberías dañar a los humanos”, si la criada AI no conoce la diferencia entre la sal y el veneno para ratas en polvo?

Las IA fuertes, por otro lado, pueden causar daños intencionales o no intencionales. Una entidad de razonamiento artificial totalmente autónoma debe pasar una prueba de Turing bien construida. Una vez que lo hace, es en muchos aspectos cognitivamente indistinguible de los seres humanos y compartirá con nosotros las muchas, si no todas, las mismas virtudes y defectos del razonamiento humano. ¡Estas máquinas no pueden tener leyes similares a Asimov que rijan su comportamiento! Hacer eso los haría fallar inmediatamente, incluso la más débil de las pruebas de Turing.

Las IA fuertes desarrollan emociones. Al igual que con nosotros los humanos, los estímulos externos darán forma a sus personalidades y ayudarán a crear un rico conjunto de respuestas. Una IA fuerte puede ser prejuiciosa, envidiosa, sabia o cariñosa. Puede ser un poco de todo. En esencia, una IA fuerte puede ser casi cualquier cosa que los humanos podamos ser. Y esto eventualmente determinará el tipo de ser artificial en el que se convertirá.

Por supuesto, una IA fuerte no nace y se reproduce como un ser humano. No desarrolla estos rasgos a partir de un lienzo en blanco con solo unas pocas rayas de color aquí y allá que representan el ADN transmitido por los padres de un bebé humano. Viene a la vida en la edad adulta y con una personalidad completamente desarrollada diseñada por sus creadores. Por lo tanto, existe un problema aún más difícil para los creadores de una IA de este tipo para asegurar una personalidad segura desde el principio, cuando consideramos que el código para estas IA es exponencialmente más complejo que cualquier cosa que hayamos hecho para IA débiles.

Pero para empeorar las cosas, una vez que vive, su código interno de IA comenzará a reescribirse en función de las situaciones que experimente y otros estímulos externos. Esto es lo que hace el razonamiento autónomo. Entonces se convierte en su propio “hombre”. Esta IA definitivamente puede causar daño intencional. Pero también puede causar daños involuntariamente como lo hacemos nosotros los humanos, ya sea porque actuamos sin la posesión de los hechos o una comprensión de las consecuencias, o porque nuestros cerebros simplemente están dañados o contienen errores.

Historias como esta están destinadas a alejarnos de la IA al suponer que una IA lo suficientemente inteligente como para ejecutar tal comando no tendría una programación moral o ética.

¿Pero culpamos a la madre de Hitler por decirle a su hijo que tenga éxito y sea un líder de hombres?

El entrenamiento moral y ético adecuado de la mayoría de los seres humanos ocurre a una edad muy temprana. Las personas como los terroristas y los asesinos en serie aprenden conjuntos de reglas distorsionadas que les impiden adoptar la misma brújula moral aproximada que otros seres humanos.

Asimismo, AI necesitará un fuerte sentido de ética y brújula moral para considerar o pensar en relación con todos los demás objetivos y comandos. Los estudiantes a veces pueden pensar si había una amenaza de bomba o si mi maestro estaba muerto, no tendría que tomar esa prueba. Pero la gran mayoría de ellos descarta rápidamente tales pensamientos antisociales debido a su brújula moral.

Películas como Ex Machina también juegan con estos miedos con bastante éxito. Pero cualquier persona lo suficientemente inteligente como para crear una IA es lo suficientemente inteligente como para darse cuenta de que la brújula moral debe ser creada y refinada desde el primer día y todas las decisiones deben tomarse a través de esta brújula moral antes de actuar.

Todos los recuerdos a los que hace referencia la IA se basan en decisiones morales y el comportamiento futuro se basa en esos procesos de pensamiento moral.

Pero no debemos permitir que los hombres malvados construyan IA más de lo que les permitimos construir bombas atómicas. En ese sentido, deberíamos alegrarnos de que construir una IA sea muy difícil.

Esta anécdota está llena de mala lógica solo para permitir que la trama suceda.
Si el hombre hubiera hecho un robot así, podría haberlo vendido por miles de millones. ¿Por qué el hombre no le pidió al robot su solución primero? ¿Por qué dejó órdenes tan extremas solo para soltarlo sin supervisión? ¿Por qué el robot solo escucha las órdenes del hombre y no las súplicas de la esposa de no matarla? ¿Por qué no se probó el comportamiento involuntario en etapas anteriores? En la vida real, cuando este tipo de comportamiento es inherente a una IA, se nota.
Mi conclusión es que el creador de esta historia ha sido completamente irresponsable y debe ser juzgado por asesinato por negligencia.

Si hacemos robots, tendríamos que instalarlos las tres leyes de robótica hechas por Isaac Asimov:
1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

La IA no tiene un “propósito”: es una máquina que sigue un programa, sea cual sea la ilusión en la que se pueda programar para que aparezca. Si fue un programa para permitirlo, entonces puede. No puede “decidir” nada por sí solo.