¿Qué le sucede a la IA cuando se le asigna una tarea imposible o una en la que ambas opciones violan su programación?

Nada. Simplemente genera galimatías o fallas.

Hay dos tipos de IA:

Máquinas de estado tradicionales que pueden cambiar su estado y resolver problemas con restricciones lógicas, como npcs en los juegos. Donde chocaría con violaciones a su programación.

Las redes neuronales que son buenas para calcular estados no binarios, por ejemplo, imágenes, sonido o cualquier cosa que se represente como una aproximación a la realidad. Donde produciría galimatías. Tenga en cuenta que nada puede violar una programación de redes neuronales, ya que no está programada sino capacitada, aunque el software subyacente puede contener errores y puede fallar en algunos casos.

AI significa inteligencia artificial, pero la inteligencia es relativa. La inteligencia en IA es relativa a un programa de propósito único. Pero la IA es tan tonta como una ameba en comparación con nosotros si se ejecuta en la computadora promedio, o un insecto si se ejecuta en supercomputadoras.

Ai a menudo se asocia a esta cosa mágica superinteligente en el cine, pero en realidad todavía es extremadamente predecible, a menos que encuentre formas que no sabíamos de hacer las cosas.

No te das cuenta de lo complejas que son las tareas que debes realizar cada segundo.

Respuesta corta: depende de su programación.

Enfoques razonables:

  • Tarea imposible: reconocer que la tarea es imposible, informar al usuario que es imposible.
  • Viola la programación: reconoce que la tarea viola la programación, informa al usuario que viola la programación (suponiendo que no viole la programación). De lo contrario, simule realizar la tarea, haga otras cosas permitidas por la programación.

Hay una categoría interesante de tareas imposibles en informática llamada problemas indecidibles. Una IA requeriría un sistema de prueba formal para determinar que una tarea era indecidible y el sistema de prueba probablemente sería indecidible. Esto significa que el primer enfoque se limita a: explorar soluciones y evaluar si vale la pena continuar / preguntar al usuario si vale la pena continuar.

El tropo de la película es una bomba lógica ( http://tvtropes.org/pmwiki/pmwik …).
La derrota “no calcula” de una IA es tan común en Star Trek que seguramente está en el manual de entrenamiento de Star Fleet y es bastante decepcionante que nadie haya parcheado su sistema para protegerse contra ella. No sé si hay un episodio de Star Trek: The Next Generation en el que alguien intente esto en Data, pero espero que los vea con una combinación de desprecio y lástima. No es que tenga emociones, ¿entiendes?
En la práctica, cualquier IA lo suficientemente inteligente como para realizar tareas útiles tendrá estrategias para identificar contradicciones y escenarios de “no ganar” y muy probablemente informará la contradicción o imposibilidad de la tarea instruida o el escenario de no ganar y seguirá alguna estrategia a prueba de fallas como como “no hacer nada”.

Nota al pie: Si hay un episodio de ST: TNG en el que alguien prueba esta mierda en Datos, publique un comentario.

Aquí no hay una respuesta única para todos sin ser generalmente vago y decir “lo que sea que hayan programado los ingenieros”. En los sistemas del mundo real, se trataría el manejo de errores para casos como este, especialmente donde la seguridad humana o daños a la propiedad no despreciables pueden resultar. Se puede esperar que un agente inteligente calcule variables ponderadas multidimensionales y seleccione y ejecute la opción menos mala disponible.

En el caso de una tarea imposible, uno esperaría que los diseñadores del sistema diseñen a sus agentes para que reconozcan una tarea como imposible, y la manejen en consecuencia tal vez con una respuesta al usuario con algo como “Lo siento, Sra. Sara. Sin embargo, la luna tiene una masa de 7.34767309 x 10 ^ 22 kg y mis actuadores están clasificados solo para una carga útil máxima de 30 kg. No puedo ‘sacar la luna en un cono de helado y entregártela’ ”.