¿Cómo se usan las simulaciones en la investigación de IA?

Bob Hooker menciona en su respuesta que parecía que necesitaba incluir una simulación de su mundo, dentro de cada agente de su simulación … y esto es exactamente correcto.

La simulación es crítica para funciones de orden superior como la planificación y el razonamiento social, esencialmente las áreas cubiertas por su corteza prefrontal. Esencialmente, si desea hacer una IA capaz de más que solo reacciones basadas en el estado actual de su entorno (ya sea un mercado, un juego de computadora o el mundo real), necesita poder ejecutar una simulación del mundo (como lo entiendes).


Continuemos con un ejemplo de algún agente autónomo A (usted, un robot, un NPC en un juego, no importa cuando razona sobre acciones), suponga que A es capaz de moverse y manipular su entorno. Actualmente se encuentra en una cocina y desea un vaso de leche.

Si A es una IA basada simplemente en el estado, como se usa en muchos juegos de computadora, necesitará un plan ya conocido para decirle cómo obtener leche. Este es un escenario bastante aburrido y sobre el nivel de inteligencia de la mayoría de los insectos, así que al menos supongamos que A al menos puede razonar lógicamente sobre sus propias acciones y el estado actual del mundo. A puede entonces razonar que necesita ejecutar las siguientes acciones:

  1. pasar al gabinete
  2. abre el gabinete
  3. saca un vaso
  4. pasar a la nevera
  5. abre la nevera
  6. saca una botella de leche
  7. abre la botella de leche
  8. vierta leche en el vaso
  9. bebe el vaso de leche

Este plan podría sintetizarse simplemente teniendo conocimiento de las condiciones previas y los efectos de varias acciones move_to, open, drink, close … Es decir, A puede resolver la solución del problema lógicamente al igual que resolver la solución a un problema matemático. En otras palabras, A puede razonar que move_to (gabinete) + abrir (gabinete) +… .. + bebida (vaso de leche) conducirá a satisfacer su deseo de leche.

Sin embargo, ¡el plan tiene algunos efectos secundarios! El gabinete ahora está abierto y la botella (también abierta) de leche ya no está en el refrigerador (también abierto).

En lugar de resolver su deseo de leche como un rompecabezas lógico, modificamos A para que A ahora pueda simular cómo se desarrolla el mundo a su alrededor cuando tanto A como otros agentes le hacen cambios. Supongamos también que A tiene un cónyuge B que también puede actuar en el mundo, y supongamos que A tiene algún conocimiento sobre los deseos y el comportamiento de B. A ahora puede comenzar a planificar cómo obtener un poco de leche, creando varias combinaciones de acciones utilizando algún sistema de planificación . Cuando simula los efectos de abrir (gabinete) se da cuenta de que B se enojará si el gabinete se deja abierto, por lo que agrega un objetivo secundario de cerrar el gabinete nuevamente, agregando esto a su plan. Hará lo mismo para la botella de leche y el refrigerador, por lo tanto, llegará a un plan sin efectos secundarios:

  1. pasar al gabinete
  2. abre el gabinete
  3. saca un vaso
  4. cierra el gabinete
  5. pasar a la nevera
  6. abre la nevera
  7. saca una botella de leche
  8. abre la botella de leche
  9. vierta leche en el vaso
  10. cierra la botella de leche
  11. coloca la botella de leche en la nevera
  12. cierra la nevera
  13. bebe el vaso de leche

Tenga en cuenta que, dadas las acciones disponibles, hay muchos, muchos planes que cumplen el objetivo y encontrar el mejor no es un problema trivial . Acabo de intentar ilustrar cómo algunas IA (planificación) usan simulaciones: no entraré en detalles aquí sobre cómo elige la leche en el refrigerador en lugar de salir y comprar más, o tomar un avión a Buenos Aires para comprar más leche etc.