¿Cómo modelamos los problemas de IA?

Siempre cuida tus alrededores – Ra’s Al Ghul, Batman Begins (2005)

Cuando hablamos de agentes racionales , casi siempre consideramos el contexto en el que nuestro agente realizará alguna tarea.

Considere el siguiente ejemplo de juguete:

Queremos construir un robot que obtenga una manzana de un manzano. En muchos escenarios, esto podría implicar simplemente saltar o alcanzar y obtener la manzana. Pero, ¿y si nuestro entorno se ve así?

De repente, la opción de tratar de alcanzar nuestro objetivo final de inmediato no suena muy atractiva (a menos que queramos un robot suicida).

Este robot aquí es un ejemplo de un agente reflejo . Un agente reflejo simplemente toma una acción basada en la comprensión actual del mundo y no considera las consecuencias futuras de sus acciones. [1]

En otras palabras, los agentes reflejos consideran el mundo tal como es.

La principal ventaja de los agentes reflejos es que son realmente fáciles de diseñar y a veces incluso ofrecen soluciones aceptables, pero la desventaja es que rara vez funcionan bien en cualquier situación en la que las consecuencias de las acciones actuales y futuras deban considerarse.

Aquí hay otro enfoque más metódico para resolver este problema:

Este es un ejemplo de un agente de planificación . Estos agentes toman acciones que consideran las consecuencias futuras de estas acciones.

Los agentes de planificación siempre piensan en cómo evoluciona el mundo a medida que realizan sus acciones.

La ventaja de los agentes de planificación es que generalmente tienden a tomar mejores decisiones y a actuar de manera más racional que los agentes reflejos. Sin embargo, dado que los agentes de planificación deben considerar el futuro, debemos poder incorporar un modelo que tenga en cuenta el futuro.

La mayor parte de la IA moderna de hoy trabaja en desafíos con respecto a los agentes de planificación, pero para abordar estos desafíos, necesitamos formalizar una representación para estos entornos.

Al considerar los agentes de planificación, es útil modelarlos dentro del contexto de un problema de búsqueda .

Un problema de búsqueda en un contexto de IA tiene varias características importantes:

  • Un estado de inicio
  • Un estado final o estado objetivo
  • Una prueba de gol
  • Un espacio de estado
  • Un conjunto de acciones
  • Una función sucesora

Y la solución a un problema de búsqueda es una secuencia de acciones que llevan al agente del estado inicial al estado final.

Las dos primeras características son intuitivas en el sentido de que representan la posición inicial de un agente y el objetivo final del agente. La prueba de objetivo es un medio para verificar que un agente realmente haya logrado su objetivo.

El espacio de estado representa todos los entornos posibles que un agente podría encontrar. El conjunto de acciones son todas las acciones posibles que un agente puede realizar desde cualquier estado en particular. La función sucesora representa lo que sucede cuando un agente pasa de un estado a otro.

Todo esto puede sonar bastante abstracto y arbitrario, así que ilustremos estas ideas a través de un ejemplo usando Pacman. Considere el siguiente entorno.

Digamos que queremos resolver el problema de llegar al gránulo de comida en la esquina inferior derecha (ignoremos los fantasmas y obtener otros gránulos por ahora para simplificar las cosas).

Entonces, ¿cómo podemos formalizar este problema de búsqueda?

Bueno, algo bueno de nuestro problema de Pacman es que podemos pensar en él como una cuadrícula e identificar cada posible posición para Pacman como un par único (fila, columna). Esta capacidad de identificar diferentes posiciones o estados de manera única es extremadamente importante al diseñar problemas de búsqueda. Etiquetemos la esquina superior izquierda de nuestra cuadrícula Pacman (1, 1).

Con esto en mente, nuestro estado inicial para nuestro agente Pacman es (3, 1) y nuestro estado final es (6, 29). Nuestra prueba de objetivos es simplemente verificar si se ha comido la pastilla a (6,29).

En este problema, nuestro espacio de estado es todas las posiciones posibles que Pacman podría ubicar. Más formalmente, son todos los pares válidos posibles (fila, columna) en este juego de Pacman.

Hay cuatro posibles conjuntos de acciones de cada estado: viajar al norte, sur, este u oeste.

Nuestra función sucesora actualiza la ubicación de Pacman después de tomar una acción. Observe que la función sucesora no puede actualizarse después de una acción si la acción no es válida desde un estado en particular. Por ejemplo, si elegimos tomar la acción Oeste desde el estado inicial, nuestra ubicación de Pacman no cambiará ya que hay un muro en el camino.

Es por eso que nuestro espacio de estado no necesariamente necesita mantener información sobre las paredes para resolver este problema. Si una acción particular conduce a un estado no definido en nuestro espacio de estado, nuestra función sucesora se ocupa de este caso al no actualizar la posición de Pacman.

Un punto importante aquí es que nuestro espacio de estado podría contener información sobre paredes si decidimos incluirlo. La forma de definir el espacio de estado depende de usted al resolver estos problemas.

Sin embargo, en general, queremos tener algo llamado representación mínima del espacio de estado al resolver problemas de IA. Esta representación es la cantidad mínima de información que necesitamos realizar un seguimiento en nuestro espacio de estado para resolver el problema de búsqueda. Cuando tiene más información para realizar un seguimiento en su espacio de estado, cuanto más grande se vuelve y más difícil es resolver el problema de búsqueda original.

Así que hemos pasado por el problema de búsqueda de encontrar un camino para Pacman a la pastilla en la esquina inferior derecha.

Ahora, ¿qué pasaría si quisiéramos representar el problema de comer todos los gránulos (todavía no nos preocuparemos por los fantasmas)?

Observe de inmediato que este es un problema más complicado. Ahora tenemos que hacer un seguimiento de las ubicaciones de los puntos / bolitas y si ya se ha comido. Esta información ahora debe incorporarse al espacio de estado (podemos representar esta idea como un valor booleano Verdadero o Falso para cada ubicación – Verdadero si la pastilla está presente, Falso de lo contrario).

Cada estado ahora tiene que hacer un seguimiento de las ubicaciones y los gránulos. Además, nuestra prueba de objetivos ahora tiene que verificar si se han comido todos los puntos. Si bien nuestro conjunto de acciones sigue siendo el mismo, nuestra función sucesora ahora tiene que actualizar la ubicación de Pacman y posiblemente los valores booleanos de las ubicaciones de pellets.

Podemos hacer que este problema sea aún más complejo haciendo la pregunta de cómo comer todos los gránulos mientras evitamos los fantasmas y maximizamos el número de puntos.

Ahora también tenemos que hacer un seguimiento de las posiciones de las pastillas de poder, las posiciones de los fantasmas, el tiempo “asustado” de los fantasmas, etc. En otras palabras, ¡las cosas se complican rápidamente!

En algún momento de esta publicación, es posible que se haya preguntado, ¿por qué necesitamos ser tan formales acerca de estas ideas?

La razón es que si bien puede estar bien no formalizar problemas simples de IA, cuando se trata de sistemas más complejos, tener una forma formal de plantear un problema y espacio de estado es increíblemente importante. En la próxima publicación, verá este principio con una luz más clara cuando hagamos una breve introducción sobre la teoría de gráficos y hablemos sobre una forma simple y poderosa de representar estos problemas de búsqueda.


Esta es la parte 2 de mi serie Serie de comprensión de la inteligencia artificial.

Notas al pie

[1] https: //s3-us-west-2.amazonaws.c…

More Interesting

¿Cómo puede ayudar la inteligencia artificial a ganar una guerra?

¿Cuándo tendrá la inteligencia artificial más inteligencia general que los humanos?

¿Todas las formas de inversión activa serán reemplazadas por IA?

¿Cómo podemos comenzar a explorar la IA y disfrutarla?

¿Qué tan pronto la inteligencia artificial comenzará a reemplazar trabajos masivamente?

¿Hay algún AGI en este momento con respecto a la inteligencia artificial?

¿Surgirá el próximo líder político al hablar en contra de la inteligencia artificial? El contexto es que Trump surgió hablando en contra de la inmigración.

¿Qué es la inteligencia artificial y por qué la necesitamos?

¿Cuáles son los problemas de IA más difíciles que enfrentamos?

¿Cuáles son las garantías contra un motor de inteligencia artificial que toma la decisión equivocada?

¿Cómo implementarán las grandes empresas tecnológicas la IA? ¿Qué tan grande será la IA para el consumidor?

¿A qué hora crees que se creará una inteligencia artificial a nivel humano?

Si hiciéramos inteligencia artificial, ¿estaríamos esencialmente creando o replicando nuestra propia conciencia? Si aislamos nuestra inteligencia para que no supieran que los habíamos creado, ¿cómo se aplicaría esto al concepto de Dios en realidad si es una posibilidad?

¿El reconocimiento de voz de AI podrá comprender y responder al lenguaje humano hablado?

¿Es el problema central de la Inteligencia General Artificial principalmente un desafío de ingeniería?