¿Por qué Google eligió el juego Go para probar su IA?

A2A

Go es un juego de dos jugadores que se juega en un tablero de 19 por 19 . O te dan piedras blancas o negras para jugar, y el negro va primero.

Los jugadores colocan sus piedras en las intersecciones, no en los espacios vacíos, del tablero. El objetivo es rodear más territorios en el tablero que tu oponente. Entonces, en ese sentido, quieres ocupar más del 50% del tablero para ganar. Una vez que colocas tu piedra en el tablero, no se puede mover de nuevo.

Mientras juegas para construir la mayor cantidad de territorio posible, ten en cuenta que se pueden capturar piedras. Capturas piedras rodeándolas por completo, como por ejemplo el blanco amenaza con capturar la piedra negra dando vueltas alrededor de ella. Cuando se capturan piedras, se ponen en “prisión” donde permanecen hasta el final del juego.

Pero, naturalmente, nunca es tan fácil capturar una piedra. Al igual que en el Ajedrez, hay diferentes estrategias que puedes usar para minimizar las pérdidas y vencer a tu oponente. Este video de Google DeepMind lo explica todo.

Pero puedes comenzar a ver por qué este es un juego tan difícil de dominar para una computadora

Si miras el tablero, hay cientos de lugares diferentes en los que se puede colocar esta piedra, y cientos de formas diferentes en que las blancas pueden responder a cada uno de esos movimientos, cientos de formas en que las negras pueden responder a su vez a los movimientos de las blancas, y obtienes este enorme árbol de búsqueda con cientos de veces, cientos de veces, cientos de posibilidades.

Otra forma de pensar es comparar Go to ajedrez, que en los años 90 fue lo suficientemente difícil de imaginar dominar la IA antes de que IBM apareciera con su DeepBlue. Después de los dos primeros movimientos de un juego de ajedrez, hay 400 posibles movimientos siguientes. En Go, hay cerca de 130,000. De esta manera, si continuamos, el número total de movimientos posibles es mayor que el número de átomos presentes en todo el universo .

Por esa razón, los investigadores de IA no pueden usar la IA de fuerza bruta tradicional, que es cuando un programa establece la amplitud de los posibles estados de juego en un árbol de decisión, porque simplemente hay demasiados movimientos posibles. Cuando el Deep Blue de IBM venció al campeón de ajedrez Gary Kasparov, usó IA de fuerza bruta.

Para conocer las reglas detalladas, visite: Cómo jugar | Asociación Británica de Go

Cómo Google entrenó a AlphaGo es algo así:

  • Google primero entrenó a su IA en 30 millones de movimientos de juegos jugados por expertos humanos
  • Llegó al punto de poder predecir el próximo movimiento humano el 57% del tiempo. El récord anterior fue del 44%.
  • Después de que AlphaGo pudo imitar a los mejores jugadores humanos, fue entrenado para aprender nuevas estrategias por sí mismo. Entonces, los investigadores combinaron dos metodologías de IA para construir AlphaGo.
  • Búsqueda de árbol de Monte Carlo : esto implica elegir movimientos al azar y luego simular el juego hasta el final para encontrar una estrategia ganadora.
  • Redes neuronales profundas : una red de 12 capas de conexiones similares a las neuronas que consiste en una “red de políticas” que selecciona el próximo movimiento y una “red de valores” que predice el ganador del juego.

  • Esencialmente, AlphaGo estudió una base de datos de partidos de Go y ganó la experiencia de alguien jugando el juego durante 80 años seguidos.

Y AlphaGo fue extremadamente exitoso. El sistema jugó contra los mejores programas de IA creados hasta la fecha y ganó todos menos uno de los 500 juegos que jugó.

¡Feliz marcha!

🙂