El aprendizaje profundo AlphaGo combina de manera inteligente diferentes tipos de redes neuronales para la selección de movimientos y la evaluación de posición con Monte Carlo Tree Search (MCTS). En la base, utiliza redes neuronales convolucionales que usan una imagen de 19 × 19 de la posición del tablero con 48 planos de características como entrada (17328 entradas).
Al reconocer las posiciones y los patrones del tablero, ciertamente no imita el proceso lógico humano en absoluto, ya que AlphaGo casi no comprende los conceptos lógicos como rodear, sente, aji, influencia, dónde hacer territorio de manera más eficiente, etc. En cambio, ha aprendido a seleccionar movimientos ganadores de alta probabilidad ultrarrápidos y eficientes y luego ‘estima’ el resultado del juego desde una posición dada usando básicamente lanzamientos de MCTS. Puede encontrar más información sobre cómo AlphaGo ha sido entrenado y funciona bajo el capó en mi blog: Parte 2: AlphaGo bajo una lupa (El partido histórico del aprendizaje profundo AlphaGo vs. Lee Sedol) REVISADO
- ¿Cómo funciona Junglee?
- Cómo resolver esta cuestión de las fuerzas
- ¿Cuál es el algoritmo utilizado por la búsqueda de imagen inversa de Google (es decir, la búsqueda por imagen)? ¿Qué algoritmos necesitaría entender para crear una funcionalidad similar a pequeña escala?
- ¿Hay un árbol que pueda agregar y eliminar nodos más rápido que AVL?
- ¿Cuál es la forma estándar de resolver problemas?