- explore la fuente de su juego de destino http://code.google.com/p/stratinit/ que, a pesar de que no parece proporcionar una API, parece proporcionar control remoto (no comprobó mucho)
- escriba un pequeño software que perderá al jugar movimientos aleatorios permitidos, solo juegue con él
- lea cómo The Berkeley Overmind Project http://overmind.cs.berkeley.edu logra ganar el concurso AIIDE 2010 http://eis.ucsc.edu/StarCraftAIC…
- trate de aplicar su estrategia (“modificaciones conscientes de amenazas a rutas A * y campos potenciales cuyos parámetros fueron ajustados usando el aprendizaje de refuerzo”) a sus propios detalles del juego. Verás que necesitas un buen equilibrio entre la exploración de aprendizaje automático y la heurística con respecto a la mecánica del juego.
- iterar con AIIDE2011 http://skatgame.net/mburo/sc2011/
- participa en AIIDE 2012 http://skatgame.net/mburo/aiide1… 🙂
Seguramente se encuentran entre esos envíos, algunos que están en Java (más fácil para la interacción con tu juego de destino) o en otro idioma que dominas bien. Puede confiar en ellos si son de código abierto para comenzar su proyecto.
También considere unirse a #gameAI de AIgameDev.com en la red IRC freenode.
- ¿Puede una máquina de Turing simular una red neuronal?
- ¿Cómo reaccionan los nigerianos ante la tecnología moderna?
- ¿Por qué es importante enfatizar que el agente afecta el medio ambiente en el aprendizaje por refuerzo (RL)?
- ¿Cómo se compara Wolfram | Alpha con el conocimiento verdadero?
- ¿Qué es un buen material para aprender las redes neuronales?