Los juegos de disparos en primera persona multijugador de la serie Quake (más notablemente, Quake III) liberaron libremente su código fuente de IA y permitieron a los usuarios experimentar con él. El código fuente, un montón de archivos C simples, implementó la lógica detrás de las diversas “personalidades” de bots de IA que se ven en el juego. Además, proporcionó opciones para ajustar dinámicamente los parámetros de comportamiento y los objetivos de IA de los bots. Como resultado, algunos usuarios codificaron y publicaron bots que utilizan algoritmos genéticos para la optimización de su estrategia de lucha. Google “terremoto 3 bots genéticos” para algunos resultados interesantes.
Hay una continuación interesante de esta historia. Más de diez años después del lanzamiento del juego original, comenzó a circular una historia en Internet sobre cómo varios robots de Quake con IA adaptativa se han dejado jugar durante 4 años y evolucionaron a algo inesperado. Es decir, no matarse más. Algunos se apresuraron a concluir que los bots han adaptado el alto el fuego global como una estrategia de supervivencia estable. Esta historia (que suena demasiado buena para ser verdad) se publicó originalmente en 4chan, pero luego fue recogida por reddit y también por los blogs de Huffington Post y Forbes.
Sin embargo, hay pocas razones para creer que algo así realmente sucedió. Incluso si los bots mostraron un comportamiento de alto el fuego, hay otras explicaciones más plausibles, por ejemplo, un error en el juego o un resultado del algoritmo de asignación de equipo aleatorio que en al menos una vez en 4 años había producido un juego donde todos los bots son asignados al mismo equipo.
- ¿Qué tan competente tienes que ser en las formas tradicionales de programación antes de aprender a programar IA?
- ¿Cómo fue su viaje al construir su base de conocimiento de aprendizaje automático?
- ¿Puede la IA ayudarnos a conocer mejor los agujeros negros, la energía oscura y la materia oscura? Si es así, ¿cómo?
- Con respecto a la creación de IA, ¿sería mejor si una IA tuviera que ser enseñada o si todas sus capacidades de pensamiento / personalidad salieran de la caja?
- ¿Cuáles son los 5 conceptos más importantes de la inteligencia artificial?
Además, desde el punto de vista de la teoría del juego, solo tiene sentido cooperar en el dilema del Prisionero (es decir, no atacar con la esperanza de no ser atacado a cambio) si el dilema del Prisionero se repite varias veces. No tiene sentido cooperar en la versión no iterada del dilema del Prisionero. Es muy dudoso que la estrategia de IA de los bots, sea lo que sea, funcionara al nivel de optimizar la tasa de supervivencia en una secuencia de juegos. Lo más probable es que el “mundo” de un bot se limitara a un solo juego, por lo tanto, un alto el fuego global no habría sido una estrategia razonable desde su punto de vista.