Los bots de Facebook se cerraron simplemente porque los ingenieros olvidaron hacerlos hablar en inglés
Algunos periódicos y sitios web informaron que los bots específicamente iban en contra de los comandos proporcionados por sus operadores. Esto no es absolutamente lo que sucedió.
Los robots en cuestión estaban siendo entrenados para negociar entre ellos. Hubo un número limitado de pelotas de baloncesto, libros y sombreros, y cada bot tuvo que negociar la distribución de los artículos. Cada bot fue recompensado en secreto por ganar una cantidad particular de un artículo, digamos que el bot A necesitaría 2 sombreros, y el bot B necesitaría 2 pelotas de baloncesto para “ganar”. Para simular interacciones humanas, ninguno de los dos sabía lo que el otro quería.
- ¿En qué se diferencia la búsqueda de una estrella de la rama y del límite?
- ¿Qué es la clasificación en el aprendizaje automático?
- ¿Cómo la inteligencia artificial cambiará los mercados de valores en el futuro?
- ¿Qué modelo de red neuronal es eficiente para la predicción del mercado de valores mediante el análisis de sentimientos? ¿Y qué herramienta / biblioteca usar?
- ¿Cómo se relaciona la inteligencia artificial con la inteligencia empresarial?
Ahora los bots recibieron un conjunto de palabras para usar de un conjunto de datos de entrenamiento. Los bots tendían a usar repetidamente estas palabras, y eso no era realmente un problema. Los bots fueron recompensados por obtener los artículos, pero no por hacerlo en inglés. Si la red neuronal tuviera que hablar en inglés, podría hacerlo. El experimento aún cumplió su propósito, los robots en realidad terminaron ideando estrategias muy humanas para negociar lo que querían.
Así que creo que deberías estar asombrado y un poco preocupado también.
Sorprendido de que estamos avanzando hacia la IA y preocupado porque estamos avanzando demasiado lento hacia la IA.
Fuente: ¿trato o no trato? Entrenando bots de IA para negociar