Los bots de Facebook se cerraron simplemente porque los ingenieros olvidaron hacerlos hablar en inglés
Algunos periódicos y sitios web informaron que los bots específicamente iban en contra de los comandos proporcionados por sus operadores. Esto no es absolutamente lo que sucedió.
Los robots en cuestión estaban siendo entrenados para negociar entre ellos. Hubo un número limitado de pelotas de baloncesto, libros y sombreros, y cada bot tuvo que negociar la distribución de los artículos. Cada bot fue recompensado en secreto por ganar una cantidad particular de un artículo, digamos que el bot A necesitaría 2 sombreros, y el bot B necesitaría 2 pelotas de baloncesto para “ganar”. Para simular interacciones humanas, ninguno de los dos sabía lo que el otro quería.
- ¿Cuáles son tus compañías de robótica favoritas en este momento?
- ¿Cuál es la relación entre el aprendizaje automático en línea y la teoría de juegos?
- ¿Qué avances deben ocurrir en ingeniería para permitir robots humanoides avanzados? ¿Cuándo ocurrirán esos avances?
- ¿El aprendizaje automático automatizado necesita aleatoriedad?
- ¿Qué historias de ciencia ficción muestran que una IA se vuelve consciente de sí misma?
Ahora los bots recibieron un conjunto de palabras para usar de un conjunto de datos de entrenamiento. Los bots tendían a usar repetidamente estas palabras, y eso no era realmente un problema. Los bots fueron recompensados por obtener los artículos, pero no por hacerlo en inglés. Si la red neuronal tuviera que hablar en inglés, podría hacerlo. El experimento aún cumplió su propósito, los robots en realidad terminaron ideando estrategias muy humanas para negociar lo que querían.
Así que creo que deberías estar asombrado y un poco preocupado también.
Sorprendido de que estamos avanzando hacia la IA y preocupado porque estamos avanzando demasiado lento hacia la IA.
Fuente: ¿trato o no trato? Entrenando bots de IA para negociar