¿QUÉ? Los medios de comunicación analizaron este incidente e inmediatamente crearon un montón de titulares de clickbait y Skynet . Es casi como si quisieran que la gente haga clic en él. Hmmm, creo que podría estar en algo. 😛
No estoy afiliado con el grupo FAIR (Facebook AI Research) que creó esos bots, pero en base a sus publicaciones de blog y algunos artículos de noticias sensibles sobre esto, esto es lo que sucedió:
Tarea de alto nivel : entrenar robots de IA para negociar.
- ¿Cuáles son los ejemplos de sistemas de inteligencia artificial que se usan actualmente en todo el mundo?
- ¿Obtener un título en CS me ayudará a entrar en el aprendizaje automático y la IA?
- Cómo demostrar el aprendizaje automático
- ¿Merecerá la pena hacer un aprendizaje de verano de aprendizaje automático de Coursera, y seré elegible para construir mi propio proyecto usando conceptos de ML?
- ¿Quién está más cerca de desarrollar una verdadera IA?
Tarea de bajo nivel : se muestran dos bots con la misma colección de artículos (por ejemplo, 3 barcos, 4 autos y 5 camiones). Los bots deben negociar entre ellos para decidir una división de esos elementos.
Experimento : Cada bot recibe un valor para cada uno de esos elementos. (Por ejemplo, un automóvil puede valer 3 puntos para Bot 1, pero 5 puntos para Bot 2 y así sucesivamente). Ninguno de los bot conoce los valores dados al otro bot. Los bots deben inferir del diálogo, los valores dados al otro bot. (es decir, usted dice que desea que el barco => deba ser de gran valor para usted). Y cada bot intenta negociar para maximizar el número de puntos que gana.
Restricciones : alejarse de la negociación da como resultado cero puntos para ambos bots. Y no aceptar un acuerdo después de 10 rondas de diálogo también resulta en cero puntos para ambos. Por lo tanto, es necesaria una negociación rápida.
Algo extra : dado que la negociación también es un proceso verbal, FAIR desarrolló una técnica novedosa en la que cada bot simula una conversación futura, de modo que se puede elegir un enunciado con la máxima recompensa futura esperada ( puntaje en la imagen a continuación). Esta imagen de la publicación del blog de FAIR lo explica bien:
El levantamiento de “Skynet” : Según este artículo de noticias, después de configurar el experimento, los programadores se dieron cuenta de que habían cometido un error al no incentivar a los chatbots a comunicarse de acuerdo con las reglas del idioma inglés. Y es por eso que los bots “inventaron” un lenguaje donde, por ejemplo, decir “el” tres veces puede significar ” Quiero 3 camiones “. Y cerraron la conversación porque su intención era construir chatbots que pudieran hablar con la gente.
Sí es cierto. Los dos bots no estaban planeando conquistar el mundo, estaban discutiendo cómo dividir una serie de elementos dados (3 barcos, 4 autos y 5 camiones) en una división mutuamente aceptable.
Anticlimactico, ¿eh?