¿Cuál es su opinión sobre el cierre de Facebook del experimento de chatbot basado en IA después de crear su propio idioma?

Los bots de Facebook se cerraron simplemente porque los ingenieros olvidaron hacerlos hablar en inglés

Algunos periódicos y sitios web informaron que los bots específicamente iban en contra de los comandos proporcionados por sus operadores. Esto no es absolutamente lo que sucedió.

Los robots en cuestión estaban siendo entrenados para negociar entre ellos. Hubo un número limitado de pelotas de baloncesto, libros y sombreros, y cada bot tuvo que negociar la distribución de los artículos. Cada bot fue recompensado en secreto por ganar una cantidad particular de un artículo, digamos que el bot A necesitaría 2 sombreros, y el bot B necesitaría 2 pelotas de baloncesto para “ganar”. Para simular interacciones humanas, ninguno de los dos sabía lo que el otro quería.

Ahora los bots recibieron un conjunto de palabras para usar de un conjunto de datos de entrenamiento. Los bots tendían a usar repetidamente estas palabras, y eso no era realmente un problema. Los bots fueron recompensados ​​por obtener los artículos, pero no por hacerlo en inglés. Si la red neuronal tuviera que hablar en inglés, podría hacerlo. El experimento aún cumplió su propósito, los robots en realidad terminaron ideando estrategias muy humanas para negociar lo que querían.

Así que creo que deberías estar asombrado y un poco preocupado también.

Sorprendido de que estamos avanzando hacia la IA y preocupado porque estamos avanzando demasiado lento hacia la IA.

Fuente: ¿trato o no trato? Entrenando bots de IA para negociar

Las empresas como Facebook Google tienen varios proyectos que se ejecutan simultáneamente en diversos campos de las tecnologías.

La razón más probable para cerrar cualquier proyecto es siempre sus aspectos comerciales más que sus amenazas para los humanos. El nivel actual de IA es tan poco inteligente que no puede convertirse en una amenaza para los humanos. Lo único que puede hacer es fallar a sus creadores.

El “lenguaje propio” puede ser un error en el sistema o puede ser el resultado de algún algoritmo de inclinación de máquina.

Toda empresa quiere desarrollar su tecnología y no quiere detener el desarrollo porque podría ser una amenaza para los humanos.

Incluso en askarvi.com estamos construyendo IA y siempre algunos algoritmos salen mal y nos sorprende con algo elegante pero sin sentido.

Creo que es una llamada de atención

Con quiero decir que un problema menor como ese, que no trajo ningún peligro, podemos entender los peligros que podrían ocurrir si no tenemos un control claro de la IA.

Lo que pienso sobre este incidente es básicamente eso.

Muestra la capacidad de superación personal de la IA, ahora tenemos que aprender y mejorar.

Gracias por el A2A Griffin Wagner

No es nada nuevo para las personas que siguen el campo de cerca, ya en el 16 de noviembre, el equipo de Google Translate también tuvo una situación similar. La herramienta de traducción de IA de Google parece haber inventado su propio lenguaje interno secreto.

Esta vez, gracias al motor de rumores, es decir, el propio Facebook, esta cosa se desvió de la proporción. Al menos deberíamos sorprendernos porque en realidad estaría mal de nuestra parte esperar que cualquier forma de AGI comience a conversar de inmediato en inglés o en esperanto, ya que nosotros mismos no lo hicimos desde el principio.