Los bots basados ​​en IA de Facebook desarrollaron su propio lenguaje. ¿Deberíamos estar asombrados o preocupados?

Los bots de Facebook se cerraron simplemente porque los ingenieros olvidaron hacerlos hablar en inglés

Algunos periódicos y sitios web informaron que los bots específicamente iban en contra de los comandos proporcionados por sus operadores. Esto no es absolutamente lo que sucedió.

Los robots en cuestión estaban siendo entrenados para negociar entre ellos. Hubo un número limitado de pelotas de baloncesto, libros y sombreros, y cada bot tuvo que negociar la distribución de los artículos. Cada bot fue recompensado en secreto por ganar una cantidad particular de un artículo, digamos que el bot A necesitaría 2 sombreros, y el bot B necesitaría 2 pelotas de baloncesto para “ganar”. Para simular interacciones humanas, ninguno de los dos sabía lo que el otro quería.

Ahora los bots recibieron un conjunto de palabras para usar de un conjunto de datos de entrenamiento. Los bots tendían a usar repetidamente estas palabras, y eso no era realmente un problema. Los bots fueron recompensados ​​por obtener los artículos, pero no por hacerlo en inglés. Si la red neuronal tuviera que hablar en inglés, podría hacerlo. El experimento aún cumplió su propósito, los robots en realidad terminaron ideando estrategias muy humanas para negociar lo que querían.

Así que creo que deberías estar asombrado y un poco preocupado también.

Sorprendido de que estamos avanzando hacia la IA y preocupado porque estamos avanzando demasiado lento hacia la IA.

Fuente: ¿trato o no trato? Entrenando bots de IA para negociar

El desarrollo de la IA en los últimos tiempos es sorprendente y es algo de lo que sorprenderse, pero no se sorprenda ni se preocupe por nada, según la reciente historia de cierre de bots de IA de Facebook. Porque es solo un medio ignorante que promociona un problema trivial al contar una historia a medias.

No es nada nuevo para las personas que siguen el campo de cerca, ya en el 16 de noviembre, el equipo de Google Translate también tuvo una situación similar. La herramienta de traducción de IA de Google parece haber inventado su propio lenguaje interno secreto.

Esta vez, gracias al motor de rumores, es decir, el propio Facebook, esta cosa se desvió de la proporción. Al menos deberíamos sorprendernos porque en realidad estaría mal de nuestra parte esperar que cualquier forma de AGI comience a conversar de inmediato en inglés o en esperanto, ya que nosotros mismos no lo hicimos desde el principio.

Ni asombrado ni preocupado.

Lo cerraron porque no estaba haciendo lo que se suponía que debía hacer.

Deje de escuchar lo que le dicen los medios e investigue usted mismo. Intente leer el blog FAIR sobre un tema relacionado.

More Interesting

¿Por qué uno de estos está mal?

¿Qué conocimiento básico se debe tener antes de aprender el aprendizaje automático en India?

¿Alguien ha pensado en poner aire en ascensores?

Según el tecnólogo Raymond Kurzweil, la Singularidad debería ocurrir alrededor de 2045. ¿Se considerará entonces la potencia informática?

¿Qué porcentaje de la investigación de riesgo de IA es "inútil"?

¿Qué se necesita para ser diseñador de inteligencia artificial?

¿Cómo sabemos cuándo entramos en la economía de la automatización donde la inteligencia artificial impregna nuestras ciudades como la fuerza impulsora de la productividad?

¿Cómo y por qué una IA, como Skynet, desarrollaría y utilizaría una máquina capaz de viajar en el tiempo?

¿Cuáles son los avances potenciales en el hardware de computación en la próxima década (más allá de la ley de Moore): Memristors, Cognitive, Quantum, Nanobots, encriptación de ADN?

¿No habrá futuro para los humanos en ciberseguridad cuando la IA se haga cargo? ¿Cuándo va a pasar esto?

¿Smalltalk es tan poderoso como Python cuando se trata de inteligencia artificial?

¿Cómo es tener a Peter Stone como tu supervisor de doctorado? ¿Cómo es ser parte de su grupo de investigación?

Si se supone que la IA salvará a los humanos al predecir sus acciones futuras, ¿pueden evitar que hagamos ciertas cosas en la vida (por el bien común) y hasta qué punto (Ej: aceptar un no por respuesta, cuando somos tercos y queremos esquiar) en hielo delgado)?

¿Será posible crear IA en un mundo virtual que realmente crea que existe?

¿Cómo cambiará AI el desarrollo web en el futuro?