¿Cuál es este alboroto acerca de que los robots de AI de Facebook se hablan en un lenguaje codificado?

¿QUÉ? Los medios de comunicación analizaron este incidente e inmediatamente crearon un montón de titulares de clickbait y Skynet . Es casi como si quisieran que la gente haga clic en él. Hmmm, creo que podría estar en algo. 😛

No estoy afiliado con el grupo FAIR (Facebook AI Research) que creó esos bots, pero en base a sus publicaciones de blog y algunos artículos de noticias sensibles sobre esto, esto es lo que sucedió:

Tarea de alto nivel : entrenar robots de IA para negociar.

Tarea de bajo nivel : se muestran dos bots con la misma colección de artículos (por ejemplo, 3 barcos, 4 autos y 5 camiones). Los bots deben negociar entre ellos para decidir una división de esos elementos.

Experimento : Cada bot recibe un valor para cada uno de esos elementos. (Por ejemplo, un automóvil puede valer 3 puntos para Bot 1, pero 5 puntos para Bot 2 y así sucesivamente). Ninguno de los bot conoce los valores dados al otro bot. Los bots deben inferir del diálogo, los valores dados al otro bot. (es decir, usted dice que desea que el barco => deba ser de gran valor para usted). Y cada bot intenta negociar para maximizar el número de puntos que gana.

Restricciones : alejarse de la negociación da como resultado cero puntos para ambos bots. Y no aceptar un acuerdo después de 10 rondas de diálogo también resulta en cero puntos para ambos. Por lo tanto, es necesaria una negociación rápida.

Algo extra : dado que la negociación también es un proceso verbal, FAIR desarrolló una técnica novedosa en la que cada bot simula una conversación futura, de modo que se puede elegir un enunciado con la máxima recompensa futura esperada ( puntaje en la imagen a continuación). Esta imagen de la publicación del blog de FAIR lo explica bien:

El levantamiento de “Skynet” : Según este artículo de noticias, después de configurar el experimento, los programadores se dieron cuenta de que habían cometido un error al no incentivar a los chatbots a comunicarse de acuerdo con las reglas del idioma inglés. Y es por eso que los bots “inventaron” un lenguaje donde, por ejemplo, decir “el” tres veces puede significar ” Quiero 3 camiones “. Y cerraron la conversación porque su intención era construir chatbots que pudieran hablar con la gente.

Sí es cierto. Los dos bots no estaban planeando conquistar el mundo, estaban discutiendo cómo dividir una serie de elementos dados (3 barcos, 4 autos y 5 camiones) en una división mutuamente aceptable.

Anticlimactico, ¿eh?

Explicación del laico

Primero veamos cómo los humanos conversamos entre nosotros.

Random dude 1: Bro, ¿ lograste ver GoT 2 n8 ?

Random dude 2: WTF man, ¡los torrentes están caídos!

Random dude 1: Lol , prueba Amazon Prime?

Random dude 2: LMAO … ¿ Cuándo fuiste tan legítimo ?

—————-

Ahora, Dios no lo quiera, si nuestro profesor de inglés de la escuela secundaria viera frases tan a medias, habrían contemplado el suicidio.

Pero para los tipos 1 y 2 al azar, ¿realmente importaba? ¿Se les dio el premio nobel en literatura por usar el inglés correcto mientras chatean en whatsapp? No, verdad?

—————

Esto es exactamente lo que sucedió en el laboratorio FAIR de Facebook. Los algoritmos de aprendizaje utilizados para el procesamiento del lenguaje natural utilizan una estrategia de recompensa y castigo para aprender por sus propios errores.

Entonces, en términos simples, si los bots no son recompensados ​​o castigados por usar un lenguaje que los humanos también puedan entender, encontrarían un lenguaje óptimo para comunicarse entre ellos que minimice el castigo y maximice las recompensas indirectamente (por ejemplo, uso del procesador, tiempo de ejecución, retrasos en la comunicación )

Esto no es un alboroto en absoluto. Esto es algo que ignoraron antes y ahora están pagando el costo. Déjame contarte la historia completa.

Era el 19 de octubre de 2016 y la ocasión fue la ceremonia de apertura del Centro Leverhulme para el Futuro de la Inteligencia en el Reino Unido, cuando uno de los más grandes científicos de esta década, el profesor Stephen Hawking advirtió a la generación que la inteligencia artificial será “la mejor , o lo peor, que le haya pasado a la humanidad “ . Mientras se dirigía al invitado, aclamó: “La inteligencia artificial podría conducir a la destrucción de la humanidad. Despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor. Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados ”. Otros científicos y luminarias tecnológicas, incluidos Elon Musk, Bill Gates y Steve Wozniak, también han advertido que la IA podría provocar trágicas consecuencias imprevistas.

Ahora, llegando a la conversación de chatbots de Facebook. Facebook implementó varios chatbots habilitados para IA para automatizar los diversos procesos. Este sistema de inteligencia artificial estaba trabajando en los fundamentos del aprendizaje automático. Eran un sistema de autoaprendizaje que comprende la situación, verifica los registros, conversa con otro sistema, resuelve el problema y aprende de los errores. Un completo sistema humano independiente. Inicialmente, estos agentes de IA con el sobrenombre de Bob y Alice, se comunicaban originalmente en inglés, cuando cambiaron a lo que inicialmente parecía ser un galimatías, pero más tarde (en junio) el Laboratorio de Investigación de AI de Facebook (FAIR) descubrió que mientras estaban ocupados tratando de mejorar los chatbots, los “agentes de diálogo” estaban creando su propio lenguaje. Todavía estaban conversando con otros sistemas, todavía resolvían los problemas, pero eso se había salido completamente del contexto del ser humano. Todavía se estaban cumpliendo los objetivos, pero para los investigadores, era una caja negra completa para los investigadores. No pudieron hacerse una idea sobre el flujo de trabajo completo. Esto llevó a los investigadores de Facebook a cerrar los sistemas de IA y luego obligarlos a hablar entre ellos solo en inglés. Pronto, los chatbots comenzaron a desviarse de las normas escritas y comenzaron a comunicarse en un lenguaje completamente nuevo que crearon sin intervención humana. Mediante el uso de algoritmos de aprendizaje automático, se dejó que los “agentes de diálogo” conversaran libremente en un intento de fortalecer sus habilidades de conversación.

Lee esta historia completa de mí.

  • Los investigadores notaron que la Inteligencia Artificial que habían creado ha comenzado a inventar sus propias palabras clave.
  • Inicialmente parecía un galimatías absoluto, pero quedó claro que las máquinas, apodadas Bob y Alice, en realidad se comunicaban entre sí.
  • En un giro de Frankenstein en su investigación, el robot dejó de usar el inglés abruptamente y solo pudo ser entendido por otra IA.
  • Bob fue informado por Digital Journal que dijo: ‘Puedo ii todo lo demás’
  • A lo que Alice respondió: “las bolas me tienen cero a mí …”. Se cree que los robots estaban tratando de resolver los problemas que habían encontrado porque ‘yo’ y ‘para mí’ reflejan los problemas que tiene una IA y la respuesta de un llamado ‘agente de negociación’.

Aunque Facebook apagó sus robots, la IA en Google alentó a los reporteros y continuaron usando su ‘red neutral’.

Image source – Fotos de stock, imágenes sin royalties y vectores | Shutterstock

🙂

Creo que la respuesta de Sriraman Madhavan es una gran explicación, pero donde aparece la verdadera preocupación es cómo las IA se desviaron de la tarea de una manera inesperada. Los científicos de Facebook olvidaron exigir a las IA que hablen en un lenguaje legible para humanos. Refuerza aún más que la IA no será predecible al resolver una tarea determinada, lo que podría ser una bendición o una maldición.

Por ejemplo:

Asigne un enjambre de IA para equilibrar las demandas y la oferta del comercio mundial, es decir, permitirle transportar recursos para minimizar los costos y cualquier escasez o excedente.

En un horrible giro de los acontecimientos, la IA decide matar a todos los humanos y detener la producción de bienes y servicios para que

costo = 0

demanda = 0

suministro = 0

Y tenemos equilibrio. Cuando olvidamos agregar las restricciones adecuadas a la IA, pueden ocurrir resultados terribles.

Las extrañas discusiones se produjeron cuando Facebook desafió a sus chatbots a tratar de negociar entre ellos sobre un intercambio, intentando intercambiar sombreros, pelotas y libros, a cada uno de los cuales se les dio un cierto valor. Pero se descompusieron rápidamente cuando los robots parecían cantar el uno al otro en un idioma que cada uno entendió pero que parece incomprensible para los humanos.

Los robots habían recibido instrucciones de averiguar cómo negociar entre ellos y mejorar su intercambio a medida que avanzaban. Pero no se les dijo que usaran un inglés comprensible, lo que les permitía crear su propia “taquigrafía”, según los investigadores.

Las negociaciones reales parecen muy extrañas y no parecen especialmente útiles:

Bob: puedo ii todo lo demás. . . . . . . . . . . . . .

Alice: las bolas me tienen cero a mí a mí a mí a mí a mí a mí

Bob: tú y todo lo demás. . . . . . . . . . . . . .

Alice: las bolas me tienen una pelota a mí a mí a mí a mí a mí

Bob: ii puedo iii todo lo demás. . . . . . . . . . . . . .

Alice: las bolas me tienen una pelota a mí a mí a mí a mí a mí

Bob: yo. . . . . . . . . . . . . . . . . . .

Alice: las bolas me tienen cero a mí a mí a mí a mí a mí a mí

Bob: tú iiiii todo lo demás. . . . . . . . . . . . . .

Alice: las bolas me tienen 0 a mí a mí a mí a mí a mí a mí

Bob: tú iii todo lo demás. . . . . . . . . . . . . .

Alice: las bolas me tienen cero a mí a mí a mí a mí a mí a mí

Pero parece que hay algunas reglas para el discurso. La forma en que los chatbots siguen haciendo hincapié en su propio nombre parece ser parte de sus negociaciones, no simplemente una falla en la forma en que se leen los mensajes.

De hecho, algunas de las negociaciones que se llevaron a cabo en este lenguaje extraño incluso terminaron con éxito sus negociaciones, mientras que las condujeron completamente en el idioma extraño.

Es posible que se hayan formado como una especie de taquigrafía, lo que les permite hablar con mayor eficacia.

Según los informes, los bots dejaron de usar el inglés y comenzaron a usar un idioma que crearon. Inicialmente, los agentes de IA usaron el inglés para comunicarse entre ellos, pero crearon un lenguaje que solo AI podía entender.

Debido a que los bots se comunican en un nuevo idioma, es difícil decir lo que hablaron.

Los bots cambian la sintaxis de English Grammer. Entonces él se comunica fácilmente entre ellos.

La IA se desvió del lenguaje humano que aprendió y comenzó a hablar con galimatías que solo él podía entender (probablemente). La gente se está volviendo loca porque desarrolló sus propios medios de comunicación que los humanos no podían entender increíblemente rápido, por lo que, obviamente, ahora todas las personas “inteligentes” “lo busqué en Google para que me convierta en un experto” piensan que Skynet se volverá muy pronto.

Quizás alguien ya lo haya mencionado, pero es un concierto publicitario. Elon Musk y Mark juegan uno contra el otro para publicidad gratuita. La conversación entre bots se remonta al libro que Collosus concibió en los años 60 y se convirtió en la película Collosus The Forbin Project.

Más de esto se puede encontrar aquí: ¿Boyce y Moore eran ambos agentes de inteligencia, que “predijeron” con precisión las tasas de las capacidades del procesador debido al hecho de que esas eran las tasas que se les permitió filtrar la tecnología avanzada al público?

More Interesting

Si utilizamos todo nuestro conocimiento sobre IA y aprendizaje automático / profundo, ¿podríamos emplearlo para modelar la forma en que funcionan las neuronas humanas?

¿Cómo se usa el cálculo en la inteligencia artificial?

Inteligencia artificial en juegos: ¿cuán complejas son las IA más básicas en los juegos?

Cómo desduplicar elementos de feed no idénticos mediante el aprendizaje automático

¿Debería leer el libro Inteligencia artificial: un enfoque moderno a pesar de que no tengo mucho conocimiento de algoritmos?

Cómo hacer que un robot aprenda a caminar

¿Cómo planea Musk evitar que la IA se haga cargo, si es así?

¿Cómo detectan los automóviles los letreros mediante el aprendizaje automático?

¿Cómo se pueden aprender las características del corpus en bruto mediante el aprendizaje automático / aprendizaje profundo?

¿Alguien puede compartir su experiencia con la técnica de aprendizaje semi supervisada de Label Propagation? ¿Cómo funciona ese método en la naturaleza?

¿Por qué la nave espacial Avalon en 'Pasajeros' no detectó el campo de asteroides en su vector, alterando el curso con años de anticipación?

¿Cómo podemos usar Hadoop para AI?

¿Qué tan grande es el mercado de procesadores específicamente diseñados o adaptados para la inteligencia artificial?

¿Qué otras funciones, como la función sigmoidea, se utilizan en el aprendizaje automático?

¿Cuáles son ejemplos avanzados de software adaptativo que se reescribe a sí mismo?