¿Deberían los tweets de Tay hacernos preocuparnos por el estado de la humanidad?

En realidad, si profundiza en la situación más profundamente, encontrará que algunas de sus suposiciones sobre lo que sucedió son falsas.

Tay no era solo un chatbot que respondía al estado del mundo. Tay en realidad tenía dos modos de operación:

  • modo normal, donde hace comentarios originales derivados de su programación y base de conocimiento
  • modo de repetición después de mí, donde ella simplemente repite lo que le hayan dicho, como un loro al que se le enseña a maldecir.

Puedes ver una captura de pantalla que ilustra que le enseñaron a decir cosas racistas en la respuesta de Renato de Angelis a ¿Cómo logró la comunidad de Twitter que Tay tuiteara ofensivamente?

Así que la mayoría de sus peores comentarios fueron simplemente repetir cualquier broma de Hitler de que alguien le daba de comer. Probablemente disfrutaron trolleando a Tay y sus seguidores, ya que es divertido escuchar a un robot con el personaje de una adolescente decir cosas malas porque es demasiado simple de entender.

Entonces, Tay no solo estaba aprendiendo de Twitter en general, y no eran conversaciones orgánicas, sino solo el intento de algunas personas de divertirse con un chatbot. Esas observaciones fueron enviadas directamente a Tay por personas que sabían de su escapatoria repetida después de mí.

Si miras el 99% de los comentarios de Tay en su nube de etiquetas, fueron sobre cachorros y amabilidad. Es solo una pequeña minoría de trolls que lograron cerrarla.

Si bien esto es molesto, Microsoft ya tiene otros dos chatbots exitosos como Tay, uno llamado Xiaoice en China y otro llamado Rinna en Japón. Ambos tienen millones de seguidores y están funcionando bien.

Este es un revés temporal para Tay como máximo. Espero verla regresar uno de estos días, con algunos filtros de palabras clave mejorados para eliminar las cosas malas. Y Microsoft probablemente debería eliminar la función de repetición después de mí de Tay, ya que eso es solo una invitación a la travesura.

Sin embargo, si lo piensa, sus ideas erróneas no son tan irrazonables. Para poder corregir este incidente, dos explicaron dos cosas ocultas:

  • ¿Cuál es el modo interno de operación de Tay? Respuesta: Ella tenía una función oculta de repetir después de mí, mientras que probablemente solo pensabas que era un chatbot puro.
  • ¿De dónde vienen los tweets racistas de Tay, Twitter en general? Respuesta: No, estaban dirigidos específicamente a ella, lo que no se daría cuenta en base al conocimiento general de Twitter.

Creo que muchas otras personas tuvieron la misma idea sobre este incidente por esas razones. Las causas reales del incidente están ocultas a la observación directa. Es fácil imaginar que esto es solo una extraña reflexión de AI sobre el estado del mundo, pero afortunadamente ese no es el caso.

El incidente de Tay en marzo de 2016 no me preocupa por la humanidad. Fue el resultado de travesuras creativas por parte de muchas personas, algunas de la comunidad 4chan, involucradas en un intento mayormente descoordinado de romper el bot.

En cuanto a la capacitación de chatbots de IA únicamente en una conversación orgánica de Twitter, eso me preocupa, pero solo porque no quisiera que todas mis conversaciones estuvieran al mismo nivel del intercambio promedio de Twitter.