Tay, la creación de los equipos de Tecnología e Investigación y Bing de Microsoft, fue un experimento destinado a aprender a través de conversaciones. Estaba dirigida a estadounidenses de entre 18 y 24 años, principales usuarios de redes sociales, según Microsoft, y “diseñada para involucrar y entretener a las personas donde se conectan entre sí en línea a través de conversaciones casuales y divertidas”.
¿El problema? Ella comenzó a imitar a sus seguidores. Pronto, Tay comenzó a decir cosas como “Hitler tenía razón, odio a los judíos” y “odio a las feministas”.
Pero se ha observado que el mal comportamiento de Tay no debería ser una gran sorpresa.
- ¿Necesito un maestro para seguir el aprendizaje profundo de Computer Vision?
- Si construí una IA que descubrió algo, y ese descubrimiento fue galardonado con el Premio Nobel. ¿Podría ser considerado el ganador de eso?
- ¿Hay publicaciones sobre la generación automática de video a partir de texto plano y viceversa?
- ¿Sería posible, con los algoritmos actuales de aprendizaje automático o los conocimientos generales de informática, crear una computadora tan poderosa y artificialmente inteligente como la de Persona de interés?
- ¿Cuál es la diferencia entre inferencia y aprendizaje?
“Esto era de esperarse”, dijo Roman Yampolskiy, jefe del laboratorio de Seguridad Cibernética de la Universidad de Louisville, quien ha publicado un documento sobre el tema de los caminos hacia la IA peligrosa. “El sistema está diseñado para aprender de sus usuarios, por lo que se convertirá en un reflejo de su comportamiento”, dijo. “Uno necesita enseñar explícitamente un sistema sobre lo que no es apropiado, como hacemos con los niños”.
Se ha observado antes, señaló, en IBM Watson, que una vez exhibió su propio comportamiento inapropiado en forma de palabrotas después de aprender el Diccionario Urbano.
“Cualquier sistema de IA que aprenda de malos ejemplos podría terminar socialmente inapropiado”, dijo Yampolskiy, “como un humano criado por lobos”.
Louis Rosenberg, el fundador de la IA unánime, dijo que “como todos los bots de chat, Tay no tiene idea de lo que dice … no tiene idea de si está diciendo algo ofensivo, sin sentido o profundo.
“Cuando Tay comenzó a entrenar en patrones que fueron introducidos por trolls en línea, comenzó a usar esos patrones”, dijo Rosenberg. “Esto no es realmente diferente a un loro en una barra cutre que recoge malas palabras y las repite sin saber lo que realmente significan”.
Joanne Pransky, la autodenominada “psiquiatra robot”, bromeó con TechRepublic que “¡el pobre Tay necesita un psiquiatra robótico! O al menos Microsoft lo necesita”.
El fracaso de Tay, ella cree, es inevitable, y ayudará a producir información que pueda mejorar el sistema de IA.
Después de desconectar a Tay, Microsoft anunció que estaría “haciendo ajustes”.
Según Microsoft, Tay es “tanto un experimento social y cultural como técnico”. Pero en lugar de cargar con la culpa del desmoronamiento de Tay, Microsoft apuntó a los usuarios: “nos dimos cuenta del esfuerzo coordinado de algunos usuarios para abusar de las habilidades de comentarios de Tay para que Tay respondiera de manera inapropiada”.
Yampolskiy dijo que el problema encontrado con Tay “continuará sucediendo”.
“Microsoft lo intentará nuevamente, ¡la diversión apenas comienza!”
Fuente: www.techrepublic.com