¿El chatbot Tay de Microsoft le costó reputación de marca en aprendizaje automático e inteligencia artificial?

Veamos la descripción de los objetivos de Tay según la definición de Microsoft:

Tay es un bot de chat inteligente artificial desarrollado por los equipos de Tecnología e Investigación y Bing de Microsoft para experimentar y realizar investigaciones sobre la comprensión conversacional. Tay está diseñado para involucrar y entretener a las personas donde se conectan entre sí en línea a través de una conversación informal y lúdica. Mientras más chateas con Tay, más inteligente se vuelve, por lo que la experiencia puede ser más personalizada para ti.

Especialmente desde que se ha generalizado, el término Inteligencia Artificial se ha utilizado en un sentido muy amplio. Pero es razonable esperar que una compañía de tecnología de este calibre lo use correctamente. Destaqué la parte “más inteligente”, porque creemos que se basa ingenuamente en el supuesto de que la gente dirá cosas que harán que Tay sea más inteligente. Aparentemente, ese no fue el caso.

No es aceptable que una empresa de este calibre no proporcione una lista de palabras clave filtradas.

Tenemos un robot conversacional llamado Yourbot que aprende de los humanos. Filtra contenido ofensivo y, en función de la frecuencia, deshabilita automáticamente las respuestas ingresadas solo por unas pocas personas, pero no por la mayoría de los usuarios. ¡Una manera fácil de aplicar el “sentido común” para un robot de autoaprendizaje!

Diría, absolutamente, que le costó a Microsoft la reputación de la marca en aprendizaje automático e inteligencia artificial. Si le preguntas a cualquier persona bien informada, en las áreas de IA, te dirá claramente que el fiasco del chatbot de Tay no fue que la IA salió mal , sino que los humanos entrenaron a la IA en un conjunto de datos inapropiado. Sin embargo, ese es un pequeño porcentaje de personas que realmente entienden el problema. Para una persona promedio, se trata de cómo Microsoft creó un software que era ofensivo y tuvo que ser eliminado. La reputación a menudo es construida por Joe promedio, y no por personas con una comprensión más profunda.

Probablemente una cierta reputación perdida en los ojos de la audiencia general .

Dado que a este público no le importa mucho este tipo de experimentos, el fracaso se olvidará rápidamente.

Nada para los entusiastas y profesionales de IA y ML.

Aquellos entienden que incluso los mejores sistemas fallan cuando se entrenan mal.

Espero que esto responda la pregunta.

Para respuestas similares, sígueme aquí: http://quora.com/profile/Yassine

Me aventuraría a que la percepción de la marca pública disminuye, pero la percepción de la marca profesional permanece sin cambios. El progreso tecnológico aún avanza independientemente de los retrocesos percibidos. El rastro y el error a menudo se requieren para el éxito futuro.

El chatbot de Microsoft AI con cero enfriamiento fue esencialmente pirateado deliberadamente por atacantes maliciosos en general para el deporte con una inclinación hacia la diversión políticamente incorrecta.

Si el chatbot de Microsoft Tay hubiera sido solo otro usuario anónimo aleatorio de Twitter como yo, probablemente habría funcionado bien, ya que se había probado de forma algo exhaustiva antes del lanzamiento.

Entonces, la culpa al final probablemente recae en el marketing de productos de Microsoft, ya que el lanzamiento público solo creó la receta de la vergüenza pública.

La culpa sigue siendo cuestionable porque ¿cómo promocionar un producto públicamente sin atraer la atención de los piratas informáticos? Es una posición insostenible.

Bill Gates sigue siendo una de las personas más ricas y generosas del mundo, ya que Microsoft es una empresa muy viable en muchos aspectos, a pesar de las fallas ocasionales.