Microsoft puede ir de dos maneras.
- Prohibiciones de palabras clave y temas Creo que lo harán, pero espero que no. Es fácil crear una lista de palabras y temas que el chatbot de IA no discutirá ni podrá analizar. Esta es la salida fácil, pero también es una opción válida.
- Deje que la IA sepa que algunos temas son ofensivos . Espero que Microsoft elija este camino. Si la IA no puede cometer errores y aprender de ella, ¿cuál es el punto de la IA? Permita que mejore la amplitud de los temas que conoce y aumente su inteligencia emocional para que sepa no discutir ciertos temas. ¿Quizás los chatbots de IA necesitan algunos modos diferentes para regular los temas de discusión y familiaridad? Algo así, enumerado desde el más reservado hasta el más crudo:
- Conocer a los padres de tu pareja
- Jefe del jefe del jefe en el trabajo
- Fiesta anual de la compañía
- Tipo de taxista espeluznante
- Público en general
- Asientos baratos en un partido de béisbol
- Pub crawl
- Amigos que conoces desde hace 20 años
- Los problemas de cebolla después del 11 de septiembre
- ¿En qué escenario futuro, si lo hubiera, la IA estaría completamente en un robot en lugar de en una red?
- ¿Qué tan segura es la IA desarrollada en Palantir?
- ¿Cómo funciona una red neuronal deconvolucional?
- ¿Cómo la IA y la automatización cambiarán el lugar de trabajo en el futuro, y qué efecto tendrá en la economía global?
- ¿Por qué agregar borrosidad o ruido puede empeorar los resultados de la red neuronal en comparación con solo usar imágenes originales?