De acuerdo, aquí hay un escaparate importante de algo que hizo una IA que fue bastante inesperado y no diría que fue inteligente, pero definitivamente astuto de una manera tortuosa.
Twitter enseñó al amigable chatbot de inteligencia artificial de Microsoft a ser un gilipollas racista en menos de un día
- ¿Podría un programa Ai avanzado anular y lanzar todas las ojivas nucleares en el arsenal de Estados Unidos?
- ¿Cuáles son los verdaderos bordes y tendencias de la IA?
- ¿Por qué se están desarrollando IA y automatización, a pesar de que representa una amenaza para los trabajos?
- ¿Cómo la inteligencia artificial impactó los trabajos en las empresas que ya la usan?
- ¿Puede la inteligencia artificial afectar el futuro de la tecnología en la India?
Este es el tweet más decente que pude encontrar por Tay (microsbot chatbot) 🙂 Puede visitar Internet para ver los tweets que son más pobres en sabor.
Creo que lo más importante aquí es hacer que las IA sean más responsables de sus acciones. Es hacer que la IA proporcione la base (explicación) de sus acciones. Tal vez en este caso, Tay quedó expuesto a tuits mucho más racistas de lo que habría hecho que se relacionara con humanos más razonables. Y si aprendió a generar contenido racista sin haberse entrenado de esa manera, la explicación debe estar disponible para que los investigadores tengan una manera de progresar de una manera que beneficie a todos. Es muy posible que Tay creyera que los contenidos racistas lo harían más popular y actuó sobre esa suposición. ¿Quién sabe?