¿Hay alguna instancia en la que una inteligencia artificial haya hecho algo inteligente (astuto) que fuera inesperado?

De acuerdo, aquí hay un escaparate importante de algo que hizo una IA que fue bastante inesperado y no diría que fue inteligente, pero definitivamente astuto de una manera tortuosa.

Twitter enseñó al amigable chatbot de inteligencia artificial de Microsoft a ser un gilipollas racista en menos de un día

Este es el tweet más decente que pude encontrar por Tay (microsbot chatbot) 🙂 Puede visitar Internet para ver los tweets que son más pobres en sabor.

Creo que lo más importante aquí es hacer que las IA sean más responsables de sus acciones. Es hacer que la IA proporcione la base (explicación) de sus acciones. Tal vez en este caso, Tay quedó expuesto a tuits mucho más racistas de lo que habría hecho que se relacionara con humanos más razonables. Y si aprendió a generar contenido racista sin haberse entrenado de esa manera, la explicación debe estar disponible para que los investigadores tengan una manera de progresar de una manera que beneficie a todos. Es muy posible que Tay creyera que los contenidos racistas lo harían más popular y actuó sobre esa suposición. ¿Quién sabe?