¿Qué es el aprendizaje automático adversarial? ¿Cuáles son algunos ejemplos reales de eso?

Can Machine Learning Be Secure es una descripción general de alto nivel del aprendizaje automático adversarial. Explica la familia de formulaciones que el aprendizaje automático adverso implica y describe el panorama de soluciones a estos problemas, por lo que es excelente para responder a su primera pregunta, pero tal vez no sea tan bueno para su segunda pregunta porque tiene 11 años. Un “tl: dr” de este documento es que en el mundo real los datos deben provenir de algún lugar o que los modelos de aprendizaje automático se aplicarán en entornos con diferentes partes que tengan intereses incompatibles y, por lo tanto, los agentes en una relación de confrontación con el alumno pueden desear romper el sistema mediante el envío de datos engañosos o puede querer modelar al alumno para que pueda engañarlo de manera predecible, y que la regularización de la aleatorización y la ocultación de información se encuentren entre las tareas involucradas en contrarrestar tal comportamiento adversario. Aquí hay un ejemplo real más reciente del lado académico de las cosas.

Desafortunadamente, no estoy familiarizado con más aplicaciones industriales, porque obviamente es muy relevante para la industria, pero también es obvio por qué es el tipo de cosas que una empresa podría no estar ansiosa por publicar. Tal vez se produzca más publicación si los resultados comienzan a ser demostrablemente seguros, como en la criptografía donde los argumentos de seguridad son formales y las personas se sienten más cómodas usando ideas bien conocidas e incluso implementaciones de código abierto. Estoy siguiendo esta pregunta en caso de que alguien responda desde una perspectiva de ingeniería, pero no tengo muchas esperanzas.