Es un poco técnico: la descripción general es que los ejemplos adversos son entradas a un modelo de aprendizaje automático que están diseñados para engañar a un modelo particular previamente entrenado, mientras que se ve mínimamente diferente de los datos reales.
Digamos que entrenamos una red neuronal para diferenciar entre dos categorías de rascacielos y gatos. Esta red aprenderá que ciertas características son particulares de los rascacielos: bloques de color continuo, o líneas rectas, en lugar de curvas en los gatos.
Una imagen de gato adversario, en este ejemplo, es una imagen de un gato que ha sido editado para introducir estas características de rascacielos sin cambiar mucho la imagen a los ojos humanos.
- ¿Cómo es ser un usuario de SAS en Hadoop?
- ¿Cuáles son las 3 mejores GPU, independientemente del precio del aprendizaje profundo, especialmente si necesitamos mucha RAM de GPU, así como cálculos de alto rendimiento / velocidad?
- ¿Cuál es la diferencia entre análisis de datos, análisis de datos, minería de datos, ciencia de datos, aprendizaje automático y Big Data?
- ¿Cuál es la diferencia de enfoque para resolver un desafío de Kaggle y trabajar en un problema de investigación de LA bien definido?
- ¿Qué profesores / grupos / laboratorios están trabajando en el aprendizaje profundo en el MIT?
Tal vez la piel de los gatos se edita un poco para que corra paralela, o las curvas de sus características se editan para ser un poco más bloqueado, de una manera que apunta específicamente a las características que esta red neuronal usa para identificar rascacielos. Esto se puede hacer de una manera matemáticamente rigurosa, que minimiza el impacto de estas ediciones en el resto de la imagen.
El resultado es una imagen de gato ligeramente torcida, que parece un rascacielos a la red neuronal.
Algunos ejemplos reales están aquí: Atacar el aprendizaje automático con ejemplos adversos