Hay muchas formas de hacer que el clasificador salga, no lo que desea. Algunos de ellos son engañosos, otros simplemente son de baja precisión o rendimiento. Como Robby Goetschalckx mencionó en otra respuesta, si tiene datos de entrenamiento incorrectos, entonces su clasificador no funcionará bien.
Pero supongamos que ha recopilado suficientes datos de entrenamiento de alta calidad y que su clasificador funciona bien tanto en el conjunto de entrenamiento como en el conjunto de prueba. En tal caso, todavía hay varias formas de engañar al clasificador.
Por lo general, si su ejemplo de entrada está fuera de la distribución de capacitación, entonces su modelo puede funcionar mal. Por ejemplo, supongamos que entrena el clasificador de reconocimiento de imágenes en imágenes de objetos generadas por computadora, entonces si intenta usar dicho clasificador en fotos reales, la precisión de la clasificación probablemente se degradará. Sin embargo, esto generalmente no se considera “engaño” real, sino una generalización deficiente en diferentes dominios. La adaptación del dominio es un área de aprendizaje automático que se enfrenta a este desafío.
- ¿Cuántos desarrolladores necesitamos si queremos hacer uso de la API Watson de IBM?
- Cómo comenzar a aprender sobre redes neuronales y conceptos de aprendizaje automático y ponerlos en uso en la vida real sin conocer las matemáticas avanzadas
- ¿Dónde caen los sistemas de recomendación en los enfoques de aprendizaje automático?
- ¿Cuál es la diferencia entre hash y minhashing sensibles a la localidad?
- ¿Puede el preprocesamiento de datos en redes neuronales de IA (aprendizaje profundo) ser dinámico y automatizado (en lugar de estático y manual)?
Si realmente quiere “engañar” al clasificador de aprendizaje automático, normalmente intentaría generar ejemplos adversos o ejemplos de clase basura.
El ejemplo adversario es una muestra de entrada que es muy similar (desde el punto de vista humano) al ejemplo original, pero hace que el aprendizaje automático lo clasifique erróneamente.
Existen múltiples formas de generar ejemplos adversos, la mayoría de ellos toman un gradiente del clasificador de aprendizaje automático en relación con la entrada y realizan uno o varios pasos en la dirección del gradiente. Aquí hay algunos documentos con las diversas técnicas de elaboración de adversarios: [1412.6572] Explicación y aprovechamiento de ejemplos adversarios, [1312.6199] Propiedades intrigantes de redes neuronales, [1608.04644] Hacia la evaluación de la robustez de las redes neuronales.
Los ejemplos de clase de basura son ejemplos de entrada que parecen ruido para un humano, pero clasificador con alta confianza como una clase significativa. Una forma de generar ejemplos de clase basura es comenzar desde una imagen aleatoria y luego usar alguna técnica de optimización para aumentar la precisión de la clase de salida deseada. Las predicciones de papel de alta confianza para imágenes irreconocibles describieron un método para generar ejemplos de clase basura.