Parece que te refieres al trabajo reciente sobre la generación de “ilusiones ópticas” para redes neuronales. La premisa es simple: entrenar una red neuronal para clasificar un conjunto de imágenes (o cualquier cosa realmente). Luego, encuentre una imagen de entrada que lleve a la red a clasificarla como una clase particular con un grado MUY alto de precisión.
En otras palabras, supongamos que tengo una red neuronal que clasifica las imágenes como {perro, gato, ratón, caballo}. Luego utilizo un algoritmo genético u optimización de descenso de gradiente para evolucionar una entrada no relacionada (por ejemplo, ruido aleatorio u otra imagen no relacionada) en algo de lo que la red está absolutamente convencida de que es un {perro, gato, ratón, caballo}.
¿Qué obtienes?
- ¿Qué tecnologías que no son de IBM se están utilizando para mejorar el ecosistema de IBM Watson?
- ¿Por qué es importante el aprendizaje no supervisado?
- La minería de datos es una versión más fuerte de ajuste de curvas, ¿es correcta?
- ¿El filtrado colaborativo se considera aprendizaje automático?
- ¿Por qué la función sigmoidea rara vez se usa en capas ocultas recientemente?
Esperarías obtener algo que se parezca a uno de estos animales. Resulta que, dependiendo del algoritmo de optimización exacto y de la entrada de inicio que use, puede o no. Es posible generar “ruido aleatorio” de que la red tendrá una confianza del 99.999% es un “perro”, por ejemplo. Sin embargo, especialmente con el enfoque del algoritmo genético, puede desarrollar soluciones que se parezcan a algo que se parece a un perro. No es cómo tú y yo dibujaríamos un perro, pero quizás puedas ver cuatro patas y una cola, por ejemplo.
Para un resumen realmente bueno de esto, consulte el siguiente documento excelente:
Laboratorio de IA en evolución – Universidad de Wyoming
Nguyen A, Yosinski J, Clune J.
Las redes neuronales profundas se engañan fácilmente: predicciones de alta confianza para
Imágenes irreconocibles. En visión por computadora y reconocimiento de patrones (CVPR
’15), IEEE, 2015. (pdf)