En el procesamiento de imágenes, que es principalmente Redes neuronales convolucionales (CNN), existen varias barreras, la mayor de las cuales es con frecuencia la incapacidad de encontrar suficientes datos etiquetados. Por lo general, se necesitan de unos cientos de miles a varios millones de imágenes de datos etiquetadas para entrenar a una CNN. La solución emergente con implicaciones más allá del procesamiento de imágenes se llama Redes Neuronales Adversarias Generativas (GANN).
Pensamos que las CNN suelen ejecutarse en una dirección, desde la imagen hasta un clasificador que genera la respuesta. Esa respuesta es en realidad una matriz numérica y, de hecho, básicamente puede ejecutar CNN al revés, insertando una matriz numérica para que produzca una imagen.
Entonces, en las GANN, el concepto básico es tener dos CNN separadas para luchar. El primer CNN se conoce como el Discriminador. Su tarea es clasificar correctamente la imagen. El segundo y adversario CNN es el generador. Su tarea es producir imágenes que engañen al Discriminador.
- ¿Debo dejar de preocuparme por el futuro de la IA y la robótica, la adquisición y el reemplazo de trabajos?
- ¿Cuáles son las dificultades comunes para los nuevos desarrolladores en aprendizaje automático?
- Después de aprender Python, ¿cómo aprendo el aprendizaje automático / IA?
- ¿Existe un teorema en el aprendizaje automático que establezca que algunos entornos son mucho mejores para el aprendizaje que otros?
- ¿Cómo analizaría cuantitativamente el mercado de valores y las empresas individuales?
Cuando comienza el concurso, el Generador alimenta las imágenes que ha creado y, por lo tanto, son falsas para el Discriminador que ve estas imágenes junto con las imágenes verdaderas.
El Discriminador quiere ser bueno en esto y se optimiza para no dejarse engañar por el Generador. El Generador también quiere ser bueno para engañar al Discriminador y se optimiza para producir imágenes que el Discriminador no puede decir que son falsas. Finalmente, el Generador produce imágenes tan realistas que el Discriminador solo tiene una probabilidad de 50/50 de ser correcto y la optimización de GANN está completa.
El beneficio es que solo se requería una cantidad mínima de datos ‘verdaderos’ para entrenar. Esto se ha utilizado, por ejemplo, en el entrenamiento de una GANN para identificar verdaderas pinturas francesas del siglo XVIII de falsificaciones donde, por ejemplo, nunca sería posible reunir suficientes imágenes de falsificaciones para entrenar a una CNN de la manera normal. Ver más aquí:
Una cartilla en el aprendizaje automático adversario: el próximo avance en inteligencia artificial