Si el generador y el discriminador usan SGD en Redes Adversarias Generativas, ¿por qué el entrenamiento de adversarios se llama no supervisado?

Creo que esta pregunta implica una pequeña confusión sobre lo que es el aprendizaje no supervisado y su relación con la optimización. El descenso de gradiente estocástico (SGD) es un método para minimizar una función sobre algunos parámetros. Puede usar SGD para optimizar cualquier función de pérdida, siempre y cuando sea diferenciable con esos parámetros; al optimizador no le importa si la función de pérdida está supervisada o no.

Las GAN no están supervisadas porque pueden aprender y aprenden de los datos no etiquetados. Por ejemplo, las alimenta sin etiquetar y el generador (con la ayuda del discriminador) aprende una distribución generativa de ellas. Las “etiquetas” que se utilizan son internas: el procedimiento de capacitación sabe qué imágenes fueron generadas por el discriminador / datos y utiliza esa información para capacitar a las redes. Sin embargo, estas no son etiquetas verdaderas en el sentido de que no nos importan. Nuestro objetivo no es entrenar un modelo para distinguir entre imágenes reales y sintetizadas, sino entrenar un modelo para generar imágenes. Las etiquetas verdaderas (por ejemplo, esta imagen es un perro, este es un gato, etc.) no son necesarias para este método, lo que lo convierte en un procedimiento de entrenamiento no supervisado. El uso de un optimizador es irrelevante.