Creo que esta pregunta implica una pequeña confusión sobre lo que es el aprendizaje no supervisado y su relación con la optimización. El descenso de gradiente estocástico (SGD) es un método para minimizar una función sobre algunos parámetros. Puede usar SGD para optimizar cualquier función de pérdida, siempre y cuando sea diferenciable con esos parámetros; al optimizador no le importa si la función de pérdida está supervisada o no.
Las GAN no están supervisadas porque pueden aprender y aprenden de los datos no etiquetados. Por ejemplo, las alimenta sin etiquetar y el generador (con la ayuda del discriminador) aprende una distribución generativa de ellas. Las “etiquetas” que se utilizan son internas: el procedimiento de capacitación sabe qué imágenes fueron generadas por el discriminador / datos y utiliza esa información para capacitar a las redes. Sin embargo, estas no son etiquetas verdaderas en el sentido de que no nos importan. Nuestro objetivo no es entrenar un modelo para distinguir entre imágenes reales y sintetizadas, sino entrenar un modelo para generar imágenes. Las etiquetas verdaderas (por ejemplo, esta imagen es un perro, este es un gato, etc.) no son necesarias para este método, lo que lo convierte en un procedimiento de entrenamiento no supervisado. El uso de un optimizador es irrelevante.
- En una red neuronal, ¿cómo podemos resolver (o limitar) el problema de la saturación de las neuronas?
- ¿Cómo debo abordar mi tesis sobre 'conversión de lenguaje de señas a texto'? ¿Cuál debería ser el método?
- ¿Cuál es una buena manera de aprender aprendizaje profundo para que un estudiante graduado se una a un grupo de aprendizaje profundo de buena reputación?
- ¿R necesita una herramienta de flujo de trabajo visual como RapidMiner y Knime?
- ¿Cuáles son las principales diferencias entre la regresión logística, la red neuronal y las SVM?