Debemos tener cuidado con el término “muestra de datos”.
Por lo general, usaría “muestra de datos” para referirme a una muestra extraída del conjunto de datos. Fue creado por el mundo, no por el modelo.
Usando esa terminología, la red del generador no se asigna a “muestras de datos”.
- ¿Cómo se relaciona la RNN con el aprendizaje profundo?
- ¿Cuáles son algunos marcos de aprendizaje profundo con solo CPU?
- ¿Cómo puede un programa determinar rápidamente si un tweet es negativo o positivo?
- Cómo comenzar con el aprendizaje profundo (cosas matemáticas) en Python
- ¿Cómo ayuda el enfoque ontológico con la clasificación de texto?
Cuando usamos ruido aleatorio como entrada al generador, el objetivo es crear muestras completamente nuevas, extraídas de una distribución de probabilidad que se aproxima a la distribución de la que provienen los datos de entrenamiento.
Tiene razón en que si queremos tomar una muestra de datos y encontrar el código que la generó, necesitaríamos invertir la red del generador. En general, la red del generador puede no tener una inversa, pero podemos invertirla aproximadamente entrenando una red de inferencia. Esta fue la segunda idea para el trabajo futuro que propusimos al final del documento original de GAN (y, en realidad, queríamos incluirlo en el documento de GAN, pero no lo hicimos funcionar a tiempo para la fecha límite de presentación de NIPS). Desde entonces, Vincent Dumoulin et al y Jeff Donahue et al han publicado artículos sobre redes de inferencia de capacitación para GAN que pueden invertir aproximadamente la red del generador.