Sí, es verdad. Y es por eso que funcionan tan bien.
Al entrenar un modelo generativo que no sea una GAN, la función de pérdida más fácil de encontrar es probablemente el error cuadrático medio (MSE).
Ahora suponga que desea generar gatos; Puede dar a su modelo ejemplos de gatos específicos en fotos. Su elección de la función de pérdida significa que su modelo tiene que reproducir cada gato exactamente para evitar ser castigado.
- He estado aprendiendo la red neuronal de retroalimentación y la propagación hacia atrás durante 3 meses y todavía no puedo entenderlo, ¿qué debo hacer?
- ¿Por qué es tan lento TensorFlow?
- ¿Por qué no es una práctica estándar publicar pesos de modelos entrenados junto con el código fuente para trabajos de investigación de aprendizaje profundo?
- ¿Es útil R para aprender a investigar en planificación urbana, economía y diseño?
- ¿Puedo usar TensorFlow sin tener experiencia con el aprendizaje automático?
Pero eso no es lo que quieres, ¿verdad? Solo desea que su modelo genere gatos, cualquier gato lo hará siempre que sea un gato plausible. Por lo tanto, debe cambiar su función de pérdida.
Pero, ¿qué tipo de función podría ignorar píxeles concretos y centrarse en detectar gatos en una foto?
Lo has adivinado: una red neuronal. Este es el papel del discriminador en la GAN. El trabajo del discriminador es evaluar cuán plausible es una imagen; Esto lo convierte en una función de pérdida perfecta para un modelo generativo.
Con una pérdida como MSE, los gatos generados de su modelo serán el promedio en píxeles de varios gatos, lo que no se parece a nada. Esto se debe a que el promedio de múltiples gatos es castigado con menos severidad por MSE que una imagen del gato equivocado .
Con un discriminador entrenado como función de pérdida, su modelo puede generar cualquier gato con aspecto de gato y ser alabado por la función de pérdida.
Genio, ¿verdad?