¿Qué es la pérdida de confrontación en el aprendizaje automático?

La pérdida utilizada en las GAN se llama Pérdida Adversarial. Es básicamente de la forma de

(Imagen descarada captura de pantalla de algún documento GAN con licencia CC). Mientras que una red neuronal discriminadora intenta diferenciar entre muestras reales y las generadas por la red generadora, y la red generadora intenta engañar al discriminador.

Entonces, ¿dónde es esto útil?

Por supuesto, puede generar imágenes fotorrealistas y otras muestras en un marco generador-discriminador como el de DCGAN, BEGAN, CYCLEGAN, DISCOGAN, LSGAN, WGAN y otras arquitecturas (todas las cuales son pérdidas ligeramente modificadas en comparación con la pérdida de confrontación original). Pero supongo que la pregunta es más sobre dónde más se puede usar.

Un artículo publicado en 2014 por Ajakan et al utilizó esta pérdida para la adaptación no supervisada de modelos de dominio y, por lo tanto, sus usos en el aprendizaje de transferencia y el aprendizaje multitarea se originan. Allí, si el discriminador no puede diferenciar entre datos de diferentes dominios, reconocerá las características independientes del dominio que pueden hacer que las redes sean independientes del dominio. También se pueden usar trucos similares en los problemas clásicos de supervisión.