Aquí puede encontrar una aplicación de Autoencoder Adversarial en el campo de descubrimiento de fármacos: Redes Adversariales Generativas (GAN): Motor y Aplicaciones
–
Primero debe comenzar con la definición de Autoencoders (¿Qué son los autoencoders?).
- Teoría de la información: ¿Cuál es la relación entre la inteligencia y los algoritmos de compresión de datos?
- ¿Por qué están recibiendo tanta atención Machine Learning + Big Data?
- ¿Qué pasaría si pocos puntos de datos son comunes en los conjuntos de capacitación y validación?
- ¿Qué significa el término de procesamiento del lenguaje natural 'modelo de lenguaje' en términos simples?
- ¿La retropropagación de red neuronal de convolución utiliza un algoritmo en línea o un algoritmo por lotes?
En resumen: los codificadores automáticos son modelos que aprenden la función de identidad f ( x ) = x.
Los autoencoders adversarios fueron introducidos por A. Makhzan et al. en 2016 (casi dos años después de la introducción de Redes Adversarias Generativas por I. Goodfellow en 2014)
Si está familiarizado con GAN y Autoencoders, entonces debe comprender este esquema:
La idea clave es hacer coincidir la distribución posterior agregada q (z) con una distribución previa arbitraria p (z).
“Hacer coincidir la parte posterior agregada con la anterior asegura que generar desde cualquier parte del espacio anterior dé como resultado muestras significativas. Como resultado, el decodificador del autoencoder adversario aprende un modelo generativo profundo que mapea lo impuesto antes de la distribución de datos . ”
Hay dos fases de entrenamiento:
1. Reconstrucción:
- Autoencoder actualiza el codificador y el decodificador para minimizar el error de reconstrucción (aprende a reconstruir mejor f ( x ) = x ).
2. Regularización:
- La red de adversarios actualiza Discriminator para distinguir las muestras generadas usando el código anterior y las muestras de los códigos ocultos ( Discriminator aprende a ser más cautivo y no engañarse por Generator );
- La red adversaria actualiza Generator ( Encoder ) para confundir mejor al Discriminador ( Generator aprende a ser más realista para engañar mejor al Discriminador ).
Implementación de AAE -> musyoku / adversarial-autoencoder