¿Cuál es la diferencia clave entre un autoencoder variacional y una red adversa generativa, y cuándo debo usar cada modelo?

Gracias por A2A.

¿Busca diferencias clave? , Diría 2 de ellos

  1. A diferencia de la Red Adversaria Generativa (GAN), los Codificadores Automáticos Variacionales (VAE) son comparables en el sentido de que puede evaluar fácilmente entre dos VAE observando la función de pérdida o los límites inferiores que alcanzan. Actualmente, esto no se puede hacer para las GAN .
  2. Pero el problema con los VAE es que simplifican demasiado la tarea objetiva, ya que están obligados a trabajar en un espacio latente.

Un ejemplo simple de la diferencia anterior sería que las GAN generarían una imagen más precisa y precisa que VAE , pero la salida de un VAE es muy esperada de antemano, lo que no es el caso con las GAN .

¿Responde a su segunda pregunta sobre cuándo usar cualquiera de ellos?

Hasta donde yo sé, son más como un equipo que trabajando solos combinando un VAE con pérdida no supervisada y una GAN con pérdida supervisada siempre funcionará mejor que ambos trabajando solos.

Visite los enlaces para obtener información más precisa sobre lo que está buscando.

¿Cuáles son los pros y los contras de las redes adversas generativas frente a los autoencoders variacionales?

¿Pueden los autoencoders variacionales (VAE) vencer a las redes adversas generativas (GAN) en la generación de imágenes o al realizar otras tareas en una imagen?

GAN: una red neuronal, llamada generador , genera nuevas instancias de datos, mientras que la otra, el discriminador , las evalúa para verificar su autenticidad; es decir, el discriminador decide si cada instancia de datos que revisa pertenece o no al conjunto de datos de capacitación real.

Digamos que estamos tratando de hacer algo más banal que imitar a la Mona Lisa. Vamos a generar números escritos a mano como los que se encuentran en el conjunto de datos MNIST, que se toma del mundo real. El objetivo del discriminador, cuando se muestra una instancia del verdadero conjunto de datos MNIST, es reconocerlos como auténticos.

Mientras tanto, el generador está creando nuevas imágenes que pasa al discriminador. Lo hace con la esperanza de que ellos también sean considerados auténticos, aunque sean falsos. El objetivo del generador es generar dígitos pasables escritos a mano, para mentir sin ser atrapado. El objetivo del discriminador es identificar las imágenes que provienen del generador como falsas.

Estos son los pasos que toma una GAN:

  • El generador toma números aleatorios y devuelve una imagen.
  • Esta imagen generada se alimenta al discriminador junto con una secuencia de imágenes tomadas del conjunto de datos real.
  • El discriminador toma imágenes reales y falsas y devuelve probabilidades, un número entre 0 y 1, donde 1 representa una predicción de autenticidad y 0 representa falso.

Entonces tienes un doble circuito de retroalimentación:

  • El discriminador está en un bucle de retroalimentación con la verdad básica de las imágenes, que sabemos.
  • El generador está en un circuito de retroalimentación con el discriminador.

More Interesting

¿Cuáles son las mejores técnicas para crear vectores de oraciones para el procesamiento del lenguaje natural?

¿Cómo funciona el soporte de regresión vectorial?

¿Podemos usar GridSearchCV () en CountVectorizer () cuando usamos modelos scikit-learn en datos de texto, o la búsqueda en cuadrícula solo se puede ejecutar en los modelos predictivos?

¿Cuáles son los mejores métodos de detección de anomalías para imágenes?

¿Cuál es el mejor blog / sitio para mantenerse actualizado sobre las últimas tecnologías y herramientas de big data, aprendizaje automático?

¿Cuáles son algunos excelentes boletines semanales de Data Science?

¿Cuál es la diferencia entre derivada de una función o pendiente de gradiente?

¿Por qué tenemos que convertir el valor categórico en factor (en R) o variables ficticias antes de aplicar algoritmos de aprendizaje automático (especialmente regresión lineal)? ¿Afecta nuestros resultados?

¿Cuál es la diferencia entre el clasificador Naive Bayes y la máquina Bayes Point?

¿Cuáles son los temas sobre big data para hacer una tesis de maestría que excluye el aprendizaje automático?

¿Cuál es el peor caso de sobreajuste que hayas visto en entornos sociales o psicológicos?

¿Es legal el raspado web para hacer aprendizaje automático?

¿Qué es una explicación intuitiva de la iteración de valores en el aprendizaje por refuerzo (RL)?

Si uno está tratando de construir un codificador automático para el conjunto de datos MNIST, ¿debería normalizar los datos sin procesar?

¿Cuáles son las herramientas basadas en redes neuronales disponibles ahora para el consumidor?