¿Cuáles son las relaciones entre el aprendizaje de representación y los modelos generativos en el campo de aprendizaje profundo?

El aprendizaje de representación básicamente se reduce a:

“¿Qué características / propiedades útiles puedo extraer / calcular de mis datos de entrada para representar ciertos aspectos en un espacio dimensional inferior?”

Tenga en cuenta que esto se puede hacer de forma supervisada (proporcionando etiquetas de destino), pero igual de bien sin supervisión (utilizando, por ejemplo, autoencoders).

Un buen ejemplo sería una red que toma imágenes de los rostros de las personas como entradas y aprende a discernir diferentes estados de expresión emocional como “sonreír”, “enojar”, “guiñar un ojo” … Aquí, las imágenes de entrada son de alta dimensión y aprendidas Las representaciones emocionales son vectores de estado de baja dimensión.

Ahora, para vincular esto con los modelos generativos, piense en lo que haría si le pidiera que “dibujara una imagen de una mujer sonriente”. En primer lugar, sabes cómo se supone que debe verse una mujer promedio, y además tienes una representación mental de lo que significa estar ‘sonriendo’. Luego puede combinar ambas representaciones internas para dibujar una imagen de una mujer sonriente específica, basada en su imaginación (y sus habilidades de dibujo, por supuesto).

En esencia, el aprendizaje de representación y los modelos generativos están tan estrechamente relacionados porque realizan tareas opuestas. Para poner esto en términos prácticos de aprendizaje profundo, esto significa que si primero entrena, digamos una red convolucional profunda para aprender representaciones de imágenes de entrada, en principio podría usar esa misma red para generar datos similares (usando desconvoluciones).

Si tiene una red tan capacitada, puede alterar manualmente la representación y ver el efecto que tiene en la imagen generada para tener una idea de qué representaciones ha aprendido su red.

Para una muy buena introducción a las redes generativas, recomendaría la publicación de OpenAI. Para ver un ejemplo específico sobre el uso del aprendizaje de representación en combinación con un modelo generativo en imágenes faciales, consulte este documento.

Espero que esto ayude 🙂

More Interesting

Quiero construir una copia casi perfecta de Eva de ex machina, entonces, ¿qué curso o área de informática necesito aprender profundamente?

¿Cuáles son algunos trabajos de investigación que puedo publicar en el campo del procesamiento / generación de lenguaje natural, aprendizaje automático y minería de datos?

¿Auto-sklearn es realmente mejor que un clasificador único optimizado por hiperparámetro? ¿Tienes experiencia con esto?

¿Qué tipos de algoritmos de aprendizaje automático se utilizan para resolver algunos problemas populares del mundo real?

¿Cómo puedo entrenar a un clasificador de imágenes para detectar mi propia cara de un conjunto de datos de 16,000 imágenes?

Cómo aprender un pozo bayesiano no paramétrico

¿Cómo se conecta la regresión lineal a los filtros de Kalman?

Aprendizaje automático: ¿cuáles son las ventajas de SVM sobre las redes neuronales y k- vecinos más cercanos?

¿Puedo usar el algoritmo de aprendizaje automático en mi proyecto de investigación aunque no soy un experto en él?

¿Qué es el "aprendizaje de refuerzo de múltiples agentes"?

¿Qué cantidad de sistemas de recomendación se trata solo de usar el algoritmo correcto?

¿Cuáles son los temas que debo saber antes de comenzar el aprendizaje automático?

¿Qué te sorprendió después de ver algo relacionado con el aprendizaje automático, la IA, la PNL o la visión por computadora?

¿Cuál es una pista adecuada para la clasificación de documentos con MATLAB?

¿Cuáles son las mejores bibliotecas de redes neuronales de Python y Java con soporte multi gpu y multiplataforma?