El aprendizaje de representación básicamente se reduce a:
“¿Qué características / propiedades útiles puedo extraer / calcular de mis datos de entrada para representar ciertos aspectos en un espacio dimensional inferior?”
Tenga en cuenta que esto se puede hacer de forma supervisada (proporcionando etiquetas de destino), pero igual de bien sin supervisión (utilizando, por ejemplo, autoencoders).
- ¿Cuáles son algunas características comunes utilizadas en la clasificación basada en audio?
- ¿Hay trabajos de investigación que utilicen el aprendizaje profundo para tomar decisiones clínicas?
- ¿Qué son las redes neuronales convolucionales?
- ¿Cuál es la diferencia entre validación y validación cruzada?
- ¿Cuáles son las diferencias entre los modelos pre-entrenados y entrenados?
Un buen ejemplo sería una red que toma imágenes de los rostros de las personas como entradas y aprende a discernir diferentes estados de expresión emocional como “sonreír”, “enojar”, “guiñar un ojo” … Aquí, las imágenes de entrada son de alta dimensión y aprendidas Las representaciones emocionales son vectores de estado de baja dimensión.
Ahora, para vincular esto con los modelos generativos, piense en lo que haría si le pidiera que “dibujara una imagen de una mujer sonriente”. En primer lugar, sabes cómo se supone que debe verse una mujer promedio, y además tienes una representación mental de lo que significa estar ‘sonriendo’. Luego puede combinar ambas representaciones internas para dibujar una imagen de una mujer sonriente específica, basada en su imaginación (y sus habilidades de dibujo, por supuesto).
En esencia, el aprendizaje de representación y los modelos generativos están tan estrechamente relacionados porque realizan tareas opuestas. Para poner esto en términos prácticos de aprendizaje profundo, esto significa que si primero entrena, digamos una red convolucional profunda para aprender representaciones de imágenes de entrada, en principio podría usar esa misma red para generar datos similares (usando desconvoluciones).
Si tiene una red tan capacitada, puede alterar manualmente la representación y ver el efecto que tiene en la imagen generada para tener una idea de qué representaciones ha aprendido su red.
Para una muy buena introducción a las redes generativas, recomendaría la publicación de OpenAI. Para ver un ejemplo específico sobre el uso del aprendizaje de representación en combinación con un modelo generativo en imágenes faciales, consulte este documento.
Espero que esto ayude 🙂