Parece que estás hablando de un autoencoder. Básicamente, estos logran una reducción de dimensionalidad no lineal al entrenar a la red para reconstruir sus propias entradas en la capa de salida. La idea básica es tener una capa oculta con una cantidad de unidades ‘n’ menor que la cantidad de características de entrada ‘N’, seguida de una capa de salida con unidades ‘N’. La red se entrena utilizando, por ejemplo, el error cuadrático medio hasta que la pérdida, que es el error de reconstrucción promedio, deja de mejorar. Para acceder a la representación reducida de los datos, simplemente corte la capa de salida de la red para acceder a la capa oculta.
Hay otras variaciones en esto, por ejemplo, autoencoder denoising que elimina la restricción de que el tamaño de la capa oculta es menor que el número de entradas, pero lo anterior es la idea básica. Si desea más información, eche un vistazo a “creación de codificadores automáticos en keras” y “una perspectiva múltiple sobre codificadores automáticos”.
- ¿Cómo se comparan las bibliotecas de aprendizaje automático de C ++ con las disponibles en Python?
- En las arquitecturas VGG-16 y VGG-19, ¿por qué hay más capas convolucionales 3 × 3 apiladas consecutivamente en las capas altas que en las capas inferiores?
- Quiero extraer acciones del texto y la entidad que actuó y sobre la que se actúa. Cómo proceder ?
- ¿Puede el aprendizaje automático realizar un análisis de sentimientos de una palabra clave dada de una conversación?
- ¿Hay alguna manera de determinar o reducir las opciones con las que uno debería experimentar para mejorar (por ejemplo) una red neuronal clasificadora de imágenes binarias?