La mayoría de los enfoques de DL son discriminatorios, es decir, requieren etiquetas de clase para ayudar en la extracción de características. Para el aprendizaje no supervisado, su mejor opción son los codificadores automáticos (AE) [1], que pueden funcionar como modelos generativos para entrenar y extraer características genéricas o de alto nivel (si están apiladas). Hay varios sabores de EA como la eliminación de ruido AE, la AE apilada, la AE dispersa, etc. [2]. Puedes entrenarlos usando la máquina de Boltzman restringida [3]. Un nuevo enfoque probabilístico es utilizar AE variacional [4].
Una respuesta relacionada: la respuesta de Shehroz Khan a ¿Cuál es la mejor manera de hacer una red neuronal capaz de aprender sin supervisión, y cuáles son sus usos?
Editar:
- ¿Qué estructura de datos se usa para llenar una pila?
- ¿Qué debo hacer en mis vacaciones de verano, dado que soy estudiante de informática (1er año)?
- ¿Cuál es la diferencia entre un gráfico y un árbol en estructuras de datos y algoritmos?
- ¿Cuál es el mejor sitio en línea para aprender estructuras de datos y algoritmos?
- ¿Cómo se siente cuando te das cuenta de que no eres realmente bueno en programación y algoritmos?
Según la descripción de la pregunta y los comentarios, parece que el tamaño de los datos es muy pequeño. Por lo tanto, un enfoque plausible sería el Modelo Oculto de Markov (HMM). Sin embargo, los HMM son modelos generativos y no se utilizan para aprender características, sino que extrae características y las proporciona como entrada para los HMM.
Notas al pie
[1] Tutorial de aprendizaje de características y aprendizaje profundo sin supervisión
[2] Autoencoders denoising (dA)
[3] Comparación de rendimiento de tres tipos de redes neuronales de autoencoder
[4] [1606.05908] Tutorial sobre autoencoders variacionales