Aquí hay algunos enfoques diferentes posibles, y mucho depende del tipo de modelo oculto de Markov que esté tratando de entrenar, por ejemplo, si se trata de un modelo oculto de Markov de izquierda a derecha, un modelo ergódico completo o algún otro tipo.
Entonces, hay algunos enfoques diferentes:
- Solo hazlo al azar. Este es un buen punto de partida; y te sorprenderías con qué frecuencia los mínimos locales no son lo suficientemente buenos.
- Reinicios aleatorios. Entrene un modelo oculto de Markov con diferentes valores aleatorios 50 o 100 veces, y vea (a) cuál funciona mejor (b) si hay una gran diferencia en el rendimiento entre el mejor y el peor de estos.
- Opciones específicas del dominio: puede haber una forma muy natural de asignar estados iniciales dependiendo de, por ejemplo, si es un HMM de izquierda a derecha, y está tratando de aprender el habla de los MFCC, y tiene 5 estados y un secuencia de 40 valores; entonces comenzaría asignando secuencialmente 8 valores a cada estado, establecería la probabilidad de transiciones en 0.8 ^ 8 = 0.17 y asignaría los gaussianos por estado en función de las emisiones que vio. Otros dominios tendrán otras opciones obvias; Por ejemplo, un previo sobre la distribución de todas las emisiones, etc.
- ¿Cómo podría agrupar usuarios similares en el conjunto de datos MovieLens?
- ¿En qué se diferencia PyTorch de TensorFlow? ¿Cuáles son las ventajas de usar uno versus el otro? ¿Cuándo debo usar uno u otro?
- Aprendizaje profundo: ¿Una versión suave de unidades lineales rectificadas funciona mejor o peor que una no lineal?
- ¿Cuál es la mejor clase de Machine Learning en Penn?
- ¿Cuál es el algoritmo utilizado para mantener los drones equilibrados en el aire, a pesar de los golpes externos, como la ráfaga de viento?