Sí, el periódico lo dice claramente. Debe 1) tener trayectorias de dimensionalidad fija, en este caso 2L (porque los valores x e y). Luego pones todos tus valores (x, y) formando un vector en el espacio R ^ 2L. Esto es enorme y el rendimiento de distancia euclidiana (o vecino cercano) se degrada en espacios de alta dimensionalidad. La solución es aplicar un razonamiento heurístico: “las dimensiones con mayor variación a lo largo de mis muestras son las dimensiones más valiosas”. Este razonamiento también tiene un punto de vista de error de representación.
Entonces usa PCA (SVD) para mantener el 95% de la energía (ese es el vector propio superior que representa los valores propios del 95%). Luego proyecta que apunta a este subespacio (N valores propios superiores) obteniendo observaciones con solo N dimensiones. En esta (mucho más baja) dimensionalidad NN y puede ser más precisa.
si trabaja en agrupación / clasificación de secuencia de longitud variable, le recomiendo el trabajo de Eamonn Keogh
Eamonn Keogh
- Además del aprendizaje profundo, ¿qué otras herramientas de extracción de funciones están funcionando o son prometedoras para el aprendizaje automático?
- ¿El libro de Neural Networks de James Freeman cubre todos los temas?
- ¿Por qué diverge un LSTM con activaciones ReLU?
- ¿Qué has aprendido haciendo investigación?
- ¿Qué debo hacer para un bot de chat con aprendizaje automático?