En comparación con las otras herramientas estadísticas que ahora se denominan técnicas de aprendizaje automático, las series de tiempo son más difíciles, en general, de acertar.
Sin embargo, si usamos la definición bastante flexible de aprendizaje automático que parece ser aceptada hoy en día, los modelos de series temporales son definitivamente aprendizaje automático. Si bien a veces es difícil ver si, para un problema particular de clasificación o regresión, si estamos extrapolando o interpolando, cuando tratamos específicamente con datos de series de tiempo, sabemos que al pronosticar podemos muy bien estar extrapolando. Estamos tratando de predecir el futuro y, por lo tanto, somos conscientes de que algo puede cambiar.
La extrapolación es un juego peligroso, que, siendo entrenado estadísticamente, siempre trato de hacerlo con mucho cuidado. Sin embargo, me siento más cómodo prediciendo datos de series de tiempo donde entiendo el proceso en una tarea de clasificación grande que solo he visto brevemente. En el primero, puedo estar mucho más seguro de que no estoy extrapolando. Nunca completamente seguro, pero más aún.
- ¿Cuáles son las diferencias entre GRU y RNN estándar?
- Cómo encontrar la correlación más fuerte entre los vectores de colores a continuación en MATLAB o Python
- Si el generador y el discriminador usan SGD en Redes Adversarias Generativas, ¿por qué el entrenamiento de adversarios se llama no supervisado?
- ¿Cuál es la diferencia entre el análisis factorial y el análisis de conglomerados?
- ¿Qué nuevas empresas están buscando actualmente científicos de datos?
La extrapolación está saliendo del espacio de datos en el que el modelo o algoritmo aprendió. Si bien el futuro siempre es incierto, al comprender el proceso que genera la serie temporal, podemos ver si es probable que se mantenga así o no. Podríamos estar equivocados, por supuesto, pero con suficientes datos y pensamiento, podemos ver si es una suposición razonable. Esto es difícil de automatizar bien, y es obvio desde el principio.
He visto fallar los modelos automatizados de aprendizaje automático porque la implementación no tuvo en cuenta la posibilidad de que los datos estén muy lejos del espacio original aprendido.