Este era un tema que me interesaba hace algún tiempo, mientras hacía investigación de ML en la academia (abandoné un programa de doctorado de CS a principios de este año). Después de hablar con personas de la industria de investigación financiera, aprendí que la mayoría de las técnicas en realidad son solo variantes de regresión lineal. Aunque se han intentado varios enfoques novedosos, frustrantemente, no lo hacen mucho mejor que la regresión lineal normal.
Esto me llevó a creer que, en lugar de probar más métodos para analizar los datos de series temporales, podría ser más efectivo intentar combinar las otras fuentes de datos a las que podemos tener acceso. Por ejemplo, se ha realizado una investigación por separado sobre la utilización de métodos de PNL para extraer datos financieros de textos como las noticias de última hora, con el fin de predecir el efecto sobre los movimientos de precios. Un buen ejemplo de esto es AzFinText (http://en.wikipedia.org/wiki/AZF…).
Puede que le resulte mejor tratar de encontrar un método que combine de manera efectiva tales fuentes de datos múltiples y heterogéneas en lugar de buscar un método perfecto para cualquier fuente de datos.
- ¿De qué manera es una 'Máquina de Turing Neural Lie Access' superior a las NTM normales?
- ¿Cuáles son los conjuntos de datos canónicos de aprendizaje automático utilizados como punto de referencia para demostrar un nuevo método?
- Dadas las variables / parámetros continuos, ¿cuál es la diferencia entre el aprendizaje automático y la interpolación?
- Cómo usar big integer en C ++
- ¿Cómo es un proyecto de visión por computadora "típico", de principio a fin?
Tuve un artículo sobre tal intento, aunque aplicado a datos genéticos, en NIPS el año pasado:
http://www.umiacs.umd.edu/~hal/d…