El principal problema parece ser obtener datos para probar su modelo. La mayoría de las técnicas de aprendizaje automático implican principalmente estrategias de arbitraje estadístico, es decir, estrategias comerciales de alta frecuencia. Las estrategias comerciales de baja frecuencia no se prestan a un enfoque de “big data”. Digamos que desea trabajar con datos comerciales de alta frecuencia. Personalmente, conozco a un profesor en una de las 10 instituciones principales para FE que está estudiando HFT. Tiene terabytes de datos que le proporciona NASDAQ todas las semanas. El problema es que su acceso acaba de ser suspendido porque varias firmas financieras han demandado a NASDAQ argumentando que tal colaboración viola su anonimato. Otro profesor que conozco ha estado tratando de convencer a los principales fondos de cobertura para que les brinden datos durante casi una década sin suerte. Otro acaba de tener acceso a algunos datos de Bloomberg HF patentados, pero está muy restringido en lo que realmente puede publicar.
Básicamente, si desea hacer finanzas de estilo de aprendizaje automático, solicite un trabajo en Renaissance. La verdadera investigación académica en el campo está estancada por falta de datos. Estoy seguro de que se han publicado bastantes artículos de estilo teórico, pero nadie sabe qué funciona empíricamente, excepto unos pocos fondos de cobertura.
- En la clasificación binaria, ¿es una buena práctica siempre sobre / submuestrear su conjunto de datos para tener un número idéntico de muestras de las dos clases?
- ¿Cuáles son algunos proyectos geniales de aprendizaje automático que ha creado?
- Si el error de una red neuronal obtiene un buen rendimiento, pero si el entrenamiento aumenta por más tiempo, ¿cuál podría ser el problema con el entrenamiento?
- ¿Cuántas imágenes se requieren para las redes adversas generativas (GAN)?
- ¿Cómo se puede aplicar el aprendizaje automático al póker?