Una razón por la que creo que el rendimiento puede ser bajo es porque las características que discretizabas no están lo suficientemente extendidas. Para tomar un ejemplo extremo, si una característica en particular siempre estuvo entre 0 y 1, excepto en un caso, se disparó hasta 1000, y luego trató de agrupar esta característica en contenedores de tamaño 10, entonces perderá mucha información. Si esto sucede, entonces quizás una forma de discretizar sería ejecutar algo como kmeans para agrupar los valores de las características. En el ejemplo que acabo de dar, k significa con, por ejemplo, 5 grupos probablemente dividiría el intervalo 0 a 1 en 4 grupos pequeños, y dejaría un grupo en 1000.
Otra alternativa es hacer lo que se llama cuantización suave: en lugar de solo codificar el bin en el que cae una entidad determinada, puede codificar la distancia del valor de la entidad desde cada centro de bin.
Una cosa más simple para intentar es reducir o aumentar el número de contenedores, solo para asegurarse de que no esté demasiado o mal ajustado.
- ¿Qué método de aprendizaje automático es adecuado para aprender una estrategia comercial no explícita?
- ¿Debo aprender primero el aprendizaje profundo o de refuerzo? ¿Hay un orden natural? ¿Debería hacerse al mismo tiempo?
- Cómo desarrollar una recuperación de imagen basada en contenido
- Computación paralela: ¿Cuáles son los buenos enfoques y fuentes para programar CUDA en Machine Learning con datos a gran escala?
- ¿Cuáles son algunas buenas escuelas de investigación (PhD) para Inteligencia Artificial General (no Machine Learning)?