No hay una respuesta definitiva a esta pregunta. También es posible que la precisión máxima alcanzable en el conjunto de datos sea de alrededor del 60%.
Sin embargo, puede verificar las siguientes cosas:
1) ¿Ha normalizado los datos (es decir, la media cero y la desviación estándar son una para cada característica)?
- ¿Qué es el filtrado colaborativo en términos simples?
- ¿Cuál es la mejor manera de crear un conjunto de redes neuronales?
- ¿Cuál es la forma correcta de encapsular la creación y capacitación del modelo Tensorflow en una clase?
- ¿Cuáles son las sinergias entre los estudios en Operaciones y Gestión de la Información y Ciencias de la Computación?
- Cómo configurar una instancia de AWS GPU para aprender el aprendizaje automático
2) ¿Está introduciendo los datos correctamente? Por ejemplo, LibSVM espera que las clases sean +1 y -1; si alimenta las clases como 0 y 1 (que es el valor predeterminado en algunos conjuntos de datos), no obtendrá resultados significativos.
3) ¿Ajustó los parámetros correctamente? Para SVM, ¿qué núcleo usaste? ¿Probó un buen rango de valores del parámetro C?
Puede probar otros algoritmos, como el árbol de decisión, que son más interpretables y le permiten ajustar la complejidad del clasificador variando la profundidad del árbol.