Sin más detalles sobre los datos y el ajuste del modelo, hay dos explicaciones en las que puedo pensar.
Una explicación es que los parámetros del modelo SVM no están ajustados de manera óptima, mientras que el modelo de red Bayesian está bien diseñado y bien ajustado. Como resultado, está comparando un buen modelo de Bayes Net con un modelo SVM por debajo del par.
Una segunda explicación es simplemente la naturaleza de los datos en sí. Cada técnica de modelado tiene sus fortalezas y debilidades. Por lo tanto, es posible que este conjunto de datos simplemente juegue con las fortalezas de Bayes Net y / o las debilidades de SVM. Por supuesto, hay otros conjuntos de datos donde lo contrario sería cierto.
- Cómo calcular gradientes en una red neuronal de avance utilizando matrices
- ¿Cuál es un buen tutorial sobre el uso de Weka con Big Data?
- ¿Por qué el algoritmo de agrupación k-means se considera un algoritmo de aprendizaje no supervisado? ¿Qué es "aprender"? ¿No es solo otro algoritmo codicioso?
- ¿Cuáles son algunos ejemplos de traducción horrible, realizada por máquina / software?
- Sin considerar el costo del conjunto de validación, ¿necesito muchos datos para reducir el costo del tren en la Red neuronal profunda?
Independientemente de la verdadera explicación, no leería demasiado en este resultado. Después de haber trabajado con muchos conjuntos de datos y modelos a lo largo de los años, he visto resultados mucho más extraños que los que está preguntando.