Diferentes algoritmos de aprendizaje tienen diferentes supuestos sobre los datos. Para algunos de los problemas, estas suposiciones resultan ser (en su mayoría) correctas y en esos problemas el algoritmo funciona bien, que algunos otros algoritmos que hacen suposiciones incorrectas.
Naive Bayes, por ejemplo, supone que sus características son completamente independientes (no correlacionadas). Esta suposición ingenua a menudo no es precisa, por eso Naive Bayes se desempeña mal (incluida la clasificación de texto donde creo que las redes neuronales logran resultados de vanguardia).
Los CRF no tienen el supuesto de independencia que tiene Naive Bayes y, por esa razón, funcionan mucho mejor en casi todas las circunstancias. Sin embargo, los CRF estándar todavía tienen la suposición de que es suficiente combinar características en un modelo lineal.
- ¿Cómo define el aprendizaje automático para un niño de seis años?
- Cómo crear un bot que responda preguntas del mundo real
- ¿Qué impacto tendrá la reciente adquisición de Genee por parte de Microsoft en las empresas competidoras de programación de reuniones como x.ai, Clara Labs, Julie Desk y Skedool?
- ¿Cuáles son las mejores revistas en computación evolutiva?
- ¿Dónde aplicas la IA?
Los SVM no tienen esta suposición de linealidad gracias a los núcleos, pero renuncian a la interpretación probabilística que tienen los CRF y suponen que un núcleo (lo que elija el usuario) es suficiente.
No existe un algoritmo de aprendizaje perfecto. El algoritmo que funcionará mejor realmente depende de la tarea, los datos y si el algoritmo de aprendizaje tiene el sesgo inductivo apropiado para el problema.