En un nivel alto, lo describiría como modelos generativos versus modelos discriminativos.
– Los clasificadores generativos aprenden un modelo de probabilidades conjuntas p (x, y) y usan la regla de Bayes para calcular p (x | y) para hacer una predicción
– Los modelos discriminativos aprenden la probabilidad posterior p (x | y) “directamente”
Puede pensar en modelos discriminatorios como “distinguir entre personas que hablan idiomas diferentes sin aprender realmente el idioma”.
- ¿Qué es la precisión en el aprendizaje automático?
- ¿Cuáles son algunos algoritmos de aprendizaje automático que puedo aprender sin cálculo?
- ¿Qué tan difícil es aprender TensorFlow?
- ¿Qué es el LSTM?
- Cómo leer esta arquitectura de red neuronal convolucional
En los modelos discriminativos, tiene “menos supuestos”, por ejemplo: en Bayes ingenuo y clasificación, usted asume que su p (x | y) sigue (típicamente) una distribución gaussiana, bernoulli o multinomial, e incluso viola la suposición de independencia condicional de las características. A favor de los modelos discriminativos, Vapnik escribió una vez “uno debe resolver el problema de clasificación directamente y nunca resolver un problema más general como un paso intermedio”.
(Vapnik, Vladimir Naumovich y Vlamimir Vapnik. Teoría del aprendizaje estadístico . Vol. 1. Nueva York: Wiley, 1998.)
Creo que realmente depende de su problema, sin embargo, qué método prefiere. No puedo encontrar una referencia ahora, pero, por ejemplo, en la clasificación, Bayes ingenuo converge más rápido, pero generalmente tiene un error mayor que la regresión logística. En pequeños conjuntos de datos, es posible que desee probar Bayes ingenuos, pero a medida que crece el tamaño de su conjunto de entrenamiento, es probable que obtenga mejores resultados con la regresión logística.