Sí, pero NB no modela la probabilidad condicional directamente. Modela la probabilidad conjunta y luego calcula p (y | x).
Tenemos curiosidad acerca de la p (y | x ) donde y puede tomar, digamos si un correo electrónico es spam o no, el vector x denota las palabras en un documento específico. De la fórmula de Bayes, p (y | x ) = p (x | y) p (y) / p (x). Entonces, si tiene todas esas cosas en la mano, puede generar los datos . Aquí está la historia generativa de este modelo: Primero seleccionamos ay, que indica que nuestra generación de correo electrónico es si es spam o no. Teniendo en cuenta el valor de y, generamos palabras según la distribución condicional p (x | y). Supongamos que generamos un par de palabras. ¿Cuándo nos detenemos? Cada vez que x palabra que generamos es igual a STOP_EMAIL , terminamos de elegir la palabra para ese correo electrónico. Como resultado, podemos generar un correo electrónico.
- Durante el aprendizaje automático para la detección de objetos, ¿cómo puedo simular el efecto de la iluminación de diferentes días en mi conjunto de datos de entrenamiento?
- ¿Cuáles son las debilidades del algoritmo estándar k-means (también conocido como algoritmo de Lloyd)?
- ¿Cómo se pueden usar los modelos ocultos de Markov para reconocer la escritura cursiva?
- ¿Qué significa 'Bagging reduce la varianza mientras se conserva el sesgo'?
- ¿Qué tan bueno es UMass Amherst para CS, especialmente para el aprendizaje automático y la minería de texto?