Yo diría que las respuestas a esas preguntas son afirmativas.
La razón por la que no necesitamos volver a entrenar ejemplos ya entrenados cuando agregamos una nueva clase es porque asumimos que esas clases ya entrenadas son independientes de la nueva clase. Tome el clasificador ingenuo de Bayes como ejemplo.
P (x, y) = p (y) p (x | y).
- ¿Cuál es el mejor software para Machine Learning y Deep Learning, de acuerdo con el tamaño del conjunto de datos y el sistema?
- ¿Qué algoritmo sería bueno para asignar una probabilidad a la coincidencia de dos nombres (John Doe = Mr. Jonathan M Doe II)?
- ¿Cómo funciona el algoritmo de fijación de precios de Uber?
- ¿Cuál es la diferencia entre una inferencia y una predicción?
- ¿Se puede solicitar un doctorado en aprendizaje automático sin conocimientos y habilidades de CompSci? ¿Se puede aprender en el trabajo?
La parte generativa p (x | y) es independiente entre cada y. Por ejemplo, podemos suponer que la probabilidad de tener la palabra “dinero” en un correo electrónico no deseado es independiente de la probabilidad de tener “dinero” en un correo no deseado.
Por lo tanto, entrenamos los parámetros para cada modelo generativo de forma independiente, por lo que no tenemos que volver a entrenar las clases cuando entran nuevas clases. PERO, tenga cuidado, si los nuevos aportes tienen ejemplos de clases que ya están entrenadas, entonces, necesitamos volver a entrenar para esas clases.