Supongo que está hablando de un modelo que realiza algún tipo de inferencia bayesiana. Como dice Jeremy Arnold, dada la información suficiente, una actualización anterior eventualmente anula en la posterior. Sin embargo, puede llevar tiempo, si su prior es terriblemente malo.
Si tiene muchos datos, y son buenos datos, es decir, no sesgados (abarca el espacio del problema), entonces no debería preocuparse demasiado. En ese caso, si no está seguro de la validez del prior, puede tener más sentido elegir un prior no informativo y dejar que los datos hablen por sí mismos. En ese caso, no proporcionará una ventaja inicial a su algoritmo, pero tampoco lo iniciará lejos del camino verdadero y dificultará la convergencia (lo que sucedería si su anterior estuviera totalmente equivocado).
Entonces sí, dado el tiempo y los datos suficientes, el éxito es casi inevitable :-). El punto es cuánto estás dispuesto a esperar.
- ¿Cuáles son las áreas básicas de conocimiento matemático y estadístico con las que un científico debería sentirse muy cómodo y cómo las aprende?
- Comparta materiales gratuitos interesantes sobre ciencias de datos / Big Data / Machine Learning aquí?
- ¿Es bueno aprender análisis de datos siendo un desarrollador de Java?
- ¿Cuál es el mejor instituto para aprender el programa del aula del curso de análisis de big data en Bangalore?
- ¿Qué es anaconda?