Sí, comparar las probabilidades marginales es un enfoque basado en principios para decidir el mejor núcleo. Como señala Laurent, la validación cruzada es otra opción.
Me gustaría citar un párrafo de Procesos gaussianos para el aprendizaje automático , por Rasmussen & Williams, aquí:
Al comparar la pseudo-probabilidad de la metodología de validación LOO-Cross con la probabilidad marginal de la sección anterior, es interesante preguntar bajo qué circunstancias podría ser preferible cada método. … Sin embargo, es interesante notar que la probabilidad marginal nos dice la probabilidad de las observaciones dadas las suposiciones del modelo . Esto contrasta con el valor frecuente de LOO-CV que proporciona una estimación de la probabilidad predictiva (log), de si se pueden cumplir o no los supuestos del modelo. Así Wahba [1990, sec. 4.8] ha argumentado que los procedimientos de CV deberían ser más sólidos frente a la especificación errónea del modelo.
- ¿De qué sirven los algoritmos de aprendizaje si no podemos pensar por nuestra cuenta?
- ¿Por qué necesitamos Python y Java para el aprendizaje automático mientras tenemos R?
- ¿Dónde funcionará bien el aprendizaje automático como servicio? ¿Dónde no lo hará?
- ¿Existe algún conjunto de datos disponible públicamente para la clasificación étnica / nacionalidad de los nombres humanos?
- Cómo entrenar un modelo de Keras con un gran conjunto de datos y luego ajustarlo con un conjunto de datos más pequeño de interés