Ninguno que yo sepa. De hecho, para muchos clasificadores, ni siquiera tenemos la garantía de que los parámetros que obtenemos sean los parámetros reales, todo lo que sabemos es que lo más probable es que se les dé el conjunto de datos de entrenamiento y nuestra estimación. Por lo general, se aproxima a P (y / x, w) en la mayoría de las funciones de pérdida de clasificadores y no a P (w / x, y), lo que se debe hacer. Si tiene un conjunto de datos genérico, puede pensar que las cosas podrían funcionar en el mundo real, pero siempre hay “incógnitas desconocidas” como dice Nate Silver que no se pueden encontrar, incluso si pudiera encontrar P (w / x, y)
Una buena manera es tener un gran conjunto de datos y crear aleatoriamente un conjunto de prueba. Algunas personas incluso continúan con la validación cruzada doble, entrenando n diferentes modelos de algoritmos y probándolos en diferentes conjuntos de pruebas, pero eso es más o menos lo que hacen la mayoría de los científicos de datos.
- ¿Necesitamos aplicar una prueba de significación estadística en el aprendizaje automático?
- ¿Cuál es la diferencia entre TensorFlow y Grep? ¿Cuál es el más adecuado para el aprendizaje automático? ¿Por qué o por qué no?
- ¿Por qué un algoritmo evolutivo es un método inapropiado para usar cuando se busca una clave para descifrar un mensaje codificado cuando solo hay una respuesta correcta?
- ¿Cuándo necesitamos tener un mayor número de unidades ocultas que el número de unidades de entrada y viceversa?
- ¿Cuáles son los pros y los contras de estos tres modelos de secuencia: modelo MaxEnt Markov, campos aleatorios condicionales y redes neuronales recurrentes?