¿Qué significa una garantía teórica en el aprendizaje automático?

El aprendizaje automático sigue a la inducción para crear un modelo. Sin embargo, en el aprendizaje automático solo tenemos garantías sobre los resultados de la inducción, especialmente si estamos dispuestos a conformarnos con garantías probabilísticas (a diferencia de la deducción en la que obtiene una garantía del 100%).

Un tipo común de garantía teórica es el asintótico, lo que significa que, dado el número infinito de datos, se garantiza que el alumno emite el clasificador correcto. Esto es tranquilizador, pero sería imprudente elegir un alumno sobre otro debido a sus garantías asintóticas. En la práctica, rara vez estamos en el régimen asintótico (también conocido como “asintopía”). Y, debido a la compensación del sesgo-varianza, si el alumno A es mejor que el alumno B con datos infinitos, B suele ser mejor que A con datos finitos.

El papel principal de las garantías teóricas en el aprendizaje automático no es como criterio para decisiones prácticas, sino como fuente de comprensión y fuerza impulsora para el diseño de algoritmos. En esta capacidad, son bastante útiles; de hecho, la estrecha interacción de la teoría y la práctica es una de las principales razones por las que el aprendizaje automático ha progresado tanto a lo largo de los años. Pero, el aprendizaje es un proceso complejo, y solo porque un alumno tenga una justificación teórica y trabaje en la práctica no significa que el primero sea la razón del segundo.

Gracias

Akash Singh

Este es un buen lugar para comenzar a leer sobre eso:

http://people.csail.mit.edu/moit

Sin embargo, en ese modelo significa principalmente que su algoritmo en realidad devuelve el modelo (generativo) que asumió. Si las suposiciones son ciertas, entonces el algoritmo funcionará (más o menos, debería leer el texto que vinculé).

En el marco de aprendizaje estadístico, generalmente significa que puede usar las matemáticas para demostrar sin lugar a dudas que el algoritmo debe generalizarse. La dimensión VC es un buen lugar para comenzar a aprender más sobre la suya. Caltech tiene buenas conferencias sobre esto, creo.

Definamos el aprendizaje automático (en general):

  • Deje que un problema se defina como crear una asignación de xay . En la programación normal, es tarea del programador crear un programa que cree esta asignación.
  • El aprendizaje automático es cuando una máquina genera este mapeo después de ver ejemplos para aprender.

Una garantía teórica generalmente significa que se garantiza que se encontrará una solución si existe. Sin esto, cualquier solución que se encuentre siempre está bajo la sospecha de no ser la mejor que existe. (u otras sospechas)