¿Qué significa ajustar un modelo en aprendizaje automático?

Tomemos un ejemplo de regresión. Supongamos que se le dan algunos puntos (denotados como x en la figura a continuación como una relación entre el tamaño de la casa y su precio). Se le pide que encuentre un modelo que represente estos puntos de la mejor manera posible. Hay infinitas maneras de hacerlo. La forma más simple es dibujar una línea recta, de modo que todos los puntos se encuentren en esa línea. Sin embargo, como se da cuenta de que este es un mal ajuste porque la mayoría de los puntos no se encuentran en la línea, llamamos a esta situación un ajuste insuficiente. Alternativamente, puede dibujar una función compleja que se ajuste a cada punto, vea la figura correcta. Esta situación se llama sobreajuste; posiblemente no se generalizará en un nuevo punto porque se ajusta demasiado a los puntos dados. Su mejor apuesta es la trama media, donde encuentra un polinomio cuadrático que representa los datos bastante bien. En este problema, básicamente está tratando de ajustar diferentes polinomios de grado ‘d’. Por lo tanto, en este ejemplo, su parámetro es el grado de polinomio, es decir, ‘d’. De manera similar para otros algoritmos, hay diferentes parámetros. Dependiendo de cómo los elija, puede afectar su límite de clasificación y el ajuste del modelo. Algunas opciones pueden conducir a un ajuste del modelo subóptimo (bajo ajuste o sobreajuste), mientras que otras opciones pueden conducir al ajuste óptimo o casi óptimo del modelo. En este ejemplo, d = 2 es un ajuste casi óptimo pero no perfecto, porque todos los puntos no se encuentran en la curva.

Para una discusión detallada sobre hiperparámetros, lea esta publicación: ¿Qué son los hiperparámetros en el aprendizaje automático?

(Fuente – 3. Machine Learning 102: Consejos prácticos)

Agregaré a las otras excelentes respuestas y analizaré la diferencia entre parámetros e hiperparámetros.

Los parámetros del modelo son los que aprendemos al ajustar el modelo utilizando los datos de entrenamiento, por lo que los obtenemos en función del conjunto de datos disponible. por ejemplo, los coeficientes del modelo lineal (como un polinomio) que estamos tratando de ajustar en cuanto a la regresión lineal son parámetros del modelo.

Por otro lado, los hiperparámetros (también llamados metaparámetros) son los que no se pueden aprender directamente de los datos, y el usuario debe ajustarlos y optimizarlos (la búsqueda en cuadrícula y la búsqueda aleatoria son técnicas para ajustar los hiperparámetros )

Algunos ejemplos de hiperparámetros:

  • Tasa de aprendizaje en regresión lineal o regresión logística.
  • Profundidad máxima y tamaño de hoja mínimo en árboles de decisión.
  • Parámetros C y gamma en SVM.
  • Número de capas ocultas en redes neuronales.

La adaptación es sinónimo de entrenamiento. Por ejemplo, supongamos que ha medido las alturas de un grupo de personas y ha decidido que su modelo será una distribución normal. Luego, determinar la media y la varianza de la distribución normal que mejor explica sus datos observados se llama ajuste: usted determina los parámetros media [matemática] \ mu [/ matemática] y varianza [matemática] \ sigma [/ matemática].

Suponga que tiene un algoritmo que estima [math] \ mu [/ math] y [math] \ sigma [/ math] dados sus datos. Puede pedirle a su algoritmo que ejecute N iteraciones donde cada iteración tome la misma cantidad de tiempo, pero más iteraciones producen estimaciones ligeramente más precisas de los parámetros [math] \ mu [/ math] y [math] \ sigma [/ math]. N es un valor que proporciona que puede influir en las estimaciones y se denomina hiperparámetro.

Ajustar un modelo significa encontrar un patrón en los datos. Digamos que tienes un conjunto de puntos:

x = 1, y = 4

x = 4, y = 10

x = 8, y = 18

Ahora supongamos que sabemos que la relación es lineal, por lo que tratamos de encontrar un modelo de la forma “y = ax + b”.

Hay infinitos modelos posibles, y cada modelo posible se puede definir completamente usando dos números: a y b.

ayb son parámetros del modelo.

El aprendizaje de parámetros significa tratar de encontrar ayb de modo que los datos que tenga coincidan x = ax + b tanto como sea posible. En este caso, si su algoritmo es bueno, debería encontrar “a = 2, b = 2” como la solución.

Ahora, ¿qué pasa si te das cuenta de que los datos pueden no ser lineales y también deberías probar polinomios de orden superior?

y = a (P = 0)

y = ax + b (P = 1)

y = ax ^ 2 + bx + c (P = 2)

y = ax ^ 3 + bx ^ 2 + cx + d (P = 3)

P es un hiperparámetro. Cambiar P cambia la forma del modelo.

Hola. el ajuste coincide con 2 resultados (es decir, medir la tasa de error de conjuntos de datos, puntos, curvas de orden n). El primer resultado es la salida (s) del sistema observado o un comportamiento deseado. El segundo es la salida de su sistema de aprendizaje. una vez que el error es cercano a 0.0001 (usted decide la precisión del aprendizaje), significa que se ajusta y su sistema ha aprendido. Para asegurarse de que no solo se haya memorizado, debe probar su sistema con otros datos (el conjunto de prueba no se utiliza para el aprendizaje).