¿Cuál es la diferencia entre ajuste de curva y regresión?

Es difícil de precisar, ya que la “regresión” es una técnica rigurosa y bien definida con muchos miles de artículos de investigación dedicados a ella, mientras que el “ajuste de curvas” es una abreviatura vernácula para todo tipo de métodos.

Pero varias diferencias son evidentes, incluso dada la resbaladiza del último término:

  1. Ofertas de ajuste de curvas con … curvas . Significa contornos continuos. La regresión no necesita. Lo único que importa es que puede escribir lo que ve como una función lineal de parámetros, covariables y error . Por ejemplo, ANOVA básicamente le pide que ajuste algunos medios, sin nada entre ellos, y este es un ejemplo de regresión de mínimos cuadrados. Incluso el simple ajuste de una media se puede ver como una regresión, sin “curvas” a la vista.
  2. Por lo general, las regresiones le dicen que su “Y” más probable es una función de un grupo de “X”. Lo que no te daría es algo como esto:

En el gráfico anterior, está asociando MUCHAS Y con una X. Puede usar técnicas basadas en regresión para ajustar este tipo de curva de spline, pero eso no es lo que generalmente se entiende por “regresión”.

Probablemente también haya otras diferencias, como los propósitos (estimación versus predicción versus inferencia), pero no creo que estén bien definidas, ya que el “ajuste de curvas” tampoco lo es.

Tanto en el aprendizaje automático como en el ajuste de curvas, desea crear un modelo que explique (ajuste) los datos. Sin embargo, la diferencia en el objetivo final es sutil y profunda.

En el ajuste de curvas, tenemos todos los datos disponibles al momento de ajustar la curva. Queremos ajustar la curva lo mejor que podamos.

En Machine Learning, solo un pequeño conjunto (el conjunto de entrenamiento) de datos está disponible al momento del entrenamiento. Obviamente, queremos un modelo que se ajuste bien a los datos, pero lo más importante, queremos que el modelo se generalice a puntos de datos invisibles. En Machine Learning, esto presenta una compensación llamada Bias-Variance Tradeoff.

de Bias-Variance Tradeoff en Machine Learning por SATYA MALLICK

En resumen, se superponen, como un diagrama de Venn.

El ajuste de la curva es bastante ambiguo en general. Podría referirse al ajuste de la curva polinómica. Pero algunos ajustes de curvas también pueden adaptarse a funciones como sin, 1 / x, ln x. El ajuste de la curva puede tratar de ajustarse lo más preciso posible, en cuyo caso podría necesitar un polinomio de hasta n grados para ajustar n puntos, o el ajuste de la curva puede tener un control de dimensión involucrado que esencialmente evita el “ajuste excesivo”.

La regresión, por otro lado, se define de manera bastante inequívoca desde la perspectiva estadística. En cierto sentido, la regresión no es un concepto matemático, es un concepto estadístico, mientras que el ajuste de curvas es un concepto matemático. (Piense en termodinámica y combustión). La regresión es una curva que se ajusta al contexto: el objetivo es comprender cómo una variable depende de otra variable. Debido a que los datos suelen ser ruidosos y, por lo general, queremos una comprensión de alto nivel, el control de dimensiones generalmente se usa para filtrar el ruido.

Se superponen. El ajuste de curvas es general y puede incluir muchos tipos de ajustes que rara vez se usan en regresión. La regresión, por otro lado, tiene mucho contexto de estadísticas que no están relacionadas con el ajuste de curvas. En realidad, son dos conceptos de diferentes dominios: estadística y matemáticas, y una comparación entre ellos no es una comparación de manzana a manzana.

En resumen, el ajuste de curva es un conjunto de técnicas utilizadas para ajustar una curva a puntos de datos, mientras que la regresión es un método de inferencia estadística. El ajuste de curvas abarca los métodos utilizados en la regresión, y la regresión no necesariamente ajusta una curva.

Tanto el ajuste de curva como la regresión intentan encontrar una relación entre las variables. En el caso de la regresión hay muchas más restricciones en esa relación.

  • Las variables en una regresión son variables independientes o dependientes, mientras que no existe necesariamente tal distinción en el ajuste de curvas
  • La relación entre variables tiene que ser una función en el caso de una regresión (f (variables_independientes) = variables_dependientes), mientras que en el ajuste de curvas no tiene por qué ser el caso, por ejemplo, ajustar un círculo, que no puede expresarse como una función
  • Del punto anterior, resulta que, en regresión, el error (“distancia”) entre la curva y un punto de datos (que es una medida de qué tan bien el modelo se ajusta a los datos) se calcula a lo largo del eje de la variable dependiente, mientras que no necesariamente hay una sola dimensión a lo largo de la cual se calcula este error en el caso de ajustar una curva. Por ejemplo, si desea ajustar un círculo, tendrá en cuenta tanto x como y para calcular la distancia entre un punto de datos y el círculo ajustado
  • Una regresión no implica necesariamente ajustar una curva. Un ANOVA es una regresión y no implica ajustar una curva.
  • Para construir un modelo con regresión, debe tener suposiciones sobre la naturaleza de los datos, por ejemplo, la naturaleza de la distribución de probabilidad de sus residuos (la diferencia entre sus valores pronosticados y los valores reales)
  • Una regresión le permite hacer inferencias sobre el modelo regresado o los puntos de datos, por ejemplo, ¿qué tan probable es que este modelo refleje los datos? o, ¿qué tan probable es que este nuevo punto provenga del mismo proceso que le permitió construir el modelo?
  • La confusión entre el ajuste de curvas y la regresión proviene del hecho de que numerosos análisis de regresión usan métodos de ajuste de curvas, por ejemplo, entre los más populares, la regresión lineal y logística utilizan mínimos cuadrados lineales y no lineales, respectivamente, que son dos de los métodos más populares para el ajuste de curvas.

¡Espero que ayude!

Los métodos para el ajuste de curvas y la regresión son muy similares pero con objetivos diferentes.

Ajuste de curvas
Cuando hace un ajuste de curva, intenta obtener los valores para un conjunto de parámetros a través del cual un conjunto dado de variables explicativas puede representar otra variable. Suponga que si está realizando un experimento de física y desea estimar la ecuación utilizando métodos empíricos, puede optar por el ajuste de la curva.

Regresión
Por otro lado, por lo general, cuando ejecuta un modelo de regresión (en el contexto de la ciencia de datos), tiene mucho cuidado de no hacer un ajuste de curva. Los términos ajuste de curva / sobreajuste se usan comúnmente para denotar el caso en el que nuestros modelos intentan coincidir exactamente con el conjunto de datos de entrenamiento y sus asuntos y no se generalizan para nuevos puntos de datos.

Por lo tanto, intuitivamente, piensa que una regresión es un caso especial de ajuste de curva, pero aquí no necesita una curva que se ajuste a los datos de entrenamiento de la mejor manera posible, sino un modelo que sea capaz de generalizar el aprendizaje y así predecir nuevos puntos de manera eficiente .

El ajuste de la curva es un caso particular en la regresión, donde tomamos hipótesis en términos de polinomios (esencialmente los polinomios son curvas). mientras que la hipótesis más utilizada es la regresión lineal o lineal.

Esta es la diferencia básica entre ellos en términos de suposición de hipótesis.

Aquí, vienen las diferencias entre ellos mientras se implementan en un conjunto de entrenamiento. Cada modelo tiene ventajas.

Pero el ajuste de la curva puede estar por encima del ajuste y la regresión lineal puede estar por debajo del ajuste en un conjunto de datos dado.

Espero que esta respuesta ayude.

More Interesting

¿Para qué se puede utilizar el análisis de la marcha?

¿Cuáles fueron algunos de los artículos de conferencias / revistas de investigación del discurso más interesantes / dignos de mención en 2012?

¿Qué es la perplejidad en el análisis bayesiano?

Con suficiente capacitación, ¿puede el aprendizaje automático escribir una buena historia para un programa de televisión?

¿Qué son las características y clases en ingeniería de características?

¿Es posible que un ingeniero de procesamiento de señales se involucre en el campo del aprendizaje automático?

¿Qué algoritmo de recomendaciones es más efectivo para desarrollar un entorno de crowdsourcing y qué lenguaje de programación sugiere?

¿Cuál es el editor preferido para un tipo de aprendizaje automático que trabaja principalmente en Python?

Supervisado versus no supervisado, inferencia versus predicción, paramétrico versus no paramétrico, ¿cómo se combinan esas características entre sí?

¿Cuáles son algunos documentos académicos de aprendizaje automático notables / influyentes en los últimos 5 años?

¿Por qué visualizamos filtros en redes neuronales convolucionales? ¿No son los filtros solo conjuntos de pesas? ¿De qué sirve tratar un conjunto de pesas como una imagen?

¿Por qué debería obtener el doble de RAM que la memoria total de mi GPU para construir una plataforma de aprendizaje profundo?

¿Cómo debo implementar la detección de fraude con tarjeta de crédito usando redes neuronales?

¿Qué compañías con sede en Dallas están desarrollando y / o invirtiendo en tecnologías de Inteligencia Artificial / Aprendizaje Automático?

He completado la clase Coursera de Andrew Ng sobre aprendizaje automático. ¿Qué debería hacer después? ¿Qué puedo hacer a continuación?