Es difícil de precisar, ya que la “regresión” es una técnica rigurosa y bien definida con muchos miles de artículos de investigación dedicados a ella, mientras que el “ajuste de curvas” es una abreviatura vernácula para todo tipo de métodos.
Pero varias diferencias son evidentes, incluso dada la resbaladiza del último término:
- Ofertas de ajuste de curvas con … curvas . Significa contornos continuos. La regresión no necesita. Lo único que importa es que puede escribir lo que ve como una función lineal de parámetros, covariables y error . Por ejemplo, ANOVA básicamente le pide que ajuste algunos medios, sin nada entre ellos, y este es un ejemplo de regresión de mínimos cuadrados. Incluso el simple ajuste de una media se puede ver como una regresión, sin “curvas” a la vista.
- Por lo general, las regresiones le dicen que su “Y” más probable es una función de un grupo de “X”. Lo que no te daría es algo como esto:
- ¿Cuál es la diferencia entre aprendizaje gradual y aprendizaje de refuerzo?
- Cómo llegar a un problema de aprendizaje automático para un proyecto personal
- ¿Qué debo usar para el aprendizaje automático si necesito una solución rápida: Python, R o SAS?
- ¿Cuáles son algunos de los documentos fundamentales sobre el aprendizaje profundo?
- Tengo muchos datos de clientes. ¿Qué algoritmos de aprendizaje automático serían mejores para predecir qué productos desea comprar cada cliente?
En el gráfico anterior, está asociando MUCHAS Y con una X. Puede usar técnicas basadas en regresión para ajustar este tipo de curva de spline, pero eso no es lo que generalmente se entiende por “regresión”.
Probablemente también haya otras diferencias, como los propósitos (estimación versus predicción versus inferencia), pero no creo que estén bien definidas, ya que el “ajuste de curvas” tampoco lo es.