La minería de datos es una versión más fuerte de ajuste de curvas, ¿es correcta?

La minería de datos es un campo y el ajuste de curvas es un método para extraer patrones en los datos. La regresión lineal, SVM, red neuronal lineal son algunas de las técnicas para el ajuste de curvas.

En cuanto a su segunda pregunta sobre “mejor ajuste de curva con modelos complicados”, utilizamos modelos complicados para el ajuste de curva cuando la curva es más que solo una línea recta. Una curva puede ser una esfera, elipsoide, hiperboloide, parábola, en forma de s, etc.

No necesariamente necesitamos un modelo simplificado para el ajuste de la curva, incluso si un modelo simple con partición de curva adecuada puede ayudar a que el modelo simple se ajuste a la curva.

Por lo tanto, la minería de datos no es una versión más sólida del ajuste de curvas, es solo un campo y el ajuste de curvas es un método para extraer patrones inusuales que no son visibles solo desde el análisis de datos.

¡¡¡¡Espero eso ayude!!!!

Eso es una simplificación excesiva, pero generalmente es cierto. McKinsey tiene una gran visualización de esto (es tan bueno que un consultor de BCG lo comparte):

Únete a nosotros en The Analytics Dude

Sí en el área de cálculo de tendencias por extrapolación.

Sí, ya que se “cree” que es verdad.

More Interesting

¿Cuál es la diferencia entre hash y minhashing sensibles a la localidad?

¿Puede la generación de características de fuerza bruta vencer a la ingeniería de características clásica?

Tengo problemas para mejorar el rendimiento de mi red neuronal a medida que aumento el número de unidades, ¿cuál podría ser el problema?

Entre la agrupación y la clasificación, ¿cuál requiere más experiencia?

¿Cómo podemos hacer un análisis de opinión para una revisión de película cuando no tenemos un conjunto de datos de capacitación?

¿Se mejorará la mayor ganancia en el reconocimiento de objetos en los algoritmos de representación y aprendizaje, en lugar de modelos simples y datos más grandes?

¿Se puede usar un C ++ para el aprendizaje automático? Si es así, ¿qué tan bueno es en comparación con Python y R?

Muchas empresas hablan de 'big data' y 'aprendizaje profundo', y siempre ponen estas etiquetas en sus productos. ¿Cuál es el verdadero significado detrás de esto?

Cómo aumentar la precisión utilizando redes neuronales convolucionales (CNN / ConvNets) para la regresión

¿Cuántos datos necesitamos para pensar siquiera en aplicar el aprendizaje profundo?

¿Cuál es el mejor curso para IA?

¿Por qué utilizamos el CDF de distribución logística para calcular las probabilidades en la regresión logística?

¿Quién usa OpenNLP?

¿El análisis de sentimientos basado en léxico se considera un método no supervisado?

¿Cuál es la diferencia de aprender características latentes usando SVD y usando vectores incrustados en una red profunda?