¿Los datos de centrado y escalado siempre dan mejores modelos lineales?

¿Siempre? No. De hecho, para una llamada “regresión lineal simple”, una regresión con solo una variable X (independiente) y una Y (dependiente), realmente no hay diferencia.

Pero para cualquier otro tipo de modelo con el que se trate, especialmente los modelos con términos de “interacción”, el centrado puede marcar una gran diferencia, no solo para la convergencia, sino también para la interpretación. Y el escalado , por ejemplo, garantizar que todas las variables escaladas en intervalos tengan una desviación estándar unitaria, es enormemente importante si uno está haciendo un análisis bayesiano, ya que de lo contrario lo anterior es a menudo una suposición. [Las prioridades se utilizan para la regularización, es decir, el control de la complejidad, en muchos entornos de aprendizaje automático; poner un prior en un coeficiente cuando no tienes idea de su tamaño real es un poco loco, y la escala ayuda con eso.]

He leído críticas sobre el centrado y el escalado, y nunca he visto ningún punto real para ellos, ya que SIEMPRE puedes recuperar los coeficientes “sin escala” a través de una simple multiplicación, y es solo un poco más de trabajo desenfocarlos (si uno realmente desea) Nunca se “pierde” información a través de estos procedimientos, y se gana mucha estabilidad e interpretabilidad. Y tenga en cuenta que agregar nuevas covariables a un modelo existente es radicalmente más fácil cuando todo está centrado y escalado, ya que no se espera que los coeficientes existentes cambien mucho (a menos que haya una fuerte multicolinealidad). Entonces, es realmente el proverbial “almuerzo gratis”: sin inconvenientes.

Una de las principales necesidades de escalado aparece en los modelos de entradas múltiples, para evitar la influencia debido a la escala (por ejemplo: una entrada es concentraciones entre 0 y 1, la otra son temperaturas entre 300 K – 1000 K); el escalado no hace diferencia en modelos con una sola entrada.

Por lo tanto, el escalado no “siempre” da mejores modelos lineales.

A2A, gracias.

Dudo que mejore la calidad del modelo lineal en sí, pero puede reducir los errores de coma flotante y proporcionar una mejor base para comparar múltiples modelos. Un ejemplo notable donde esta última ventaja se realiza es el Teorema del límite central: antes de estudiar la secuencia de las variables aleatorias, primero las centramos y escalamos por el st.d ..