¿Por qué medios se puede realizar una regresión de alta dimensión (#características >> #observaciones) que no sea la regularización (LASSO, regresión de cresta, etc.)?

Por lo general, los problemas de alta dimensión están subdeterminados, es decir, un tamaño de muestra mucho más pequeño que la dimensionalidad [matemática] n << p [/ matemática]. Por lo tanto, algunas restricciones son necesarias para incluso determinar el problema. La forma en que funciona la regularización es que hace que la dimensionalidad intrínseca del problema sea pequeña, de modo que permanece solucionable en el espacio de alta dimensión.

Considere un ejemplo simple, resolviendo un sistema lineal de ecuaciones [math] \ mathbf {y} = A \ mathbf {x} [/ math]. Si [math] A [/ math] es gordo , es decir, [math] n << p [/ math], entonces el problema está subdeterminado. Ahora, considere que alguien le dice que el 90% de las columnas en [matemáticas] A [/ matemáticas] son ​​simplemente transformaciones lineales del otro 10%. Esta es una restricción estructural sobre el problema. En ese caso, puede hacer PCA, reducir la dimensionalidad a la mitad y resolverlo. Sin embargo, en general, incluso si puede adivinar que algunas columnas son linealmente dependientes, no puede determinar explícitamente esta fracción (es decir, 90%). En tales escenarios, un buen regularizador ayudará. En este caso, por ejemplo, LASSO hará un desastre, ya que hay tantas covariables correlacionadas. Mientras que la regresión de PCA puede ser excelente.

Existe MARS, que es una modificación de los árboles de regresión.

MARS funciona bien en grandes dimensiones, pero no estoy seguro de cuán estable es cuando el número de parámetros es> observaciones.