Respuesta basada en los detalles de la pregunta (ahora comentarios):
El lema de Johnson – Lindestrauss no suele ser la mejor herramienta para la reducción de la dimensionalidad, el objetivo principal del lema es proporcionar una buena explicación de por qué funcionan las proyecciones aleatorias. Lo importante que debe entender es que realmente no necesita una baja tasa de error (épsilon) porque siempre que mantenga las distancias entre los vectores, la mayoría de los algoritmos no se preocupan realmente por el error de reconstrucción en comparación con el espacio original.
Lo que sucedió en su caso fue que fijó un épsilon muy bajo y, por lo tanto, el lema JL le dio una dimensionalidad que en realidad era más alta que su número original de dimensiones.
- ¿Qué tan diferente es el aprendizaje automático de las estadísticas?
- Inteligencia artificial: ¿Qué tan importante es el aprendizaje de transferencia / transferencia profunda?
- Análisis de conglomerados: ¿Cuáles son algunas posibles medidas de distancias / diferencias para variables binarias?
- ¿Qué es exactamente el sobreajuste? ¿Por que sucede? ¿Cómo afecta a mi modelo?
- ¿Es posible o valioso obtener otro doctorado en Machine Learning (Deep Learning) de una de las 50 mejores universidades de los Estados Unidos?
En lugar de corregir el error y encontrar la dimensionalidad, un enfoque más común es corregir las dimensiones y luego encontrar la mejor reducción, esto generalmente se hace usando el SVD (PCA). Este enfoque es mucho más común porque si desea aplicar la reducción de dimensionalidad debe ser porque no le está yendo bien en su espacio original, entonces, dependiendo de lo que quiera hacer con los datos, debe encontrar qué dimensionalidad funcionaría bien para usted y luego encuentre una manera de asignar sus datos a este nuevo espacio.