Las desventajas comunes serían (no exactamente para el aprendizaje, sino quizás desde una perspectiva de disponibilidad de recursos)
- Memoria limitada
- Poder de procesamiento limitado
- La combinación de los cuales hace que sea imposible ejecutar los algoritmos a veces o lo hace realmente lento. Sin embargo, puedes evaluar la situación.
La escasez no siempre es una desventaja, a pesar de que hablamos de “La maldición de la dimensionalidad”. De hecho, esto da más información sobre la estimación del modelo.
Puede usar PCA, LDA, Autoencoders, etc. para reducir la dimensionalidad.
- Necesito una persona de Python Advanced para evaluar a un candidato de Data Science. ¿Puede usted ayudar?
- Cómo seguir creciendo como analista de datos
- ¿Cuánto más complejo es el desarrollo de IA en comparación con el desarrollo de aplicaciones móviles sociales?
- ¿Cuáles son algunos algoritmos utilizados en un sistema de recomendación de música?
- Cuando un científico de datos descubre un patrón de mercado constante, ¿cómo puede saber cuánto durará? Si es fugaz, explotarlo no tendrá sentido.
El manejo de datos de alta dimensión es complicado y a veces imposible si el algoritmo elegido requiere que todos los datos estén en la memoria.
Sin embargo, existen métodos de “aprendizaje en línea” como el gradiente estocástico, que no requiere que cargue todo el conjunto de datos en la memoria.
(PD: ¡según tengo entendido! Puede haber muchas otras cosas que afectan el proceso)