Nota: Esta respuesta considera aquellos problemas de LA que pueden clasificarse como optimización de objetivos múltiples.
Sí, el aumento en el número de características aumentará la dimensión del espacio de búsqueda para el problema. Por lo tanto, un gran número de objetivos / características causará que un problema sufra una maldición de dimensionalidad . Citando wikipedia
En los problemas de aprendizaje automático que implican aprender un “estado de la naturaleza” (tal vez una distribución infinita) a partir de un número finito de muestras de datos en un espacio de características de alta dimensión con cada característica con una serie de valores posibles, una enorme cantidad de entrenamiento se requieren datos para garantizar que haya varias muestras con cada combinación de valores. Con un número fijo de muestras de entrenamiento, el poder predictivo se reduce a medida que aumenta la dimensionalidad, y esto se conoce como el efecto Hughes o fenómeno Hughes (llamado así por Gordon F. Hughes).
- Cómo detectar logotipos si están distorsionados
- ¿Quiénes son los grandes nombres en el campo de investigación de los sistemas de recomendación?
- ¿Puede un ingeniero eléctrico seguir una carrera en aprendizaje automático en el futuro?
- Aprendizaje profundo: ¿Una versión suave de unidades lineales rectificadas funciona mejor o peor que una no lineal?
- ¿Cuáles son las opiniones de Yoshua Bengio sobre Kaggle y el aprendizaje automático competitivo en general?
La complejidad en tiempo de ejecución de la mayoría de los algoritmos existentes para encontrar las soluciones óptimas a los problemas de optimización multiobjetivo crece exponencialmente con el aumento de la dimensión. Se sugiere eliminar las funciones redundantes para disminuir las dimensiones de búsqueda.
Los problemas multiobjetivos con cuatro o más objetivos a menudo se denominan problemas de muchos objetivos. Cada vez que se aplica un algoritmo de Pareto basado en el dominio [1] EMO (Optimimación multiobjetiva evolutiva) bien conocido y de uso frecuente a un problema tan objetivo, se enfrentan tres dificultades serias.
1. Cuando aumenta el número de objetivos, casi todas las soluciones en cada población quedan sin dominar. Esto debilita severamente la presión de selección basada en el dominio de Pareto hacia el frente de Pareto. Esa es la propiedad de convergencia de los algoritmos EMO está severamente deteriorada.
2. Aumento exponencial en el número de soluciones requeridas para aproximar todo el frente de Pareto. El objetivo de los algoritmos EMO es encontrar un conjunto de soluciones no dominadas que se aproximen bien a todo el frente de Pareto. Dado que el frente de Pareto es una hiper-superficie en el espacio objetivo, el número de soluciones requeridas para su aproximación aumenta exponencialmente con la dimensionalidad del espacio objetivo (es decir, con el número 9 de objetivos). Es decir, es posible que necesitemos miles de soluciones dominadas para aproximar todo el frente de Pareto a un problema de muchos objetivos.
3. Dificultad de visualización de soluciones. Por lo general, se supone que la elección de una solución final de un conjunto de soluciones no dominadas obtenidas la realiza un responsable de la toma de decisiones en función de su preferencia. El aumento en el número de objetivos hace que la visualización de las soluciones no dominadas obtenidas sea muy difícil. Esto significa que la elección de una solución final se vuelve muy difícil en la optimización de muchos objetivos.
[1] Solución eficiente / no dominada de Pareto: en términos simples, una solución es pareto óptima o no dominada, si no existe otra solución que sea mejor que esta solución en todos los objetivos.