Hubo un documento escrito llamado No Free Lunch Theorems for Optimization ( https://ti.arc.nasa.gov/m/profil… ) que básicamente dice que cuando se considera la optimización, todas las soluciones, cuando se promedian todos los problemas en el espacio del problema Son lo mismo . Como dice el documento, “si un algoritmo funciona bien en una cierta clase de problemas, entonces necesariamente paga eso con un rendimiento degradado en el conjunto de todos los problemas restantes”.
El aprendizaje profundo es una herramienta increíblemente útil, y es maravillosamente eficaz en ciertos problemas. Pero hay una razón por la cual no es lo que la gente busca instantáneamente para todo. El aprendizaje profundo requiere una gran cantidad de datos para que una red neuronal grande aprenda adecuadamente la distribución de datos sin sobreajustar, por lo que el aprendizaje profundo no es una herramienta contundente que pueda aplastar todos sus problemas con el aprendizaje de una sola vez, sino que es un láser súper potente, que debe usarse con cuidado, y solo bajo un dominio muy específico de problemas.
- Cómo calcular la contramedida en seguridad informática
- ¿Cómo es tomar COS 487 (Teoría de la Computación) en Princeton?
- Computational Science (Scientific Computing): ¿Qué es la teoría funcional de la densidad (DFT)?
- ¿Dónde exactamente en el sótano de Maxwell Dworkin está la impresora que imprime gratis?
- Cómo resolver el siguiente problema de autómatas finitos