No muchos, supongo. Cuando eres un estudiante de aprendizaje automático, lo primero que haces frente a un nuevo problema es pensar cómo podrías ponerlo en una forma que pueda abordarse utilizando técnicas clásicas de aprendizaje automático, y luego probar diferentes técnicas con implementaciones simples para ver cómo se comportan y comparan. Y las redes neuronales simples, como los perceptrones y los perceptrones multicapa, son una técnica de aprendizaje automático bastante clásica. Entonces puede apostar que han sido probados en una serie de situaciones. Si no se usan fácilmente para algún problema específico que se resuelve con uno o más métodos de ML, probablemente se deba a que ese (o esos) método (s) alternativo (s) funcionan mejor que NN simple para ese problema.
Sin embargo, estoy bastante convencido de que hay muchos problemas que actualmente no se resuelven utilizando métodos modernos de aprendizaje automático en general (incluidos los NN) porque son más difíciles de expresar como problemas de aprendizaje automático que la mayoría, pero eso se beneficiaría significativamente de ser visto bajo esa perspectiva
- ¿Qué suele hacer que una red neuronal deje de mejorar temprano?
- ¿Debo aprender a desarrollar backend si quiero ser ingeniero de aprendizaje automático?
- ¿Qué es la regularización de Tikhonov en términos simples?
- ¿Por qué las redes neuronales profundas no pueden extraer la estacionalidad de las series de tiempo?
- ¿Cuáles son los temas más comunes omitidos de los cursos de aprendizaje automático?