En este viejo artículo, la propagación hacia atrás no se separa donde los perceptrones tienen éxito , Brady et al. Discuten algunas propiedades muy interesantes cuando la red neuronal no logra separar algunos datos separables linealmente.
Esta observación es muy interesante porque discute sobre el poder de representación , en lugar del poder de generalización de la red neuronal.
- El poder de generalización se trata de si un modelo se sobreajusta. Esta es una de las razones más frecuentes por las que las redes neuronales son superadas por modelos más simples (como señalan otras respuestas).
- El poder de representación se trata de si un modelo puede ajustarse a los datos, incluso si deliberadamente queremos sobreajustar. La red neuronal es famosa por su llamado poder de aproximación universal (es decir, se sabe que puede adaptarse a todo). Sin embargo, en 1989, Brady et al mostraron que incluso en términos de poder de representación , una red neuronal puede perder con un modelo lineal.
Si encuentra que su documento es demasiado largo para leerlo, la idea se discute brevemente en la Sección 3.2.2 en este documento de revisión de aprendizaje profundo fácil de leer.
- Expresiones regulares (informática): ¿Cómo minimizo este DFA?
- ¿Sería útil para un estudiante de CS estudiar Señales y Sistemas, así como el Procesamiento de Señal Digital?
- En teoría, ¿podría una máquina Turing de inteligencia sobrehumana no ser un desarrollo de un solo hombre? ¿Podría ser construido solo por varias personas juntas?
- ¿Cómo funciona el carnero?
- ¿Cuáles son algunos buenos libros sobre aprendizaje automático y aprendizaje profundo?