Por supuesto que puede.
Recuerde el teorema de aproximación universal [1] para un perceptrón multicapa. En principio, una red neuronal puede reproducir cualquier conjunto de datos dado exactamente, porque un NN es un aproximador universal. Teniendo en cuenta que su red neuronal está entrenada mediante propagación hacia atrás, hay algunas formas de obtener un error cuadrático medio cero, por ejemplo:
- Puede agregar una gran cantidad de neuronas a las capas ocultas de la red, lo que la hace muy compleja;
- Podría usar características de polinomios de alto grado como entrada a la red neuronal;
- Entrene la red durante mucho tiempo, no use la regularización.
Es probable que estos pasos produzcan lo que llamamos sobreajuste : la red neuronal reproduce perfectamente el conjunto de datos. En general, esto es altamente indeseable, porque no podrá generalizarse muy bien, que es el objetivo principal de las redes neuronales en la mayoría de las aplicaciones.
- Cómo hacer que un estudiante de pre-varsity entienda la diferencia entre estadística paramétrica y no paramétrica
- ¿Cuál es el mejor algoritmo para descubrir todos los nodos de la red y mantener esa red en tiempo real?
- ¿Cuáles son algunos proyectos en Big Data y machine learning?
- ¿Cómo usa la NASA el aprendizaje automático?
- ¿Los bosques aleatorios son solo un tipo de Monte Carlo?
También encontré un artículo [2] que adopta un enfoque diferente para obtener un error cero en los modelos de avance, al elegir un conjunto de ‘ patrones de entrenamiento ‘ específicos . Lamentablemente, el artículo está detrás de un muro de pago.
Notas al pie
[1] Teorema de aproximación universal – Wikipedia
[2] Aprendizaje con cero errores en las redes neuronales Feedforward