Se debe agregar una segunda capa oculta cuando determine empíricamente que hacerlo mejora el rendimiento de su problema. En la mayoría de los problemas, pero no en todos, dos capas ocultas funcionarán mejor que una.
La forma de determinar empíricamente si su problema se beneficiaría de una segunda capa es tomar una fracción de sus datos de entrenamiento y reservarlos. Estos datos se denominan conjunto de validación . Debería ser el más pequeño de, digamos, 10k ejemplos o 10% de sus datos. No utiliza el conjunto de validación al calcular el gradiente, ya que eso sesgaría las siguientes pruebas.
Pruebe periódicamente su red en el conjunto de validación para controlar cómo se produce el error. Desea entrenar hasta que el rendimiento en el conjunto de validación deje de disminuir (¡y antes de que comience a aumentar!). Esto se llama detención temprana y mejora el rendimiento de generalización.
- ¿Qué tema es importante para la ingeniería integrada, las redes neuronales o la automoción moderna?
- Cómo crear algoritmos de reconocimiento facial
- ¿Cuál es la diferencia entre el aprendizaje por refuerzo y la optimización?
- ¿Cuáles son los pros y los contras de los diversos algoritmos de clasificación de Tree Ensemble?
- ¿Cuál es el mejor marco de aprendizaje profundo que puedo usar para clasificar las imágenes de resonancia magnética? ¿Keras es adecuado para eso?
Para decidir cuántas capas y cuántas neuronas necesita para un problema, simplemente pruebe diferentes valores y seleccione la configuración que haga que el error del conjunto de validación sea el más bajo.
Podría automatizar el proceso si necesita capacitarse en muchos problemas diferentes.