Aunque ha preguntado sobre el perceptrón multicapa en particular, los términos clave que utilizó son términos generales muy importantes que se utilizan en casi cualquier tipo de red neuronal profunda o RNN. Te animo a que leas el siguiente contenido para comprender mejor cada uno de estos y también cómo aplicarlos prácticamente de una manera fácil:
Hay bastantes maneras en que puede hacer un entrenamiento de hiperparámetros:
- Búsqueda de cuadrícula (o barrido de parámetros)
- Optimización bayesiana.
- Búsqueda aleatoria
- Optimización basada en gradiente
Este artículo wiki ofrece una muy buena descripción de cada uno de estos métodos. Si tiene acceso a buenos recursos informáticos, por ejemplo. GPU, sugeriría que puede ir a la búsqueda de cuadrícula, que esencialmente busca a través de una combinación de cada uno de los valores de hiperparámetros en rangos predeterminados fijos.
- Cómo realizar el aprendizaje de refuerzo en una red neuronal de alimentación oculta de capas múltiples
- ¿Cómo explicarías la probabilidad condicional y el teorema de Bayes a un niño?
- ¿Cuál es la diferencia entre el aprendizaje automático, el procesamiento del lenguaje natural, el aprendizaje profundo y la visión por computadora?
- En los Estados Unidos, ¿es ilegal entrenar redes neuronales usando imágenes con derechos de autor?
- ¿Cuál es la diferencia entre el entrenamiento por lotes, en línea y mini-lote en redes neuronales? ¿Cuál debo usar para un conjunto de datos de pequeño a mediano tamaño con fines de predicción?
Le proporciono algunos recursos útiles que lo ayudarán a comprender el aprendizaje y le proporcionarán formas prácticas de ajustar los hiperparámetros. 3) y 4) son lo que necesita según su pregunta.
- Los fundamentos del aprendizaje usando el gradiente de descenso.
- Una buena explicación del tamaño del lote, épocas, etc.
- Ajuste práctico de hiperparámetros en la biblioteca sklearn de Python : GridSearchCV.
- Ajuste práctico de hiperparámetros en Tensorflow : Optunity.