Los beneficios de la normalización por lotes en el entrenamiento de una red neuronal convolucional (CNN) aumentan cuanto más profunda es la red. Esto se debe a que reduce el ‘cambio covariable interno’, el cambio natural en los datos a medida que pasa a través de la CNN. Este problema empeora cuanto más profunda es la red, porque cada capa cambiará ligeramente la media y la varianza de sus entradas. Sin embargo, eso no significa que la norma de lotes aún no pueda mejorar el entrenamiento para una red más superficial, solo será una diferencia menos notable.
Puede intentar crear su propio modelo con una sola capa convolucional de entrada y aplicar la norma de lote a sus entradas. La siguiente capa puede ser su capa de salida lineal a softmax. Intente entrenar con y sin la norma del lote y observe lo que sucede. La precisión no será muy alta en ninguno de los casos, pero debería notar una diferencia.
- ¿Cuál es la relación entre el aprendizaje automático y la minería de datos?
- ¿Cuáles son algunas buenas ideas para proyectos de aprendizaje automático? Yo uso Python
- ¿El evento IBM Watson vs. Jeopardy perjudicó los campos de aprendizaje automático e inteligencia humana?
- ¿Pueden Kmeans y el algoritmo DBSCAN dar el mismo resultado para un conjunto de datos en particular?
- ¿Cuáles son los problemas de investigación en la detección de objetos?