¿Qué modelos CNN necesitan una norma de lote pero son lo suficientemente pequeños como para hacer una prueba muy rápida?

Los beneficios de la normalización por lotes en el entrenamiento de una red neuronal convolucional (CNN) aumentan cuanto más profunda es la red. Esto se debe a que reduce el ‘cambio covariable interno’, el cambio natural en los datos a medida que pasa a través de la CNN. Este problema empeora cuanto más profunda es la red, porque cada capa cambiará ligeramente la media y la varianza de sus entradas. Sin embargo, eso no significa que la norma de lotes aún no pueda mejorar el entrenamiento para una red más superficial, solo será una diferencia menos notable.

Puede intentar crear su propio modelo con una sola capa convolucional de entrada y aplicar la norma de lote a sus entradas. La siguiente capa puede ser su capa de salida lineal a softmax. Intente entrenar con y sin la norma del lote y observe lo que sucede. La precisión no será muy alta en ninguno de los casos, pero debería notar una diferencia.