Se necesitan muchos menos pesos para cada capa en comparación con una red neuronal normal. Debido a que una capa / filtro CNN no necesita muchos pesos, puede hacer que la red sea muy profunda, es decir, tener una tonelada de capas / filtros. Cuantas más capas, más no linealidades y problemas complejos puede resolver.
Con una red convolucional que usa filtros, estos filtros son bastante pequeños en comparación con toda la entrada. Si usó una red neuronal normal, necesitaría un peso por cada píxel en la entrada de imagen, suponiendo que use imágenes para las que se usan principalmente ConvNets.
Con una CNN solo necesita tantos pesos como el tamaño de su filtro y, por lo tanto, se requiere menos cómputo. Puede sustituir ese cálculo con una tonelada de capas para que el ConvNet sea extremadamente profundo. Cuanto más profunda es una red neuronal, cuantas más no linealidades esté introduciendo, más no linealidades, más problemas complejos puede resolver.
- ¿Qué problemas o conjuntos de datos existen cuando usar el impulso da mejores resultados que usar un SGD simple?
- ¿En qué se diferencia el aprendizaje automático de la minería de datos?
- ¿Qué es la regularización neta elástica en el aprendizaje automático?
- ¿Cuál es la diferencia entre Hadoop y Teradata aster?
- ¿Cuál es la función [math] \ Psi [/ math] en esta diapositiva?