¿Por qué usamos convolución en redes neuronales?

La convolución es una forma de darle a la red un grado de invariancia de traducción.

Puede pensar en la convolución de imagen típica utilizada en las redes neuronales como una forma de desenfoque (aunque hay otros tipos de convoluciones que están más cerca de las derivadas espaciales). Este desenfoque asegura que la red neuronal responderá de manera similar a las versiones ligeramente desplazadas de una imagen o característica.

Las etapas convolucionales en las redes neuronales implican compartir pesos de conexión. Esto permite una detección robusta de características invariantes de posición. Digamos que alguna etapa de la red funciona como un detector de bordes. Le gustaría asegurarse de que el detector de bordes funciona de la misma manera, independientemente de en qué parte de la imagen se encuentre un borde. Una etapa convolucional en una red neuronal asegura que cada parte de la red neuronal tenga esencialmente el mismo detector de borde. Entonces, incluso si sus datos están sesgados para tener bordes solo en, digamos, el lado inferior izquierdo del conjunto de imágenes, sus pesos de conexión no reflejarán este sesgo sistemático.

Otras lecturas:

¿Por qué y cómo las redes neuronales convolucionales son invariantes en la traducción? – Quora

Red neuronal convolucional – Wikipedia

Redes neuronales y aprendizaje profundo.

Redes neuronales convolucionales (LeNet): este es un excelente tutorial sobre redes neuronales. Recomiendo crear su propia red, o al menos jugar con algún código existente. No hay sustituto para implementar su propia red. Solo hay mucho que puedas entender de la lectura pasiva.