CNN son mucho más que eso.
La arquitectura de red y factores como la tasa de aprendizaje, la función de pérdida, etc., juegan un papel crucial en la mayoría de las NN.
Estoy completamente en desacuerdo con Abhishek RS en algunos de sus puntos.
- ¿Aprendizaje automático en una caja negra / prueba de conocimiento cero?
- ¿Son las computadoras mejores pensadores visuales?
- ¿En qué áreas de la banca / finanzas se utiliza el aprendizaje automático?
- ¿Dónde empiezo a aprender Machine Learning?
- ¿Qué paradigma / algoritmo de aprendizaje automático puedo usar para seleccionar de un grupo de posibles opciones?
Si CNN fuera solo sobre arquitectura de red, tasa de aprendizaje, función de pérdida utilizada, la red neuronal artificial normal habría sido suficiente para diversas tareas en imágenes y datos relacionados.
La arquitectura de red cubre bastante, lo que incluye incluso el diseño de conexión neuronal del sistema. CNN domina sobre otras NN en la extracción de características en datos en los que el patrón de conectividad local es importante (como las imágenes). Las CNN explotan la correlación espacialmente local para extraer allí las correlaciones locales. La forma en que se conectan las CNN es completamente diferente de otras NN. En las NN normales, una neurona en la capa oculta se conecta a todas las demás neuronas en la capa de entrada, pero en CNN, una neurona en la capa oculta se conecta a un campo local respectivo. Esta arquitectura de red hace que CNN sea un gran negocio para los datos de imágenes.
Max pool layer ayuda a extraer la característica más importante y también la invariancia espacial (la ubicación de la característica en una imagen no importa). Estas dos capas son muy importantes.
La capa de agrupación máxima es solo una forma segura de reducir la muestra a la característica a un tamaño que sea manejable por su sistema para la eficiencia computacional. También puede hacerlo sin agrupar, en realidad hoy en día se recomienda hacer una convolución progresiva que hacer una convolución y luego agrupar.
tasa de aprendizaje, función de pérdida
La tasa de aprendizaje y la función de pérdida no son especiales para CNN. Es una parte común de la mayoría de las NN.
La función de pérdida es una de las cosas más importantes en cualquier NN, si no puede diseñar una buena función de pérdida, incluso si diseña la mejor arquitectura NN, el sistema nunca convergerá (o aprenderá). E incluso si tiene una buena arquitectura y una buena función de pérdida, su sistema puede tardar más en aprender o puede que nunca sea capaz de mostrar su potencial real si su tasa de aprendizaje (cuánto cambio debo hacer para acercarme a la meta) es buena suficiente.
Recomiendo encarecidamente CS231n: redes neuronales convolucionales para el reconocimiento visual.