¿La red neuronal convolucional (CNN) tiene que ver con la arquitectura de red y factores como la tasa de aprendizaje, la función de pérdida utilizada, etc.

CNN son mucho más que eso.

La arquitectura de red y factores como la tasa de aprendizaje, la función de pérdida, etc., juegan un papel crucial en la mayoría de las NN.

Estoy completamente en desacuerdo con Abhishek RS en algunos de sus puntos.

Si CNN fuera solo sobre arquitectura de red, tasa de aprendizaje, función de pérdida utilizada, la red neuronal artificial normal habría sido suficiente para diversas tareas en imágenes y datos relacionados.

La arquitectura de red cubre bastante, lo que incluye incluso el diseño de conexión neuronal del sistema. CNN domina sobre otras NN en la extracción de características en datos en los que el patrón de conectividad local es importante (como las imágenes). Las CNN explotan la correlación espacialmente local para extraer allí las correlaciones locales. La forma en que se conectan las CNN es completamente diferente de otras NN. En las NN normales, una neurona en la capa oculta se conecta a todas las demás neuronas en la capa de entrada, pero en CNN, una neurona en la capa oculta se conecta a un campo local respectivo. Esta arquitectura de red hace que CNN sea un gran negocio para los datos de imágenes.

Max pool layer ayuda a extraer la característica más importante y también la invariancia espacial (la ubicación de la característica en una imagen no importa). Estas dos capas son muy importantes.

La capa de agrupación máxima es solo una forma segura de reducir la muestra a la característica a un tamaño que sea manejable por su sistema para la eficiencia computacional. También puede hacerlo sin agrupar, en realidad hoy en día se recomienda hacer una convolución progresiva que hacer una convolución y luego agrupar.

tasa de aprendizaje, función de pérdida

La tasa de aprendizaje y la función de pérdida no son especiales para CNN. Es una parte común de la mayoría de las NN.

La función de pérdida es una de las cosas más importantes en cualquier NN, si no puede diseñar una buena función de pérdida, incluso si diseña la mejor arquitectura NN, el sistema nunca convergerá (o aprenderá). E incluso si tiene una buena arquitectura y una buena función de pérdida, su sistema puede tardar más en aprender o puede que nunca sea capaz de mostrar su potencial real si su tasa de aprendizaje (cuánto cambio debo hacer para acercarme a la meta) es buena suficiente.

Recomiendo encarecidamente CS231n: redes neuronales convolucionales para el reconocimiento visual.

  • CNN es ampliamente utilizado en clasificación de imágenes, detección de objetos, etc., principalmente relacionado con imágenes (2-D) y videos (3-D). Entonces, esta respuesta será desde la perspectiva de la aplicación de CNN para la clasificación de imágenes, detección y tareas relacionadas.
  • Si CNN fuera solo sobre arquitectura de red, tasa de aprendizaje, función de pérdida utilizada, la red neuronal artificial normal habría sido suficiente para diversas tareas en imágenes y datos relacionados. No había necesidad de las capas de convolución.
  • En realidad, este no es el caso. Los filtros de convolución que se aplican en la capa de convolución extraen la entidad de una imagen. Estos pesos también se pueden aprender.
  • Max pool layer ayuda a extraer la característica más importante y también la invariancia espacial (la ubicación de la característica en una imagen no importa). Estas dos capas son muy importantes.
  • Junto con esto, la elección de la función de pérdida adecuada, la arquitectura de red, la tasa de aprendizaje, el optimizador (Adam, SGD, rmsprop, etc.) ayuda a mejorar el rendimiento y la precisión.
  • VGG-16 tiene capas de convolución consecutivas seguidas de una capa de grupo máximo, esta red mejoró la precisión en el conjunto de datos de Imagenet con 1000 clases. La red tiene 16 capas de profundidad (también hay un VGG-19 con 19 capas).
  • Mire – Página de inicio de Visual Geometry Group
  • Además, dado que fue entrenado en un conjunto de datos masivo con 1000 clases, habría aprendido a extraer características apropiadas de una imagen. Por lo tanto, muchos investigadores utilizan los pesos de modelos previamente entrenados para muchas aplicaciones que utilizan el aprendizaje por transferencia.
  • Por lo tanto, es la arquitectura de red (convolución, capas de grupo máximo) y varios hiperparámetros en su conjunto lo que determina la precisión cuando se aplica a varias aplicaciones.

No, las CNN son muy útiles cuando tiene datos estructurados y cuando crea modelos secuenciales. Desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural, las CNN pueden manejar todo. La función de pérdida se usa en todo el aprendizaje automático para verificar qué tan eficientes están trabajando sus clasificadores. Las funciones de activación se utilizan en redes metálicas completas para no linealidad en neural neural. Nada es específico de CNN. Tendrás que cuidar los hiperparámetros para entrenar bien a los NN.

Por favor suscríbase a

https://www.youtube.com/channel/

Espero que responda todas sus consultas.
Cubre aprendizaje automático, aprendizaje profundo, PNL, visión por computadora. Todos los marcos de aprendizaje profundo están cubiertos Tensorflow, keras, pytorch. Las redes neuronales como RNN, CNN, GAN se han detallado en el debate. Las competiciones de Kaggle también están incluidas.
Buena suerte

More Interesting

¿Es posible tener experiencia en desarrollo web, desarrollo de Android, resolución de problemas, IA y ML para tener un buen trabajo, o solo necesito concentrarme en un campo y no fusionar campos?

¿Mejor ejecución de trabajos de Machine Learning directamente desde Pyspark o integración de scikit-learn en, a través del método de paralelización SparkContext?

¿Es posible asegurar trabajos solo en base a la experiencia en aprendizaje automático sin ser un ingeniero de software adecuado?

¿Hay algún profesor actual en Asia que tenga un historial con Bayesian no paramétrico, tanto en teoría como en aplicación?

¿Qué herramientas matemáticas puedes usar para analizar el comportamiento de las redes neuronales en el tiempo?

¿Dónde se pueden encontrar videos de Udacity Machine Learning Nanodegree gratis?

Yoshua Bengio: ¿cuáles son las preguntas abiertas más importantes en el aprendizaje profundo?

¿Hay alguna manera fácil de configurar AWS para el aprendizaje profundo con Tensorflow y Keras?

¿Cuál es la diferencia entre el descenso en gradiente y el descenso coordinado?

Cómo crear una representación jerárquica de un conjunto de objetos usando una red neuronal

¿Qué curso se sugiere para el aprendizaje automático que sea más un curso basado en proyectos?

¿Necesita ser un buen ingeniero de software para trabajar en cosas como visión por computadora, reconocimiento de voz, gráficos por computadora, aprendizaje automático?

¿Por qué la distribución previa no tiene mucho impacto en la distribución posterior cuando tenemos muchos datos?

¿Cuál es el mejor método para la reducción de dimensionalidad y la selección / extracción de características en datos de espectrometría de masas?

¿Cuál es la mejor extracción de características de un conjunto de datos de imágenes?