Yo diría que depende de la naturaleza de su problema. En general, las grandes redes neuronales convolucionales necesitan una gran cantidad de muestras para entrenarse, si las entrenas desde cero. Por lo tanto, hasta ese punto, no es eficiente para problemas de alta muestra de bajo tamaño de muestra. Sin embargo, supongamos que ya tiene una red neuronal convolucional capacitada y que desea ajustarla para resolver un problema similar (aprendizaje de transferencia). En este caso, si trabaja con la conocida red VGG16, el tamaño de entrada predeterminado es 224 * 224 píxeles y 3 canales, de modo que su tamaño de entrada (p) será 150528 (digamos 224 * 224 = 50176 si solo consideramos 1 canal de entrada). Según mi experiencia, puede lograr un buen rendimiento para algunos tipos de problemas con una cantidad de muestras mucho más pequeñas que 150528 (o incluso 50176) en el caso específico del aprendizaje por transferencia.
¿Qué tan útil es el aprendizaje profundo para problemas P> N?
Related Content
Como principiante en Deep Learning hoy, ¿qué marco debo usar?
¿Qué es una comprensión intuitiva del análisis factorial?
¿Qué herramienta es mejor para aprender una red neuronal AI, C ++ o MATLAB?
More Interesting
¿Qué son los componentes del procesamiento del lenguaje natural?
Cómo implementar clustering basado en densidad
¿El gradiente sintético eliminará la propagación hacia atrás?
Cómo descargar el conjunto de datos para el resumen de texto extractivo
¿Son las preguntas el verdadero punto de partida del análisis de Big Data?
¿Cuáles son algunas de las limitaciones o inconvenientes de las redes neuronales convolucionales?
¿Qué redes neuronales se han diseñado para leer los labios?
Cómo construir un motor de recomendación en tiempo real
¿Qué son los núcleos de difusión?
¿Para qué sirve el aprendizaje automático o la inteligencia artificial?