” ¿Qué arquitecturas de redes neuronales requieren la menor cantidad de datos de entrenamiento?”
Esta pregunta está muy mal planteada. Por qué ? Vea abajo.
¿La menor cantidad de datos de entrenamiento para saber qué?
- ¿Cómo funcionan exactamente los robots controlados por la mente?
- ¿Cuál es el estado del arte en la música compuesta por computadora?
- ¿Cuál es la controversia sobre la IA?
- ¿La IA no conducirá a una mayor separación de riqueza y distopía? ¿Cómo se puede lograr la alternativa?
- ¿Es artificial la inteligencia artificial?
Todas las decisiones relacionadas con el diseño de arquitecturas de redes neuronales se toman teniendo en cuenta el objetivo de aprendizaje. Esto significa ser consciente de los desafíos del objetivo final de aprendizaje.
Tomemos, por ejemplo, el problema de convertir la temperatura de “grados centígrados” a “grados Farenheit”. Este es un problema demasiado simple y puede usar una red neuronal simple de una capa con dos neuronas para resolver este problema.
Ahora considere el problema de la clasificación de imágenes Imagenet-1K. Para este problema, debe utilizar arquitecturas como Alexnet, OverFeat, ResNet, Inception, etc. Estas arquitecturas varían en la cantidad de parámetros que las componen. Sin embargo, para todos ellos debe usar una gran cantidad de imágenes para lograr resultados aceptables.
Todavía no existe una base teórica de las redes neuronales que pueda decirnos de manera concluyente nada sobre el rendimiento de las redes neuronales en función del número de datos de entrenamiento.
En caso de que estuvieras hablando sobre el número de parámetros en diferentes arquitecturas, la pregunta se vuelve bien planteada.
Para obtener una respuesta a esta versión “bien planteada” del problema, puede consultar el siguiente documento
Canziani, A., Paszke, A. y Culurciello, E., 2016. Un análisis de modelos de redes neuronales profundas para aplicaciones prácticas. preimpresión arXiv arXiv: 1605.07678.