Creo que la mejor guía para elegir una arquitectura de red neuronal sería asegurarse de que la estructura con la que termina pueda representar el conocimiento que desea capturar o la decisión que desea tomar.
La profundidad significa más riqueza en la representación del conocimiento jerárquico. Entonces, comenzaría con algo lo suficientemente grande como para representar datos complejos y tomar decisiones de la representación.
Entonces, supongamos que su arquitectura es demasiado grande, demasiadas capas, núcleos demasiado grandes o lo que sea. No le importa mientras pueda permitirse el tiempo de computación. ¿Por qué? Porque cuando coloca componentes superfluos en la red, el proceso de capacitación se asegurará de que los coeficientes de los componentes se capaciten para que la red pueda producir buenos resultados de todos modos.
- ¿Cómo podemos estimar múltiples parámetros de un clasificador?
- Cómo encontrar la correlación más fuerte entre los vectores de colores a continuación en MATLAB o Python
- ¿Cuál es el mejor marco de minería de datos?
- ¿Tiene sentido la regularización (L2, abandono, etc.) alguna vez para datos muy ruidosos, pero también abundantes, como series de tiempo financieras?
- ¿Cuáles son los 10 mejores algoritmos de minería de datos o aprendizaje automático? En 2006, la Conferencia IEEE sobre minería de datos identificó los 10 algoritmos principales. ¿Siguen siendo válidos?
El problema inverso no se resolverá tan fácilmente, es decir, tener una estructura incapaz de representar la decisión que debe tomar. Por lo tanto, cuando alcanza un resultado satisfactorio utilizando su gran red, puede comenzar a reducir la arquitectura e intentar acelerar el entrenamiento y también avanzar hacia la red.
¿Tiene sentido?