Puede intentarlo, pero si la red se dimensionó de manera sensata, eso no debería funcionar bien. En una red de feedfoward normal sin recurrencia ni derivación, cada capa codifica una representación completa de los datos, adecuada para la tarea que está tratando de resolver. Si elimina unidades, interrumpirá esa representación de maneras bastante impredecibles. Podrías intentar hacerlo bien, tal vez observando neuronas con pesos de entrada y salida similares y “fusionándolos” combinando los pesos de alguna manera, pero no tengo idea de si realmente funcionaría mejor que eliminar neuronas al azar (es solo una idea de mi cabeza, no tengo idea si ya se había probado).
El enfoque opuesto, eliminar las capas superiores, es más sensible y bastante común. Por ejemplo, hay algunos trabajos publicados que comienzan desde la famosa red VGG 16 (que tiene 16 capas, fue entrenada en el conjunto de datos ImageNet durante varias semanas usando muchas GPU Nvidia Titan X por el Cambridge Visual Geometry Group, que amablemente hizo los pesos públicamente disponible en línea), elimine las capas superiores, reemplácelas por otra cosa y capacite a la red modificada en otra tarea.
- ¿Cómo se puede hacer la experimentación de aprendizaje profundo en una PC en casa?
- ¿En qué tipos de búsqueda falla más claramente Google? ¿Y qué vías y sitios abordan estos problemas mejor o más prometedora?
- ¿Por qué los modelos basados en árboles son robustos para los valores atípicos?
- ¿Qué significa "tomar la media geométrica de la distribución predictiva producida por las redes de abandono exponencialmente numerosas" en redes neuronales profundas?
- ¿Cuáles son las mejores universidades para estudiar visión artificial con un enfoque en aprendizaje profundo?