¿Podemos regularizar la red neuronal profunda desconectando enlaces entre unidades, en lugar de abandonar unidades seleccionadas al azar?

Salva las neuronas; ¡Mata las conexiones!

Las técnicas de regularización se utilizan para controlar la siempre creciente complejidad de las redes profundas. Algunos dejan neuronas mientras que otros intentan eliminar las conexiones. La red neuronal de convolución es un ejemplo específico de un enfoque centrado en la arquitectura con el mismo fin.

En los cerebros naturales, la relación conexiones-neurona (CNR) tiende a disminuir con el número de neuronas: los cerebros más grandes tienen CNR más bajos. Con ese fin, en los sistemas artificiales, concéntrese en disminuir el número de conexiones (el numerador de la relación); no se preocupe por las neuronas.

Un proceso natural elimina el 25-30% de las conexiones en nosotros los humanos a medida que nos acercamos a la edad adulta. El número de neuronas, sin embargo, se mantiene estable. Mientras entrena redes artificiales, siga la misma estrategia: comience con muchas conexiones; pode el exceso a medida que avanza hacia un error mínimo. Mientras lo hace, si algunas de las neuronas se desperdician, no se preocupe y simplemente tararee “Disparé la conexión, pero no le disparé a la neurona” al son de la canción de Bob Marley.

¡Dispara tus matrices de peso para lograr el nirvana neural!

Para mirar sobre matrices de peso realmente dispersas (94%), visite una red profunda de baja precisión de 8/16 bits

La respuesta directa es sí: lo que buscas es drop-connect =]
Esencialmente, abandonas (o eliminas) los pesos entrantes a cada neurona de una capa determinada en lugar de eliminar las unidades.

http://proceedings.mlr.press/v28

Puede encontrar la página web del artículo aquí:

Red neuronal DropConnect

¡Buena suerte si pretendes reproducir sus resultados o aplicar drop-connect a tu propio problema!

Probablemente puedas, pero que yo sepa, nadie ha realizado un análisis preciso de esa técnica.