Seguro. Esto se explicó bastante bien en una charla reciente de Hinton (no puedo encontrar el enlace). Parafraseando a Hinton:
Una forma segura de mejorar el rendimiento es construir un conjunto de modelos y utilizar técnicas combinadas como ROVER (rover). La gente ha ganado competiciones de ML usando tales técnicas durante mucho tiempo.
Entonces, en lugar de un DNN, podría entrenar, digamos, 10 DNN diferentes (con variaciones sutiles quizás) utilizando la misma cantidad de datos y combinar los resultados. Entonces, ahora tiene 10 veces la cantidad de parámetros del modelo con un rendimiento mejorado y el mismo tamaño de muestra de datos. Continúa argumentando que la regularización del abandono consiste básicamente en aprender [matemática] 2 ^ H [/ matemática] diferentes modelos ([matemática] H [/ matemática] es el tamaño de la capa oculta) con parámetros compartidos y la salida es la media geométrica de estos modelos
- Cómo predecir el estrés de palabras mediante el aprendizaje automático
- Para la Universidad de Purdue, ¿debo hacer Ciencias de la Computación o Ciberseguridad si planeo hacer Ciberseguridad después de la universidad?
- ¿Vale la pena hacer M.Tech en informática de una universidad india?
- Si existiera inteligencia extraterrestre, ¿cómo piratearías su tecnología avanzada?
- ¿Qué es mejor para la informática: la Escuela de Ingeniería USC Viterbi o la Universidad de Washington?