¿Tiene sentido la regularización (L2, abandono, etc.) alguna vez para datos muy ruidosos, pero también abundantes, como series de tiempo financieras?

Que tiene sentido. Porque la idea en el aprendizaje profundo es no tener datos más grandes de lo que una red puede manejar. Todo lo contrario: la idea es tener un modelo que tenga una capacidad mayor que suficiente para hacer generalizaciones en un conjunto de datos dado. Esto significa que, idealmente, su red debería ser lo suficientemente grande como para ajustarse en exceso a su conjunto de datos. Una vez que esté seguro de que la red puede ajustarse en exceso a su conjunto de entrenamiento, debe introducir la regularización l2 (u otro tipo de) para optimizar el proceso de entrenamiento.

Pero a veces, si el conjunto de datos es demasiado grande y sus recursos de hardware o el tiempo no es suficiente para usar una red lo suficientemente grande como para sobreajustar, puede ser razonable omitir la regularización, con el riesgo de tener resultados subóptimos. Simplemente verifique las curvas de aprendizaje de los conjuntos de capacitación y validación sin regularización. Si hagas lo que hagas, no ves un ajuste excesivo, entonces usar la regularización l2 puede no tener sentido en este caso. Pero el abandono puede intentarse en cualquier caso, porque funciona de manera diferente en comparación con l2. Obliga a las sub partes de la red a aprender mejor al cerrar otras partes.

More Interesting

¿Se pueden mezclar variables categóricas y continuas en una red neuronal simple?

Cómo corregir el sobreajuste

¿Por qué deberíamos considerar muestras negativas en un sistema de recomendación basado en comentarios implícitos?

¿Puede el aprendizaje profundo manejar datos desequilibrados?

¿Cuál es la diferencia entre factorización y parametrización?

¿Cómo ayuda el enfoque ontológico con la clasificación de texto?

Dada una serie de datos de tiempo para la construcción de modelos, ¿cómo divido el conjunto de datos en muestras de capacitación y validación?

¿Por qué el artículo de DeepMind sobre el aprendizaje de refuerzo (jugar juegos de atari) ganó popularidad estelar?

¿Cómo escribirías un programa de aprendizaje automático desde cero?

¿Qué enfoque se recomienda para aprender Machine Learning?

¿Cuáles son las formas previas para el reconocimiento en visión artificial?

¿Cuáles son las formas en que puede aplicar la máquina o el aprendizaje profundo al pirateo?

Cómo configurar las dimensiones de la capa y la conectividad en Caffe para reproducir una CNN a partir de un trabajo de investigación

¿AWS es bueno para ejecutar proyectos de aprendizaje profundo? ¿Qué tan rápido y costoso sería entrenar una red convolucional en aproximadamente 1 millón de imágenes?

¿Es una buena idea dejar el aprendizaje automático después de 2 años y estudiar desarrollo web, si me di cuenta de que no soy tan inteligente para todas esas matemáticas de ML?