¡Absolutamente no! Al menos no siempre. Lo estoy haciendo ahora mismo. En mi problema, tengo una imagen de 384 × 256 y necesito extraer información de movimiento muy compleja (una imagen en 3D pasa por una deformación no rígida y luego se proyecta en 2D y, para usarla, necesito reconstruir la imagen en 3D). Las CNN son excelentes para la mayoría de los datos de imágenes, pero cosas como el paso y la agrupación pierden muchos datos de movimiento. En cambio, estoy rompiendo la imagen en 96 parches 32 × 32 y entrenando una red simple en cada uno de ellos. Luego estoy aplicando un modelo lineal además de eso en lugar de simplemente promediar porque los parches son adyacentes y, por lo tanto, tendrán errores correlacionados.
Los parches individuales tienden a funcionar bastante bien en promedio, pero a veces pueden estar muy lejos. Al usar un conjunto de 96 de ellos, paso de un promedio de aproximadamente 10% de error a menos de .5% de error.
De acuerdo, supongo que es diferente porque mis redes se ejecutan con datos diferentes, pero aun así, el concepto es válido.
- ¿Cuáles son los beneficios del filtrado colaborativo?
- ¿Qué algunos documentos sobre desafíos en predicción financiera con técnicas de aprendizaje automático?
- Cómo calcular un puntaje usando la prueba de relación de distancia al vecino más cercano en MATLAB
- ¿Por qué es tan difícil automatizar la inferencia variacional?
- ¿Alguien ha intentado utilizar motores de recomendación y alguna forma de filtrado colaborativo para destacar agujeros en el mercado y producir conceptos para un mayor desarrollo en los productos?
En términos más generales, puede encontrar que puede obtener el mismo poder predictivo que una red mucho más profunda y compleja mediante el uso de un conjunto de redes más superficiales y rápidas. También ayuda mucho a prevenir el sobreajuste. Es similar a lo que son los bosques aleatorios para los árboles de decisión.