¿Siempre? ¡No!
Primero, como se menciona en los detalles de la pregunta, las conferencias de PNL (y también las conferencias de visión) ahora están fuertemente dominadas por el aprendizaje profundo. Pero eso no significa necesariamente que el aprendizaje profundo sea el mejor método disponible. Claramente, hay un sesgo de observación aquí: el aprendizaje profundo es una tendencia, por lo que si escribe un documento que muestre que el aprendizaje profundo funciona mejor que los métodos convencionales, podrá publicarlo con bastante facilidad. Por otro lado, si escribe un documento que muestra que los métodos convencionales superan el aprendizaje profundo en alguna tarea, sería muy difícil publicar eso.
En segundo lugar, el aprendizaje profundo tiene sus limitaciones: no funciona con pequeños conjuntos de datos, necesita muchos recursos computacionales para capacitarse, es menos interpretable, etc.
- ¿Qué es una explicación intuitiva de la convolución 1 × 1 en ConvNets?
- ¿Cómo se puede usar el aprendizaje profundo para la detección de eventos anormales en los videos?
- ¿Qué herramienta es mejor para aprender una red neuronal AI, C ++ o MATLAB?
- ¿Cómo se calcula el subconjunto de vocabulario en 'Al usar vocabulario de objetivos muy grandes para la traducción automática neuronal'?
- ¿Es el análisis de datos funcionales simplemente renombrado análisis wavelet en estadísticas?
Dicho esto, tampoco creo que el aprendizaje profundo sea una “moda pasajera”. Supongo que tendremos métodos en el futuro que usarán métodos convencionales (muy probablemente desarrollados más adelante), con módulos de aprendizaje profundo dentro de ellos, al igual que en AlphaGo.
Respuesta relacionada: la respuesta de Prasoon Goyal a ¿Por qué todavía se usa SVM en el aprendizaje automático cuando las redes neuronales son mucho más precisas?