Yo diría que depende del grupo.
Para los grupos de investigación académicos / privados en PNL, CV y DL que publican mucho (por ejemplo, FAIR, Google Research, Amazon, Microsoft, etc.), lo ven como un ejercicio de juguete y no muy interesante. Esto se debe en gran parte al hecho de que la ingeniería de características es esencialmente el aprendizaje automático aplicado y el enfoque de Kaggle (que agrupa muchos modelos grandes) no proporciona una guía extraordinaria para los algoritmos de aprendizaje.
Ahora, en los grupos de ciencia de datos más aplicados (tal vez minería de datos) en varias instituciones (tanto privadas como académicas), la comunidad de Machine Learning verá a Kaggle como genial. Dado que Kaggle es un gran lugar para usar algoritmos preempaquetados en problemas aplicados.
- ¿La asignación de Dirichlet latente es un modelo paramétrico o no paramétrico?
- ¿Cuál es la mejor estimación para la existencia de una máquina del tiempo?
- ¿Qué es el procesamiento del lenguaje natural?
- ¿Por qué estudiar el procesamiento del lenguaje natural?
- ¿Cuál es mejor, el aprendizaje automático de Stanford en Coursera o un nanogrado Udacity?
En mi opinión, Kaggle y similares son excelentes para aprender a trabajar con datos, jugar con diferentes algoritmos de aprendizaje (preempaquetados) y probar trucos interesantes, pero no es representativo de la investigación académica en Machine Learning, que (entre muchos, muchas otras cosas) se centra en crear / descubrir algoritmos que hacen que la función aprenda automáticamente.
NB, debo señalar que hay algunos subcampos de ML académico que se centran en tareas de minería de datos.