Yo diría que ha sido popularizado por el paquete gbm R y la implementación de Python, que son comúnmente utilizados por científicos informáticos e ingenieros de software que se aventuran en la ciencia de datos. Tiendo a favorecer a los alumnos de base lineal o modelos spline, ya que son más interpretables.
Creo que la falta de antecedentes estadísticos sólidos está contribuyendo a este problema, ya que muchos cursos de estadística de nivel de posgrado detallan la elección de un alumno base particular dentro de marcos de refuerzo y embolsado con respecto a la teoría y la práctica. Muchos bootcamps y tutoriales en línea solo miran el modelado estadístico y enumeran algunos paquetes para implementar los algoritmos. Por lo tanto, pocas personas que se autodenominan “científicos de datos” realmente conocen las matemáticas detrás de los algoritmos o leen los documentos reales que desarrollan esos algoritmos. Esto es necesario para jugar con las partes del algoritmo, como la elección de los alumnos de base.
- ¿Cuáles son los lenguajes de programación básicos para aprendizaje automático, inteligencia artificial y big data?
- ¿Es obligatorio aprender el lenguaje R para el aprendizaje automático o Python es suficiente?
- ¿Cuáles son las características importantes para el análisis de sentimientos basado en aspectos en el enfoque de aprendizaje automático? ¿Qué algoritmos se pueden usar para extraer estas características?
- ¿Existen aplicaciones para bandidos multi armados en el campo de aprendizaje profundo?
- ¿Cuál es el mejor software para implementar algoritmos de aprendizaje automático / minería de datos a gran escala?