Los métodos del kernel son prácticamente obsoletos, pero sus matemáticas aún brillan y vale la pena echarle un vistazo.
Los métodos del kernel no solo son prácticamente obsoletos debido a su rendimiento predictivo inferior en comparación con el aprendizaje profundo, sino también porque requieren mucha ingeniería de características y porque están severamente limitados por las dimensiones de los datos.
Mi amigo me estaba contando acerca de sus dolores de cabeza al obtener una tubería de máquina de vectores de soporte que funcionaba con datos de EGG, donde su tarea era clasificar los datos de EGG en dos grupos: (1) Personas sanas o (2) personas con enfermedades cardíacas. Jugó con los datos durante muchas horas y fue paso a paso a lo largo de la tubería de ingeniería de características que es habitual en ese campo (se sabía que su profesor era un experto en este asunto y le recomendó que hiciera estos pasos para obtener buenos resultados) . Finalmente consiguió que todo funcionara, y después de 30-45 minutos de entrenamiento en máquinas de vectores de soporte, recuperó los resultados: aproximadamente 95% de precisión.
- ¿Por qué se le da tanta atención a xgboost que al aprendizaje profundo a pesar de su ubicuidad en ganar soluciones de Kaggle?
- ¿Por qué el libro de Murphy dice en el clasificador generativo que no tenemos que volver a entrenar el modelo cuando agregamos más clases?
- ¿Cuál es la relación entre el modelo Log Linear, el modelo MaxEnt y la regresión logística?
- Cómo predecir cuándo ocurrirá el próximo evento (tiempo) usando variables cuantitativas independientes
- ¿Cuál es el mejor libro para aprender el pensamiento algorítmico?
Luego estaba desempacando su caja de herramientas de aprendizaje profundo. Rápidamente escribió un guión en Keras con una red convolucional y acaba de cargar los datos sin procesar de la serie temporal. Escribir ese guión le llevó unos 5 minutos. Después de 30 segundos de entrenamiento, el rendimiento se estabilizó con una precisión del 99.5%.
El aprendizaje profundo es muy simple de usar y la mayoría de las veces proporciona buenos resultados. Intente utilizar una máquina de vectores de soporte en gigabytes de datos y no será tan feliz; por el contrario, eso no sería un problema para los algoritmos de aprendizaje profundo.
Sin embargo, la matemática de los métodos del núcleo es bastante valiosa para saber. No solo se usa en el aprendizaje automático, sino también en el dominio relacionado de las estadísticas (estimación de densidad del núcleo). Un concepto importante que uno debe conocer es el truco del núcleo, donde se calcula implícitamente la similitud entre los vectores en el espacio de alta dimensión, de modo que se obtiene la similitud en este espacio de alta dimensión sin expandir los datos en este espacio de alta dimensión en el primer lugar. Esto ahorra muchos cálculos.
Más allá de eso, los métodos del núcleo pueden reaparecer más tarde en combinación con el aprendizaje profundo. Sin embargo, si observa el campo del aprendizaje profundo, puede estar bastante seguro de que otros métodos nuevos probablemente serán más importantes que el resurgir de los métodos del núcleo en combinación con el aprendizaje profundo.