La pregunta es sobre “la aplicación más común al atacar un problema”, por lo que responderé en base a eso:
Problemas de clasificación y regresión:
– XGBoost es, en el momento de mi respuesta, el algoritmo que generalmente da los mejores resultados. Puedes comprobar eso en las últimas competiciones de Kaggle donde XGBoost se usa ampliamente.
- ¿Cuáles son los conceptos empleados en esta charla TED? Video en los detalles.
- Si en 2024 alguien pone a un bebé con un traje y una máscara de realidad virtual (Tierra), ¿son reales las personas y los animales con IA?
- ¿Cuáles son ejemplos del mundo real de sistemas de múltiples agentes?
- ¿Cuál es la mejor manera de aprender IA y aprendizaje automático con muchas manos en 2-3 meses (a tiempo completo)?
- ¿Cuáles crees que serán las mayores aplicaciones comerciales de IA en los próximos 5 años?
– Bosques aleatorios : tienden a funcionar un poco peor que XGboost, pero se usan ampliamente en la industria porque son muy fáciles de implementar y dan buenos resultados para muchos problemas.
– SVM : casi los omití, pero tienen muchas variantes útiles y, para algunos problemas, siguen siendo probablemente su mejor primera opción, como la clasificación de texto.
Clasificación de imagen:
– Redes neuronales convolucionales : algoritmo de vanguardia de facto. Si quieres saber si tu jpg 64 × 64 es una ballena o un tigre, esto es lo tuyo.
Agrupamiento:
– K-Means , viejo pero nunca muere, lo verás utilizado en la mayoría de las aplicaciones de agrupamiento en la industria. Por lo general, hay mejores alternativas en precisión y velocidad, pero a nadie realmente le importa.
– HDBScan : un “nuevo” algoritmo que es realmente bueno para detectar grupos de diferentes tamaños y densidades.
Sistemas de recomendación:
– Filtrado colaborativo : siempre parte del sistema de una forma u otra.
– SVD ++ : desde el concurso de Netflix, este método se ha convertido en estándar para detectar características latentes y siempre es una forma de mejorar los resultados en un recomendación. Tenga en cuenta que esto no tiene nada que ver con la SVD, excepto el nombre.
Reducción de dimensionalidad:
– SVD , siempre la primera opción. (PCA es lo mismo, de verdad)
– NMF , cuando la base que necesita no es lo que le proporciona la SVD.
Representación:
– Deep Autoencoders : una parte clave de varios sistemas de aprendizaje profundo y una de las mejores formas de encontrar el mejor conjunto de características para representar un conjunto de datos.
– Filtrado escaso : una buena alternativa que es menos costosa desde el punto de vista computacional.
– Hash Kernels : esto es realmente rápido y generalmente sorprende con muy buenos resultados.
Visualización:
– T-SNE : estado del arte para visualizar conjuntos de datos multidimensionales en 2 o 3 dimensiones.
Series de tiempo y secuencias:
– LSTM : los LSTM son redes neuronales recurrentes con la capacidad de “recordar” cosas del pasado, son el estado del arte en cosas como el análisis de sentimientos.
Un poco de todo:
– Redes MCMC y bayesianas: pueden volverse complejas, pero en teoría cualquier cosa puede resolverse con un buen análisis bayesiano y su navaja suiza: MCMC.
Creo que si verificamos las últimas 50 soluciones ganadoras de Kaggle, encontrará la mayoría de los algoritmos utilizados en esta lista y es por eso que creo que puede ser una buena compilación de los algoritmos que se usan comúnmente para atacar un problema.
Gracias por solicitar mi respuesta, espero que sea de ayuda.
Luis.