(También puede leer la versión en español de esta respuesta aquí)
Identificar los 10 algoritmos principales en el resumen es un ejercicio bastante complicado a menos que haya una dimensión clara para hacer la comparación. ¿Popularidad? ¿Utilidad? Mérito de la investigación? Permítanme abordar esto desde un punto de vista bastante subjetivo: si lo estuviera entrevistando para un puesto de Data Mining, ¿cuáles serían los 10 algoritmos principales que esperaría que supiera en orden de prioridad?
- Regresión lineal
- Regresión logística
- k-significa
- SVM
- Conjuntos de árboles que incluyen bosques aleatorios y árboles / máquinas de decisión potenciados por gradientes
- Factorización matricial / SVD
- Bayes ingenuos
- Redes neuronales artificiales
- Para los dos últimos, te dejaría elegir entre los siguientes:
- Redes neuronales profundas (redes convolucionales o recurrentes)
- Redes elásticas
- Cualquier otro agrupamiento de algo además de k-means
- LDA
- HDP u otro modelo no paramétrico bayesiano
- Redes Bayesianas
- Campos aleatorios condicionales
Una vez más, una lista bastante subjetiva, pero creo que es bastante representativa de lo que necesita hacer un trabajo de minería de datos real en la industria.
- Cómo comenzar a aprender y codificar Inteligencia Artificial
- ¿Puedo comenzar a aprender el aprendizaje automático y el aprendizaje profundo sin repasar primero mis conocimientos de matemáticas?
- ¿En qué casos tengo que usar un entorno distribuido y en qué casos no?
- ¿Existe una lista de conferencias de minería de datos / aprendizaje automático organizadas en los Estados Unidos?
- Con respecto al descenso de gradiente funcional, ¿qué significa minimizar un funcional con respecto a una función? Proporcione un ejemplo claro.