Según usted, ¿cuáles son los algoritmos de aprendizaje automático más importantes en la actualidad?

Quiero que hagas una pregunta. ¿Sobre qué base decidirás la importancia de los algoritmos?

Déjame adivinar, por su rendimiento.

Si juzga la importancia de los algoritmos de aprendizaje automático en función de su rendimiento, entonces nadie conoce dichos algoritmos. Esto se debe a que la mayoría de las veces el rendimiento de los algoritmos de aprendizaje automático se basa en datos, distribución de datos, hiperparámetros que elija, etc. No depende completamente de qué algoritmos elija únicamente.

Aunque aquí hay algunos algoritmos que debes saber si estás en el campo de Machine Learning

  1. Regresión lineal
  2. Regresión logística
  3. Máquinas de vectores soporte
  4. K vecinos más cercanos
  5. K-significa agrupamiento
  6. Análisis de componentes principales
  7. Algoritmo de estimación de densidad
  8. Árbol de decisiones
  9. Bosque al azar

Estos son algunos algoritmos conocidos y famosos de aprendizaje automático.

En el aprendizaje profundo, algunos tipos de redes neuronales son bien conocidos y deben conocerse, tales como

  1. Redes convolucionales
  2. Redes neuronales recurrentes
  3. Lstm

Espero eso ayude.

Algunos conceptos clave incluyen:
Conjuntos (impulso, embolsado, superaprendizaje)
KNN
Reducción de dimensionalidad
Modelos lineales generalizados
Arboles
Homología persistente
Arquitecturas profundas

Tengo una descripción general de los métodos y referencias comunes aquí: https://www.slideshare.net/Colle

¡Este cuadro le brinda una buena descripción general y cubre casi todos los algoritmos que necesita para comenzar! Estoy de acuerdo con las publicaciones anteriores, las redes neuronales son súper tendencia en este momento, especialmente por su alto rendimiento en el reconocimiento de objetos o voz.

Entonces, además de esa guía, ¡puedes agregar redes neuronales recurrentes y convolucionales!

Una posible respuesta a esta pregunta proviene de la documentación de Analytics 1305 [2]:

  • Estimación de densidad de kernel y clasificador de Bayes no paramétrico
  • K-medias
  • Análisis de componentes principales del núcleo
  • Regresión lineal
  • Vecinos (más cercano, más lejano, rango, k, clasificación)
  • Factorización de matriz no negativa
  • Máquinas de vectores de soporte
  • Reducción de dimensionalidad
  • Descomposición rápida del valor singular
  • Árbol de decisión
  • SVM con arranque

Los 11 algoritmos implementados por 11Ants [1] proporcionan otra respuesta potencial para esta pregunta:

  • Árbol de decisión
  • Procesos Gaussianos
  • Regresión logística
  • Logit Boost
  • Árbol modelo
  • Naïve Bayes
  • Vecinos más cercanos
  • PLS
  • Bosque al azar
  • Regresión de cresta
  • Máquinas de vectores soporte

Otra posible respuesta proviene de los algoritmos en Oracle Data Mining [3]

  • Clasificación: regresión logística, ingenuo bayes, SVM, árbol de decisión
  • Regresión: regresión múltiple, SVM
  • Importancia del atributo: MDL
  • Detección de anomalías: SVM de una clase
  • Agrupación: k-means, partición ortogonal
  • Asociación: A Priori
  • Extracción de características: NNMF

Créditos: Jeff Hamerbacher

No creo que exista un algoritmo sin importancia, pero las técnicas de zumbido son Deep Learning (Redes neuronales convolucionales, Redes neuronales recurrentes y sus derivadas variantes). Luego están las nuevas Redes de cápsulas del Dr. Hinton. Cada algoritmo es el más adecuado para algo y no tanto para otro, por lo que decir que un algoritmo no es importante porque tampoco puede hacer reconocimiento de imagen (bayes ingenuos / SVMs vs CNNs) sería injusto porque esos mismos algoritmos pueden hacer otro mejor (en este caso, análisis de texto / clasificación)