Todo este campo del aprendizaje automático es muy amplio y decentemente profundo. Sin embargo, las personas que comienzan de nuevo no deben sentirse abrumadas. Aquellos que están haciendo estas cosas por más tiempo deben aumentar el ancho y la profundidad de sus conocimientos de dos profesores realmente buenos: Home – Andrew Ng y Nando de Freitas.
Puede consultar algunas de mis otras respuestas sobre Python / Machine Learning / Deep learning en el siguiente.
- La respuesta de Rohit Malshe a ¿Cómo puedo convertirme en un científico de datos?
- La respuesta de Rohit Malshe a ¿Cómo un principiante total comienza a aprender el aprendizaje automático si tiene algún conocimiento de los lenguajes de programación?
- La respuesta de Rohit Malshe a ¿Qué es el aprendizaje profundo? ¿Por qué es esta una tendencia creciente en el aprendizaje automático? ¿Por qué no usar SVM?
Los algoritmos de aprendizaje automático se pueden ejecutar en conjuntos. A continuación, se incluyen algunos muy buenos que me han funcionado para la mayoría de los datos de texto:
RandomForestClassifier (n_jobs = -1, criterio = 'gini')
AdaBoostClassifier ()
ExtraTreesClassifier (n_jobs = -1)
KNeighboursClassifier (n_jobs = -1)
DecisionTreeClassifier ()
ExtraTreeClassifier ()
Regresión logística()
GaussianNB ()
BernoulliNB ()
elasticNet.fit ()
La lista completa está aquí, y puede leer sobre ellos sistemáticamente en el sitio web de Ski-kit learn: scikit-learn: machine learning en Python
1.1. Modelos lineales generalizados
1.1.1. Mínimos cuadrados ordinarios
1.1.2. Regresión de cresta
1.1.3. Lazo
1.1.4. Lazo multitarea
1.1.5. Red elástica
1.1.6. Red elástica multitarea
1.1.7. Regresión de ángulo mínimo
1.1.8. LARS Lasso
1.1.9. Persecución ortogonal a juego (OMP)
1.1.10. Regresión Bayesiana
1.1.11. Regresión logística
1.1.12. Descenso de gradiente estocástico – SGD
1.1.13. Perceptrón
1.1.14. Algoritmos pasivos agresivos
1.1.15. Regresión de robustez: valores atípicos y errores de modelado
1.1.16. Regresión polinómica: extensión de modelos lineales con funciones básicas.
1.2. Análisis discriminante lineal y cuadrático
1.2.1 Reducción de dimensionalidad utilizando análisis discriminante lineal
1.2.2. Formulación matemática de los clasificadores LDA y QDA.
1.2.3 Formulación matemática de reducción de dimensionalidad LDA
1.2.4. Contracción
1.2.5 Algoritmos de estimación
1.3. Regresión de cresta del núcleo
1.4. Máquinas de vectores de soporte
1.4.1. Clasificación
1.4.2. Regresión
1.4.3. Estimación de densidad, detección de novedad.
1.4.4. Complejidad
1.4.5. Consejos sobre uso práctico
1.4.6. Funciones del núcleo
1.4.7. Formulación matemática
1.5. Descenso de gradiente estocástico
1.5.1. Clasificación
1.5.2. Regresión
1.5.3. Descenso de gradiente estocástico para datos escasos
1.5.4. Complejidad
1.5.5. Consejos sobre uso práctico
1.5.6. Formulación matemática
1.5.7. Detalles de implementacion
1.6. Vecinos más cercanos
1.6.1. Vecinos más cercanos sin supervisión
1.6.2. Clasificación de vecinos más cercanos
1.6.3. Regresión de vecinos más cercanos
1.6.4. Algoritmos de vecinos más cercanos
1.6.5. Clasificador Centroide más cercano
1.6.6. Vecinos aproximados más cercanos
1.7. Procesos Gaussianos
1.7.1. Regresión Gaussiana del Proceso (GPR)
1.7.2. Ejemplos de GPR
1.7.3. Clasificación Gaussiana de Procesos (GPC)
1.7.4. Ejemplos GPC
1.7.5. Granos para procesos gaussianos
1.7.6. Procesos gaussianos heredados
1.8. Descomposición cruzada
1.9. Bayes ingenuos
1.9.1. Bayes ingenuos gaussianos
1.9.2. Bayes ingenuos multinomiales
1.9.3. Bernoulli Naive Bayes
1.9.4. Ajuste ingenuo del modelo Bayes fuera de núcleo
1.10. Árboles de decisión
1.10.1. Clasificación
1.10.2. Regresión
1.10.3. Problemas de salida múltiple
1.10.4. Complejidad
1.10.5. Consejos sobre uso práctico
1.10.6. Algoritmos de árbol: ID3, C4.5, C5.0 y CART
1.10.7. Formulación matemática
1.11. Métodos de conjunto
1.11.1. Metaestimulador de ensacado
1.11.2. Bosques de árboles aleatorizados.
1.11.3. AdaBoost
1.11.4. Mejora del árbol de gradiente
1.11.5. VotingClassifier
1.12. Algoritmos multiclase y multilabel
1.12.1. Formato de clasificación de múltiples etiquetas
1.12.2. One-Vs-The-Rest
1.12.3. Uno contra uno
1.12.4. Códigos de salida de corrección de errores
1.12.5. Regresión de salida múltiple
1.12.6. Clasificación de salida múltiple
1.13. Selección de características
1.13.1. Eliminar características con baja varianza
1.13.2. Selección de características univariadas
1.13.3. Eliminación de características recursivas
1.13.4. Selección de funciones usando SelectFromModel
1.13.5. Selección de características como parte de una tubería
1.14. Semi-supervisado
1.14.1. Propagación de etiquetas
1.15. Regresión isotónica
1.16. Calibración de probabilidad
1.17. Modelos de redes neuronales (supervisadas)
1.17.1. Perceptrón multicapa
1.17.2. Clasificación
1.17.3. Regresión
1.17.4. Regularización
1.17.5. Algoritmos
Para un aprendizaje profundo, debes seguir a Keras. Se describe en la publicación anterior, y también se ha mostrado un código de Python.
¡Sigue siendo bendecido e inspirate!