Los algoritmos de aprendizaje automático se pueden dividir en 3 grandes categorías: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje de refuerzo. El aprendizaje supervisado es útil en los casos en que una propiedad ( etiqueta ) está disponible para un determinado conjunto de datos (conjunto de capacitación ), pero falta y debe predecirse para otras instancias. El aprendizaje no supervisado es útil en los casos en que el desafío es descubrir relaciones implícitas en un conjunto de datos sin etiquetar (los elementos no se asignan previamente). El aprendizaje de refuerzo se encuentra entre estos dos extremos: hay alguna forma de retroalimentación disponible para cada paso o acción predictiva, pero no hay una etiqueta precisa o mensaje de error.
Aprendizaje supervisado
1. Árboles de decisión : un árbol de decisión es una herramienta de apoyo a la decisión que utiliza un gráfico o modelo de decisiones en forma de árbol y sus posibles consecuencias, incluidos los resultados de eventos fortuitos, los costos de recursos y la utilidad.
- ¿Cuáles son algunas implementaciones geniales de aprendizaje automático?
- ¿Por qué la traducción automática neuronal a nivel de caracteres es más difícil que la traducción automática neuronal a nivel de palabra?
- ¿Cuáles son algunos métodos de aprendizaje automático supervisados y no supervisados para trabajar con conjuntos de datos que tienen características muy grandes y un bajo número de muestras?
- Inferencia bayesiana: si tuviera que trazar un millar de correos electrónicos basados en "spaminess" utilizando un algoritmo simple de Naive Bayes para establecer la probabilidad de "spaminess" para el eje x, ¿cuál debería ser mi eje y?
- ¿Cómo decide Gmail si un correo electrónico es promocional?
Un árbol de decisión es el número mínimo de preguntas de sí / no que uno tiene que hacer, para evaluar la probabilidad de tomar una decisión correcta, la mayoría de las veces. Como método, le permite abordar el problema de una manera estructurada y sistemática para llegar a una conclusión lógica.
2. Clasificación Naïve Bayes : Los clasificadores Naïve Bayes son una familia de clasificadores probabilísticos simples basados en la aplicación del teorema de Bayes con fuertes supuestos de independencia (ingenuos) entre las características. La imagen presentada es la ecuación: con P (A | B) es la probabilidad posterior, P (B | A) es la probabilidad, P (A) es la probabilidad previa de clase y P (B) es la probabilidad previa del predictor.
Algunos ejemplos del mundo real son:
- Para marcar un correo electrónico como spam o no spam
- Clasificar un artículo de noticias sobre tecnología, política o deportes.
- ¿Verifica un texto que expresa emociones positivas o negativas?
- Utilizado para el software de reconocimiento facial.
3. Regresión de mínimos cuadrados ordinarios : si conoce estadísticas, probablemente haya oído hablar de regresión lineal antes. Mínimos cuadrados es un método para realizar regresión lineal. Puede pensar en la regresión lineal como la tarea de ajustar una línea recta a través de un conjunto de puntos. Hay varias estrategias posibles para hacer esto, y la estrategia de “mínimos cuadrados ordinarios” es así: puede dibujar una línea y luego, para cada uno de los puntos de datos, medir la distancia vertical entre el punto y la línea, y sumarlos. ; la línea ajustada sería aquella donde esta suma de distancias es lo más pequeña posible.
Lineal se refiere al tipo de modelo que está utilizando para ajustar los datos, mientras que los mínimos cuadrados se refieren al tipo de métrica de error que está minimizando.
4. Regresión logística : la regresión logística es una forma estadística poderosa de modelar un resultado binomial con una o más variables explicativas. Mide la relación entre la variable dependiente categórica y una o más variables independientes mediante la estimación de probabilidades utilizando una función logística, que es la distribución logística acumulativa.
En general, las regresiones se pueden usar en aplicaciones del mundo real como:
- Puntuacion de credito
- Medir las tasas de éxito de las campañas de marketing.
- Predecir los ingresos de un determinado producto.
5. Máquinas de vectores de soporte : SVM es un algoritmo de clasificación binario. Dado un conjunto de puntos de 2 tipos en lugar de N dimensiones, SVM genera un hiperlano (N – 1) dimensional para separar esos puntos en 2 grupos. Digamos que tiene algunos puntos de 2 tipos en un documento que son linealmente separables. SVM encontrará una línea recta que separa esos puntos en 2 tipos y está situada lo más lejos posible de todos esos puntos.
Aprendizaje sin supervisión
6. Algoritmos de agrupación : la agrupación es la tarea de agrupar un conjunto de objetos de modo que los objetos en el mismo grupo ( agrupación ) sean más similares entre sí que con los de otros grupos.
Cada algoritmo de agrupación es diferente, y aquí hay un par de ellos:
- Algoritmos basados en centroides
- Algoritmos basados en conectividad
- Algoritmos basados en densidad
- Probabilístico
- Reducción de dimensionalidad
- Redes neuronales / aprendizaje profundo
7. Análisis de componentes principales : PCA es un procedimiento estadístico que utiliza una transformación ortogonal para convertir un conjunto de observaciones de variables posiblemente correlacionadas en un conjunto de valores de variables no correlacionadas linealmente llamadas componentes principales.
Algunas de las aplicaciones de PCA incluyen compresión, simplificación de datos para facilitar el aprendizaje, la visualización. Tenga en cuenta que el conocimiento del dominio es muy importante al elegir si desea continuar con PCA o no. No es adecuado en casos donde los datos son ruidosos (todos los componentes de PCA tienen una variación bastante alta).
8. Descomposición de valores singulares : en álgebra lineal, SVD es una factorización de una matriz compleja real. Para una matriz m * n M dada, existe una descomposición tal que M = UΣV, donde U y V son matrices unitarias y Σ es una matriz diagonal.
PCA es en realidad una aplicación simple de SVD. En la visión por computadora, los algoritmos de reconocimiento de la primera cara utilizaron PCA y SVD para representar caras como una combinación lineal de “caras propias”, hacer reducción de dimensionalidad y luego unir caras con identidades mediante métodos simples; Aunque los métodos modernos son mucho más sofisticados, muchos aún dependen de técnicas similares.
9)
9. Análisis de componentes independientes : ICA es una técnica estadística para revelar factores ocultos que subyacen a conjuntos de variables aleatorias, medidas o señales. ICA define un modelo generativo para los datos multivariados observados, que generalmente se proporciona como una gran base de datos de muestras. En el modelo, se supone que las variables de datos son mezclas lineales de algunas variables latentes desconocidas, y el sistema de mezcla también es desconocido. Se supone que las variables latentes no son gaussianas y son mutuamente independientes, y se denominan componentes independientes de los datos observados.
ICA está relacionado con PCA, pero es una técnica mucho más poderosa que es capaz de encontrar los factores subyacentes de las fuentes cuando estos métodos clásicos fallan por completo. Sus aplicaciones incluyen imágenes digitales, bases de datos de documentos, indicadores económicos y mediciones psicométricas.
Espero que ayude 🙂