¿Cuál es la diferencia entre aprendizaje automático, minería de datos y aprendizaje profundo?

Minería de datos: es el descubrimiento de patrones en los datos. Generalmente son patrones no obvios. Esto (generalmente) significa que los datos son, en cierto sentido, “grandes”. Esto solía considerarse un no-no hasta que se pensó en métodos para hacer frente a múltiples comparaciones, etc. (En realidad, no tanto los métodos eran completamente nuevos; más bien, la gente los aplicó o incluso solo pensó en nuevas formas de pensar sobre las cosas Es complicado. Una de las formas de sortear los problemas es considerar los datos en el marco bayesiano, y esa es la primera forma (que sabemos) de pensar en la probabilidad. Por supuesto, fue “olvidado” hasta que tuvimos computadoras potentes suficiente para hacer estadísticas bayesianas de una manera no trivial.) Usted ignora estos métodos o consideraciones bajo su propio riesgo. Especialmente si estás haciendo inferencias.

Aprendizaje automático: un “campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programado explícitamente” (Arthur Samuel). Más formalmente: “Se dice que un programa de computadora aprende de la experiencia E con respecto a alguna clase de tareas T y la medida de rendimiento P si su rendimiento en tareas en T, medido por P, mejora con la experiencia E” (Tom Mitchell).

OK, esa es la definición estricta de aprendizaje automático. Sin embargo, cuando las personas dicen “algoritmos de aprendizaje automático”, generalmente hablan de, oh, muchas cosas. Desde la regresión lineal y logística hasta los bosques aleatorios y las redes neuronales (más sobre eso más adelante). La mayoría de estos algoritmos tienen vínculos profundos con el pensamiento estadístico / probabilístico, y fueron derivados o descubiertos por estadísticos. La mayoría de las veces, cuando las estadísticas “clásicas” están interesadas en la inferencia, el aprendizaje automático está interesado en la predicción. (El hecho desafortunado para cualquiera que se llame a sí mismo estadístico en estos días es que los vociferantes estadísticos “clásicos” han definido, en la mente de todos, las estadísticas “clásicas” como irrelevantes porque continúan gritando sobre algunas cosas que son o parecen irrelevantes. El hecho es que muchos estadísticos están muy interesados ​​en la predicción, no solo en la inferencia, y que el pensamiento estadístico realmente es muy necesario cuando se trata de datos).

Redes neuronales: (o redes neuronales artificiales) son algoritmos de aprendizaje “inspirados en el cerebro”. Básicamente, son aproximadores de funciones: usan datos para aproximar la función / proceso que genera los datos.

Aprendizaje profundo: el nombre comenzó como una versión abreviada del aprendizaje con redes neuronales profundas. Básicamente, cada red neuronal tiene una capa de entrada, capas ocultas y una capa de salida. Las redes neuronales profundas tienen muchas capas ocultas. El nombre ha cambiado un poco para incluir múltiples tipos de jerarquías que son profundas (es decir, tienen muchas capas) para “aprender” de datos complejos.

El aprendizaje profundo, entonces, es un tipo de aprendizaje automático. La minería de datos usa muchos algoritmos de “aprendizaje automático” (a menudo llamados así en la actualidad, aunque, en este caso, se usan principalmente para inferencia o al menos para el descubrimiento inferencial).

Encuentro que las diferencias entre los tres radican en el propósito y en lo que está involucrado al usarlos.

Machine Learning construye modelos que se basan en datos en lugar de reglas predefinidas para ajustar sus parámetros a fin de minimizar un error. Es una herramienta para asignar entradas a una salida (es decir, decisión). Pero desea que identifique las reglas relevantes para esta asignación.

Deep Learning es una clase de modelos de aprendizaje automático que aprenden una representación jerárquica de los datos para minimizar su tasa de error. Por lo tanto, es la misma herramienta, pero tiene más espacio para explorar los datos para encontrar un mapeo óptimo para la decisión.

La minería de datos consiste en encontrar información útil, como tendencias y correlaciones en grandes cantidades de datos que, de lo contrario, parecen arbitrarias. Se trata de encontrar información valiosa en sus datos.

Deep Learning es una clase de métodos de Machine Learning, por lo que hay diferencias en los métodos, pero no necesariamente el propósito. Minería de datos y aprendizaje automático, uno puede hacer uso del otro para realizar su tarea.

MINERÍA DE DATOS

Data Mining está buscando grandes cantidades de datos para descubrir patrones y analizar los datos para obtener información / información mediante el algoritmo.

APRENDIZAJE AUTOMÁTICO

El subconjunto de IA que incluye técnicas estadísticas abstrusas que permiten a las máquinas mejorar en tareas con experiencia. La categoría incluye aprendizaje profundo.

APRENDIZAJE PROFUNDO

El subconjunto de aprendizaje automático compuesto por algoritmos que permiten que el software se capacite para realizar tareas, como el reconocimiento de voz y de imagen, al exponer redes neuronales de varias capas a grandes cantidades de datos.

Desde

  • Computación Cognitiva e Inteligencia Artificial
  • Analítica e Inteligencia de Negocios

Aquí están las definiciones:

  • Aprendizaje automático: dar a las computadoras la capacidad de aprender sin ser programado explícitamente; un método de análisis de datos que automatiza la construcción de modelos analíticos; usando algoritmos que aprenden iterativamente de los datos para encontrar información oculta sin ser programados explícitamente dónde buscar
  • Minería de datos: encontrar anomalías, patrones y correlaciones dentro de grandes conjuntos de datos para predecir resultados
  • Aprendizaje profundo: parte de una familia más amplia de métodos de aprendizaje automático basados ​​en representaciones de datos de aprendizaje, en lugar de algoritmos específicos de tareas