Minería de datos: es el descubrimiento de patrones en los datos. Generalmente son patrones no obvios. Esto (generalmente) significa que los datos son, en cierto sentido, “grandes”. Esto solía considerarse un no-no hasta que se pensó en métodos para hacer frente a múltiples comparaciones, etc. (En realidad, no tanto los métodos eran completamente nuevos; más bien, la gente los aplicó o incluso solo pensó en nuevas formas de pensar sobre las cosas Es complicado. Una de las formas de sortear los problemas es considerar los datos en el marco bayesiano, y esa es la primera forma (que sabemos) de pensar en la probabilidad. Por supuesto, fue “olvidado” hasta que tuvimos computadoras potentes suficiente para hacer estadísticas bayesianas de una manera no trivial.) Usted ignora estos métodos o consideraciones bajo su propio riesgo. Especialmente si estás haciendo inferencias.
Aprendizaje automático: un “campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programado explícitamente” (Arthur Samuel). Más formalmente: “Se dice que un programa de computadora aprende de la experiencia E con respecto a alguna clase de tareas T y la medida de rendimiento P si su rendimiento en tareas en T, medido por P, mejora con la experiencia E” (Tom Mitchell).
OK, esa es la definición estricta de aprendizaje automático. Sin embargo, cuando las personas dicen “algoritmos de aprendizaje automático”, generalmente hablan de, oh, muchas cosas. Desde la regresión lineal y logística hasta los bosques aleatorios y las redes neuronales (más sobre eso más adelante). La mayoría de estos algoritmos tienen vínculos profundos con el pensamiento estadístico / probabilístico, y fueron derivados o descubiertos por estadísticos. La mayoría de las veces, cuando las estadísticas “clásicas” están interesadas en la inferencia, el aprendizaje automático está interesado en la predicción. (El hecho desafortunado para cualquiera que se llame a sí mismo estadístico en estos días es que los vociferantes estadísticos “clásicos” han definido, en la mente de todos, las estadísticas “clásicas” como irrelevantes porque continúan gritando sobre algunas cosas que son o parecen irrelevantes. El hecho es que muchos estadísticos están muy interesados en la predicción, no solo en la inferencia, y que el pensamiento estadístico realmente es muy necesario cuando se trata de datos).
- Cómo reclutar estudiantes de doctorado que se especialicen en Inteligencia Artificial
- ¿Las carreteras serán más seguras debido a la IA?
- Si los robots, las máquinas y los sistemas de autoservicio reemplazan la mayor parte del trabajo realizado actualmente por los humanos, ¿qué harían los humanos?
- ¿Qué dominio debo elegir entre Machine Learning y Seguridad de red?
- ¿Qué tan cerca estamos de conseguir asistentes virtuales como Samantha en ella?
Redes neuronales: (o redes neuronales artificiales) son algoritmos de aprendizaje “inspirados en el cerebro”. Básicamente, son aproximadores de funciones: usan datos para aproximar la función / proceso que genera los datos.
Aprendizaje profundo: el nombre comenzó como una versión abreviada del aprendizaje con redes neuronales profundas. Básicamente, cada red neuronal tiene una capa de entrada, capas ocultas y una capa de salida. Las redes neuronales profundas tienen muchas capas ocultas. El nombre ha cambiado un poco para incluir múltiples tipos de jerarquías que son profundas (es decir, tienen muchas capas) para “aprender” de datos complejos.
El aprendizaje profundo, entonces, es un tipo de aprendizaje automático. La minería de datos usa muchos algoritmos de “aprendizaje automático” (a menudo llamados así en la actualidad, aunque, en este caso, se usan principalmente para inferencia o al menos para el descubrimiento inferencial).