Sí, los dos están muy relacionados. El aprendizaje profundo es un subcampo del aprendizaje automático.
(Aproximadamente) El aprendizaje automático es el estudio de algoritmos y modelos que pueden aprender a realizar tareas a partir de datos. Los componentes clave de ML son un modelo, una medida de rendimiento con alguna tarea y un algoritmo de entrenamiento. Los modelos, medidas y procedimientos de entrenamiento vienen en una amplia variedad de sabores y estilos. Un sabor particularmente útil es el aprendizaje profundo.
El aprendizaje profundo se refiere a modelos que pueden aprender características de los datos, así como funciones / estimadores. La mayoría de los métodos de aprendizaje automático requieren que un usuario especifique las características utilizadas para que el modelo realice la tarea. En el aprendizaje profundo, la suposición típica es que existe una representación densa de los objetos sobre los que se razona, y el modelo está construido de tal manera que puede aprender de forma autónoma características importantes de los datos.
- ¿Qué tan rápido puede ser el procesador de una computadora?
- ¿Qué querría una Inteligencia Artificial Fuerte de los humanos?
- ¿Cuál es el papel del aprendizaje automático en defensa?
- Si los humanos pueden crear inteligencia artificial que supere la inteligencia humana, ¿la IA podrá crear una inteligencia artificial de segunda generación más inteligente que ella?
- ¿Está muriendo el aprendizaje automático?
La capacidad de aprender estas características es increíblemente poderosa. Tanto (en cierta medida) ha aliviado uno de los aspectos más largos de ML (ingeniería y diseño de características) y ha mejorado drásticamente el rendimiento en una serie de tareas de IA que a mucha gente le importa mucho (procesamiento de imágenes, discurso reconocimiento, aprendizaje de refuerzo, etc. ‘).
Los modelos típicos en el aprendizaje profundo están compuestos por redes neuronales. Hay muchas variantes de estas (y nuevas que se desarrollan cada mes), y son genéricas en el sentido de que se trasladan bien a través de dominios (por ejemplo, una red convolucional funciona bien tanto en aplicaciones de habla como de visión).
Los algoritmos de entrenamiento típicos son variantes del descenso de gradiente estocástico. Se pone mucho énfasis en el diseño de optimizadores inteligentes que pueden hacer uso de la curvatura, el impulso y otras características de las superficies de error. Esto se debe al hecho de que el entrenamiento requiere la optimización de superficies no convexas que a menudo tienen muchos puntos de silla de montar y óptimos locales.
Las medidas de rendimiento son las mismas funciones típicas de error de ML: típicamente cosas como la máxima probabilidad (entropía cruzada, error al cuadrado, etc.), límites inferiores variacionales, divergencias estadísticas y últimamente algo de entusiasmo (bien merecido) sobre los procedimientos de entrenamiento adversos.