¿Cuál es la diferencia entre las redes neuronales y el aprendizaje profundo?

Deep Learning se trata de construir modelos de aprendizaje automático que aprendan una representación jerárquica de los datos.

Las redes neuronales , como ya respondió Nicolas Neubauer, son una clase de algoritmos de aprendizaje automático. La neurona artificial forma la unidad computacional del modelo y la red describe cómo estas unidades están conectadas entre sí. Puede describir un modelo jerárquico con redes neuronales donde cada capa de neuronas representa un nivel en esa jerarquía. No existe una restricción real en la cantidad de capas que puede agregar a una red, pero ir más allá de dos capas no era práctico en el pasado con rendimientos decrecientes. Las limitaciones se superaron con los avances algorítmicos, la disponibilidad de grandes volúmenes de datos de entrenamiento y la computación acelerada por GPU. La gente comenzó a agregar más capas nuevamente, lo que resultó en redes neuronales profundas con mucho éxito. Demostraron cómo las redes neuronales con muchas capas permitieron construir las representaciones requeridas para el aprendizaje profundo.

Hoy, las personas tienden a ver que una implica la otra. De hecho, las redes neuronales profundas son el escaparate del aprendizaje profundo. Algunos sostienen que los árboles de decisión y la memoria temporal jerárquica califican como modelos de aprendizaje profundo no neural. El punto es que el concepto de aprendizaje profundo no está vinculado a las redes neuronales sino que está muy bien demostrado a través de ellas.

La filosofía de la red neuronal artificial es la conexión de neuronas individuales a través del mapeo lineal ajustable de activación monotónica no lineal conocida. Pero, la filosofía del aprendizaje profundo consiste en múltiples niveles de transformación no lineal para suavizar la representación.

Para convertirse en un adulto, la mariposa pasa por cuatro etapas: huevo, larva, pupa y adulto. Cada etapa tiene un objetivo diferente, por ejemplo,

  1. huevo para representar mínimamente a un adulto,
  2. las orugas comen mucho para obtener energía,
  3. la pupa se esconde para la metamorfosis, y
  4. los adultos necesitan cumplir el propósito.

Del mismo modo, el aprendizaje profundo está pasando por cuatro etapas diferentes.

  1. Entrenamiento previo (2006-2012): alcance la profundidad con facilidad mínima a través de codificador automático, RBM, DBN, etc.
  2. Convolucional (2012-2015): necesita una gran cantidad de datos de etiquetas con mucha potencia de procesamiento y técnicas como: ReLU, capa convolucional, capa de agrupación, abandono, normalización de lotes, etc.
  3. Metamorfosis (2015-): La noción de profundidad está oculta dentro de Recurrente, Atención y Memoria para inventar el poder real del aprendizaje. iclr2016: principal | ICLR
  4. Listo para volar: vuele desde una zona angosta utilizando el aprendizaje de transferencia, el aprendizaje no supervisado, etc. Sin embargo, no sabemos qué será el aprendizaje profundo en su cuarta etapa. Puede ser completamente diferente de la red neuronal artificial como: árbol de decisión, memoria temporal jerárquica, etc.

El aprendizaje profundo comenzó su viaje a través de una mayor profundidad de las redes neuronales artificiales, pero la metamorfosis probablemente conducirá a su destino final. Entonces, en comparación con ese destino final, la red neuronal artificial profunda puede ser menos útil entonces.

La energía (bombo) adquirida en la segunda etapa proporcionará el entorno requerido en la tercera etapa.

En la cuarta etapa, si sabe volar, no debe restringirse en ninguna zona estrecha y conducir a una IA fuerte.

Como otros ya han mencionado, el aprendizaje profundo es un nuevo y elegante término para redes neuronales multicapa, con la diferencia de que ahora hemos encontrado formas eficientes de entrenar estas redes neuronales profundas (más de 5 capas ocultas) que antes no era posible.

El aprendizaje profundo es posible debido a tres áreas de avances, hardware, técnicas y datos. El hardware es computación de gpu (no muy popular antes de Jeff Hinton en 2006), y las técnicas son una mejor inicialización del peso de las técnicas no supervisadas, como la eliminación de ruido de los autocodificadores. Y, por supuesto, ahora tenemos grandes conjuntos de datos públicos (red de imágenes, etc.) e incluso más datos privados (piense en Google, uber, quora), que son lo que necesitan las redes neuronales profundas, ya que tienen muchos parámetros para ajustar.

Los avances recientes en el reconocimiento de visión de extremo a extremo utilizando redes neuronales convolucionales son el resultado de redes neuronales profundas. Se necesitan redes profundas debido a que los datos estructurales complejos y altamente no lineales en las imágenes deben aprenderse en abstracción múltiple, es decir, la primera capa aprende a detectar bordes, la siguiente capa combina los bordes aprendidos para reconocer formas, etc.

La misma arquitectura “profunda” se puede usar para otras variantes de redes neuronales, como las que tienen conexiones recurrentes, como la popular LSTM. Esta forma de apilamiento similar de las redes LSTM profundas está liderando la investigación innovadora en el modelado de datos secuenciales altamente complejos, como el reconocimiento de voz y la traducción automática.

Asumiré que te refieres a Redes Neuronales Artificiales y Aprendizaje Profundo .

TL; DR: Aprendizaje profundo = Redes neuronales artificiales + más de todo

Ambos términos se refieren al aprendizaje automático, que es un subcampo de la informática y la inteligencia artificial . El término Redes Neuronales Artificiales (ANN) se refiere a una familia de algoritmos de aprendizaje automático. La definición no es estricta en absoluto y generalmente se ajusta a cualquier algoritmo entrenable que use una red como una topología. Dicho esto, la mayoría de las personas probablemente implicaría una red neuronal de perceptrón multicapa (MLP) con una función de activación sigmoidea, ya que se han utilizado más.

Puede variar de un caso a otro, pero por lo general, los Ann están entrenados en características hechas a mano y no en datos sin procesar. Me refiero a que la extracción de características es una parte separada de dicho sistema en algunos casos. Además, especialmente las redes neuronales tempranas usaron solo una o algunas capas ocultas y no pudieron entrenarse en características muy abstractas. Estos aproximadores de funciones universales tenían sus límites. Desde 2012, sin embargo, hemos hecho un progreso significativo. De repente, ahora podemos entrenar tales redes neuronales en una docena de capas y más. Con un poder de cómputo masivo y una gran cantidad de datos, estos algoritmos ahora podían hacer la extracción de características por sí mismos, por lo tanto, trabajar en datos sin procesar y muy abstractos. Esta nueva forma de usar los mismos algoritmos ha llevado al término de Deep Learning y generalmente implica el uso de grandes cantidades de datos de entrada sin procesar, alto nivel de abstracciones y cálculos masivos. Sin embargo, no se limita a una técnica de red neuronal específica, sino a muchas técnicas muy diferentes. Se ha convertido en una palabra de moda, ya que se filtró cada vez más en los medios generales, ya que hoy en día abarca todo tipo de algoritmo de aprendizaje moderno.

Por cierto, las personas a veces se refieren a ann’s con 3 o 4 o 5 capas como aprendizaje profundo. Yo diría lo contrario.

La red neuronal es un algoritmo de aprendizaje automático inspirado en el funcionamiento del cerebro humano que permite que un sistema aprenda de algunos datos de observación. Una red neuronal simple consiste en una capa de entrada, una sola capa oculta y una capa de salida.

El aprendizaje profundo es una técnica de aprendizaje automático que realiza el aprendizaje en más de dos capas ocultas. Es una red neuronal profunda (DNN) que consta de múltiples capas de unidades de procesamiento no lineales (capas ocultas). Realiza extracción y transformación de características. Cada capa sucesiva de DNN utiliza la salida de la capa anterior como entrada.

Las “redes neuronales” se pueden utilizar para referirse a toda la clase de arquitecturas de aprendizaje automático donde las unidades individuales se conectan mediante pesas y esas pesas se ajustan a medida que se entrena la red. En ese sentido, el aprendizaje profundo es solo una rama particular de la arquitectura de red y la capacitación.

En un sentido más estricto, las redes neuronales pueden referirse a la forma de la “vieja escuela” de construir y entrenar redes, donde tiene pocas capas (típicamente entrada, salida y 1 o 2 capas intermedias), y luego el aprendizaje profundo es la “nueva” forma de hacer esto. La principal diferencia aquí es que tiene más capas entre entrada y salida (por lo tanto, “profundo”), lo que permite construir representaciones intermedias más ricas. La razón por la que esto es importante es que, tradicionalmente, se requiere mucho trabajo para asegurarse de que lo que presente para la capacitación en la capa de entrada ya esté en un formato que permita a la red reconocer los patrones importantes (“ingeniería de características”). Con esas capas adicionales en el aprendizaje profundo, la idea es que el algoritmo mismo pueda lograr más de esa ingeniería de características. En mi opinión, esta es la razón de la emoción por el aprendizaje profundo: no solo implica una mejora incremental en la precisión o lo que sea, sino que cambia la forma en que el aprendizaje automático se usa en la práctica y qué se puede hacer con él.

Redes neuronales o redes neuronales artificiales (ANN) es un grupo de algoritmos que se utilizan para el aprendizaje automático (o precisamente el aprendizaje profundo). Alternativamente, piense así: la red neuronal es una forma de aprendizaje profundo, que es un tipo de aprendizaje automático; y el aprendizaje automático es un subcampo de la inteligencia artificial .

El aprendizaje profundo es un tipo especial de aprendizaje automático. Implica el estudio de algoritmos relacionados con ANN y ML que contienen más de una capa oculta.

Una red neuronal, que es una forma especial de aprendizaje profundo, tiene como objetivo construir modelos predictivos para resolver tareas complejas exponiendo un sistema a una gran cantidad de datos. Luego, el sistema puede aprender por sí mismo cómo hacer las mejores predicciones.

También puede decirlo de esta manera: el aprendizaje profundo es una versión avanzada de la red neuronal.

Leer más: Desmitificando las redes neuronales y el aprendizaje profundo.

En la comunidad de aprendizaje automático, solo tenemos tres tipos básicos de APRENDIZAJE: aprendizaje supervisado (clasificación de imágenes), aprendizaje no supervisado (agrupamiento) y aprendizaje de refuerzo (planificación de robots).

Deep Learning realmente debería leer: Deep Neural Networks. Es una técnica que se puede utilizar para resolver los tres tipos de problemas de aprendizaje anteriores. Los humanos no pudimos entrenar redes neuronales profundas (es decir, más de una capa oculta) hasta 2006, cuando Geoffrey Hinton introdujo la idea de un entrenamiento previo sin supervisión.

El término ‘aprendizaje profundo’ se deriva libremente de ‘Redes neuronales profundas’. Cuando usamos varias capas de redes neuronales se convierte en redes neuronales profundas, es decir, aprendizaje profundo .
En los primeros días de las redes neuronales solo podíamos entrenar redes neuronales de capa única. Pero debido a los desarrollos recientes se ha hecho posible. Se sabe que las redes neuronales son aproximadores universales. Así que vamos a tu pregunta.

Diferencias:

  • Aprendizaje profundo compuesto de varias capas ocultas, mientras que las redes neuronales consisten en hasta 3 capas.
  • En las redes neuronales, el entrenamiento siempre ocurre simultáneamente para todas las capas, pero en el aprendizaje profundo, puede entrenar su red en partes. es decir, las máquinas de boltzman restringidas entrenan su red en partes entrenando 2 capas a la vez, luego envían su salida a la siguiente capa y así sucesivamente.

Las redes neuronales son redes computacionales que tienen como nodos (o neuronas) que básicamente son sumas de productos de entradas y los resultados salen a través de una función de activación. El aprendizaje profundo es un conjunto de técnicas de aprendizaje llamadas Backpropagation que son aplicables a redes neuronales o redes similares que tienen nodos cuya función se requiere para ser diferenciable. Ejemplos de esto son las redes de convolución y la memoria a corto y largo plazo (LSTM). Muchos de los nuevos tipos de redes tienen todos en común que el cálculo del nodo es diferenciable. Sin embargo, hay otros métodos de Backpropagation que son más generales y no requieren que los nodos sean diferenciables. Un ejemplo de esto es RMSProp.

Respuesta rápida y fácil: un NN profundo es un NN con más de una capa oculta.

Desde el punto de vista de la optimización, parece que agregar varias capas ocultas suaviza la superficie de la función de utilidad, por lo que es más probable que su algoritmo de optimización escape de un óptimo local incorrecto.

El aprendizaje profundo es un término sofisticado para redes neuronales multicapa. El término es más sofisticado entre personas externas que profesionales. Originalmente se usó después de un papel de varias capas por Geffery Hilton en 2007, desde que meadia lo utiliza libremente para significar cosas diferentes. Como alguien ya mencionó, esta sería la mejor manera simple de referirse al aprendizaje profundo

Una diferencia básica es-

Las redes neuronales intentan estimar los pesos entre diferentes neuronas para minimizar el error entre la variable de respuesta observada y estimada y en la red de aprendizaje profundo tratarán de estimar las matrices aleatorias que se llaman filtros y esos filtros ayudan a capturar las diferentes partes (capas, bordes) de imágenes independientemente de la posición para minimizar el error (entropía cruzada)

Los NN son un modelo de aprendizaje utilizado también por Perceptrons y SVM.

El aprendizaje profundo se llama así porque utiliza redes neuronales profundas. Es decir, utiliza más de 2 capas ocultas.

Entonces, la diferencia entre las redes neuronales y el aprendizaje profundo es entre el maíz y las tortillas. Necesita el primero para el segundo (y, de hecho, el primero es el ingrediente principal de este último).

¿Cuál es la diferencia entre las redes neuronales y el aprendizaje profundo?

Busque antes de publicar la nueva pregunta. Esta pregunta ya ha sido respondida.

No mucho. Deep Learning es el nombre de las redes neuronales de varias capas.

Las redes neuronales de aprendizaje profundo tienen múltiples capas ocultas, que esencialmente les permiten aprender características de características y características de características de características, etc. Esto se inspiró libremente en cómo se ha demostrado que la corteza neural y, por extensión, probablemente toda la neocorteza funciona.

Digo libremente porque la corteza es una red neuronal recurrente y alguna señal pasa de nuevo a la jerarquía de niveles de las redes, así como hacia arriba.

Por lo tanto, están modelados según la idea de una jerarquía de mapas, mapeando características cada vez más abstractas que parecen estar en un alto nivel de funcionamiento de la neocorteza y es la razón por la que podemos manejar más niveles de abstractos de los que la mayoría de los otros animales parecen capaces porque tenemos espacio para obtener más mapas en nuestra neocorteza más grande.

En detalle, sin embargo, la forma en que se modelan los niveles de una red neuronal artificial profunda y cómo se conectan las capas es generalmente mucho más simple y algo diferente de lo que sabemos sobre los circuitos neuronales en el cerebro.

Una red neuronal no feep es técnicamente solo una que tiene una sola capa oculta, por lo que solo puede asignar entidades directamente desde la entrada sin procesar a la salida.