¿Cuál es el principio del aprendizaje profundo?

El principio subyacente del aprendizaje profundo (DL) es de naturaleza compositiva.

Los elementos primitivos simples se combinan para formar elementos de nivel medio que a su vez se combinan para formar elementos de alto nivel. Lo vemos en el día a día, las ciencias naturales, como la física, las partículas subatómicas como los electrones, los protones y los neutrinos forman átomos, mientras que los átomos forman moléculas, etc. DL se basa en tal naturaleza compositiva de estímulos naturales.

Por lo tanto, DL se trata de procesar estímulos (imágenes o habla) de una manera en capas, por lo que cada capa se alimenta de la capa justo debajo de ella y envía la salida a la capa justo encima de ella. La manera real de los cálculos o el procesamiento que tiene lugar en cada capa puede ser cualquier cosa. Cuantas más capas existan, más profunda será la arquitectura. Este procesamiento en capas también se puede visualizar más formalmente como un gráfico computacional.

Por lo tanto, una arquitectura típica de DL utiliza representaciones jerárquicas de la señal. En visión tenemos algo así.

[matemáticas] píxeles \ rightarrow {bordes} \ rightarrow {partes} \ rightarrow {objeto} [/ math]

El objeto completo está así formado por partes de objeto y las partes de objeto están formadas por bordes y bordes por píxeles sin procesar. Por supuesto, esta es una representación simplificada, pero muestra cómo los sistemas de visión de aprendizaje profundo representan los estímulos visuales.

También puede visualizar una gran cantidad de conceptos utilizando un concepto de composición como, por ejemplo, en la literatura tenemos una relación bastante profunda entre una carta y una biblioteca.

[matemáticas] letras \ rightarrow {palabras} \ rightarrow {oraciones} \ rightarrow {párrafos} \ rightarrow {capítulos} \ rightarrow {libros} \ rightarrow {biblioteca} [/ math]

Este concepto hace que el aprendizaje profundo sea extremadamente poderoso. Significa que las características de alto nivel se sintetizan a partir de características de nivel inferior, lo que significa que en las capas de alto nivel las características capturan representaciones más abstractas, ya que solo ve los datos de entrada a través de las capas anteriores. Por lo tanto, su representación da como resultado una relación señal / ruido de alta calidad, lo que implica que es probable que arquitecturas más profundas capturen modelos interesantes de los datos de entrenamiento.

Espero que esto ayude.

Una clase simple de modelos altamente flexibles, que consumen representaciones en bruto de muestras de entrada, exhibe propiedades de generalización sorprendentemente buenas en una amplia clase de problemas de aprendizaje automático, especialmente cuando se regulariza adecuadamente.

Para obtener más detalles, consulte aquí: la respuesta de Mike Kayser a ¿Cuál es la diferencia entre “aprendizaje profundo” y “aprendizaje superficial”?

La fecha estructurada