En primer lugar, el aprendizaje profundo (DL) no se trata solo de redes neuronales (NN). Solo está dominado por Deep NNs (DNN). DL se trata de aprender múltiples niveles de representaciones, como:
- Los píxeles se combinan para formar aristas.
- Los bordes se combinan para formar partes.
- Mientras que las partes se combinan para formar objetos completos.
Ese es un ejemplo de la visión por computadora (CV). Sin embargo, también podemos ver muchas de esas representaciones jerárquicas en muchas otras cosas como:
átomos [math] \ rightarrow [/ math] moléculas [math] \ rightarrow [/ math] compuestos
letras [math] \ rightarrow [/ math] palabras [math] \ rightarrow [/ math] oraciones
DL se basa en la observación de que la naturaleza es altamente compositiva. Como se ilustra arriba, en la naturaleza existe esta buena disposición jerárquica de las cosas, desde la física atómica hasta las sociedades en general.
Por lo tanto, DL se trata realmente del aprendizaje de representación jerárquica y se puede usar una red neuronal convolucional (CNN) para aprender tales características jerárquicas así como también es teóricamente posible usar cualquier otro enfoque para aprender esas representaciones jerárquicas abstractas.
Es solo que en este momento los DNN son la opción predeterminada para aprender tales representaciones jerárquicas.
Entonces, no, el aprendizaje profundo no es solo redes neuronales con algo de preprocesamiento para la selección automática de funciones.
DL es más que solo NNs.
En segundo lugar, tiene razón, los DNN actúan para proyectar (o como lo dice, preprocesar) los datos para que la unidad de clasificación / regresión final pueda manejar los datos correctamente.
Por ejemplo, un problema no separable linealmente puede convertirse en un problema separable linealmente proyectando a través de su DNN haciendo que el problema se resuelva mediante una capa de clasificación lineal en la salida.
En algunos casos, se necesitan proyecciones múltiples de ahí el término aprendizaje profundo. El conjunto de datos se puede proyectar progresivamente a través de varias capas antes de alimentarlo a la capa de salida de clasificación / regresión final.
Y una cosa más, el aprendizaje automático (ML) es realmente fácil de entender.
No se asuste por la jerga en ML, muchos de ellos tienen fundamentos muy humildes y se sorprenderá al saber cómo estos componentes básicos básicos en los DNN típicos están en el corazón del discurso, la imagen y la tecnología de punta. sistemas de reconocimiento de objetos.
DL es simplemente una concatenación de capas de procesamiento una encima de la otra y en algunos casos puede haber conexiones recurrentes.
Cada capa de abajo procesa previamente los datos de la capa de arriba. Eso es.
Por eso tengo un lema:
Las cosas simples constituyen cosas avanzadas.
Porque ese enfoque simple repetido varias veces es lo que hace:
- Posible reconocimiento de imágenes de Google Photos.
- Asistente de Google reconocimiento de voz posible.
- Los autos sin conductor casi se conducen solos.
- AlphaGo Zero posible.
Y ha revolucionado la inteligencia artificial (IA) con muchas más aplicaciones.
La mayoría de la gente piensa que DL se basa en muchas ideas complejas, se basa básicamente en ideas simples y fáciles de entender.
El único truco viene en hacer un modelo ML que funcione, porque:
- En la práctica, los modelos ML deben ser grandes. No todos tienen el tiempo, la experiencia y el poder de cálculo para construir modelos a gran escala. Por supuesto, puede encender servidores para entrenar modelos más grandes, pero esto no es barato.
- Encontrar los hiperparámetros correctos es complicado y un poco aburrido, por lo que no es para todos.
Es muy difícil hacer que estas cosas funcionen en sentido real porque requiere múltiples experimentos (experimentos aleatorios e intuitivos) para que funcionen correctamente.
Encontrar los hiperparámetros correctos y limpiar los datos ocupa aproximadamente el 90% del trabajo, mientras que el producto terminado sobre el que lee en los artículos es solo uno de muchos modelos más fallidos.
Puede ser frustrante y tedioso intentar construir un modelo ML desde cero y aquí es donde más se requiere la experiencia humana.
De lo contrario, los principios subyacentes de ML / DL no son tan complicados.
Y no necesitan ser complicados para que funcionen bien.
Espero que esto ayude.