¿En qué se diferencia un autoencoder (apilado) de un MLP, aparte de que los autoencoders aprenden funciones de identidad aproximadas?

Es similar. Pero también es fundamentalmente diferente.

No es la salida (X = X) lo que interesa en el caso de AE. Se trata de la capa oculta Y (X-> Y-> X) que puede extraer características importantes, y en su mayoría no directamente visibles del dominio de entrada X.

En general, tanto MLP como AE pueden aprender características ocultas de los datos de entrada. Pero:

  1. MLP está estrictamente supervisado. Significa que requiere datos etiquetados. (Por cada X (n) debe proporcionar también Y (n))
  2. AE requiere solo datos de entrada. Determinará los datos de salida de forma no supervisada. (X-> Y-> X)

Puede dar forma a las propiedades del dominio Y definiendo el tamaño de Y, o estableciendo reglas de regularización, o agregando ruido a los datos de entrada … Pero esencialmente es aprendizaje no supervisado.

AE simple (una capa oculta) tiene dos escenarios típicos.

  1. Descubrimiento de características. Típicamente N (X) << N (Y). Se puede aplicar una regla de regularización que obligará a diferentes piezas de Y a aprender diferentes características de X. Este subtipo de AE ​​se llama AE dispersa.
  2. Reducción de dimensionalidad. Típicamente N (X) >> N (Y). Esto es útil cuando los componentes X contienen muchas redundancias o están altamente correlacionados. El ejemplo típico de tarea es el reconocimiento de dígitos escritos a mano sobre el conjunto de datos MNIST.

Pero lo más destacado de AE ​​es que se pueden apilar varias capas para formar una red profunda y aprender de forma incremental. (X-> X2-> X, X-> X2-> X3-> X2-> X, ..). ¡Esto es muy poderoso! Esto permite encontrar características muy complejas en forma de jerarquía.

MLP tradicional no puede hacer esto. El aprendizaje de extremo a extremo (X-> X2-> X3-> Y) no funciona debido a un problema de gradiente de fuga. El aprendizaje incremental (X-> Y1-> Y2-> Y3) requeriría etiquetas para cada capa oculta y capa de salida, lo que no es factible.

Geoffrey Hinton realmente merece algún tipo de premio Nobel de TI por la invención del AE apilado. Es el algoritmo que inició la ola actual de exageraciones de IA.

Son similares, solo el AE aprende la función de identidad y a menudo tiene una capa de cuello de botella

More Interesting

¿Qué es mejor en CMU: 10-601 o 10-701?

¿Por qué no hay bloqueadores de anuncios impulsados ​​por el aprendizaje automático?

¿Conoces algún software que implemente cálculos de los últimos k vectores singulares de matriz dispersa de entrada? Solía ​​irlba, pero que yo sepa, solo calcula los primeros k vectores singulares

¿Cuál es mejor para la manipulación de datos en python: Pandas o SFrame?

¿Qué IIT en India tiene el mejor programa de CS para el aprendizaje automático?

¿Es posible verificar manualmente si los vectores de soporte siguen hiperplanos teóricos en SVM usando un núcleo de base radial?

¿Puedo entrenar una red neuronal convolucional (CNN) con imágenes de fondo diferente en blanco y negro?

¿Cuáles son algunas aplicaciones interesantes de salud personalizada?

¿Qué es una comprensión intuitiva del análisis factorial?

Organización de la computadora: ¿Cuál es la aceleración de una versión de 5 etapas de la máquina en tubería sobre la versión sin tubería?

¿Es posible generar datos de expresión genética artificial? Las imágenes a veces se pueden perturbar para aumentar el tamaño de las muestras con fines de aprendizaje automático.

¿Cuáles son algunas buenas técnicas para la clasificación / segmentación de datos de series temporales?

Dadas las variables / parámetros continuos, ¿cuál es la diferencia entre el aprendizaje automático y la interpolación?

¿Por qué mi red neuronal artificial predice demasiados falsos negativos (FN)?

¿Dónde puedo comprar TPU para aprender el aprendizaje profundo?