Término del laico:
Dios nos da problemas en nuestra vida, de modo que podamos salir de eso y comprender quiénes somos originalmente.
Dios transforma nuestro problema de autoidentificación sin objetivo en uno que sea más similar al problema de búsqueda de solución. Y luego nuestro objetivo es cómo salir del problema, mediante el cual generalmente obtenemos nuestros elementos internos, como fortalezas y debilidades. Por lo tanto, podemos llamarlo como: ” Autoidentificación de problemas “.
Pero Dios sigue una distribución para agregar problemas en nuestra vida. Entonces, lo que aprendemos es ” Autoidentificación condicional “, que debe convertirse en ” Autoidentificación ” mediante una operación estadística basada en la distribución seguida por Dios.
El marco de trabajo de las Redes Estocásticas Generativas se basa en el aprendizaje de dicha operación estadística, donde la ” autoidentificación condicional ” estima nuestra ” autoidentificación “.
Redes estocásticas generativas
La ruta de aprendizaje de Denoising funciona en una filosofía similar, donde los ruidos se inyectan en la red y aprenden cómo hacer ruido, mediante el cual se revela la distribución de datos.
Las redes estocásticas generativas generalizan el autoencoder de eliminación de ruido, donde los ruidos se inyectan no solo en la entrada, sino en cualquier parte del gráfico computacional que predice la distribución de la entrada sin ruido. El entrenamiento se realiza a través de cualquier truco de entrenamiento supervisado.
http://arxiv.org/pdf/1306.1091v3 …
Los aprendizajes no supervisados se basan principalmente en la máquina de Boltzmann restringida, las variantes de codificador automático y las variantes de codificación dispersas. Pero, las arquitecturas profundas sin supervisión como Deep Belief Network y Deep Boltzmann Machines son más lentas en el entrenamiento conjunto. Además, el modelado de la distribución condicional para variables de alta dimensión con distribución conjunta multimodal compleja, es decir, la salida estructurada es difícil de calcular.
El éxito en el progreso reciente hacia una capacitación supervisada profunda justifica la necesidad de convertir un modelo de producción profundo, generativo, no supervisado, semi-supervisado o estructurado en un modelo supervisado.
El marco de las Redes Estocásticas Generativas es un principio de entrenamiento novedoso para modelos probabilísticos generativos, que se basa en el aprendizaje del operador de transición para una cadena de Markov cuya distribución estacionaria estima la distribución de datos. También:
- Una alternativa a la máxima probabilidad.
- Generaliza los codificadores automáticos de denoising. Los codificadores automáticos que aprenden con el ruido inyectado son un caso especial de las redes estocásticas generativas y pueden interpretarse como modelos generativos.
- Estimación de la distribución de datos subyacente basada en un criterio similar a la eliminación de ruido.
- La distribución de transición es una distribución condicional, que simplifica el problema de aprendizaje con gradientes que se pueden obtener mediante retropropagación.
- Crea una cadena de Markov cuyo operador de transición consiste en un muestreo alternativo de una distribución de representación ruidosa y una distribución de reconstrucción de ruido para variables latentes estocásticas.
- Se pueden utilizar trucos de entrenamiento supervisados: arquitectura convolucional con agrupación máxima para parsimonia paramétrica y eficiencia computacional, impulso para el descenso rápido de gradiente y abandono para evitar la coadaptación de representaciones ocultas.
- Se puede usar con entradas faltantes, muestreo condicionado en algunas de las entradas y salidas estructuradas.
Un poco más de conocimiento [1–5].
[1] http://arxiv.org/pdf/1503.05571v …
[2] https://arxiv.org/pdf/1312.6114v …
[3] https://arxiv.org/pdf/1401.4082.pdf
[4] http://arxiv.org/pdf/1602.05110v …