La aplicación de los métodos bayesianos a las redes neuronales tiene una rica historia en el aprendizaje automático. El objetivo de las redes neuronales bayesianas es descubrir la distribución posterior completa sobre los pesos de la red para capturar la incertidumbre, actuar como un regularizador y proporcionar un marco para comparación de modelos. Sin embargo, la parte posterior completa es intratable para la mayoría de las formas de redes neuronales, y requiere una inferencia aproximada costosa o una simulación de Monte Carlo en cadena de Markov. Más recientemente, se ha considerado la inferencia bayesiana completa o aproximada para pequeñas piezas de la arquitectura general.
Alternativamente, se desarrollan enfoques variacionales, donde se usa una red neuronal en una aproximación variacional a la distribución posterior sobre las variables latentes de una red neuronal generativa dirigida.
- ¿Cuáles son algunos buenos libros sobre inteligencia artificial que explican los aspectos científicos y filosóficos de la inteligencia, los modelos generales de memoria y los conceptos básicos?
- ¿Cómo funcionan las actuales interfaces cerebro-computadora?
- ¿Qué significa ajustar un modelo en aprendizaje automático?
- ¿Qué es el proxy API?
- ¿Qué habilidades de programación específicas necesitan los estudiantes para producir prototipos en el MIT Media Lab?