El teorema de aproximación universal (Teorema de aproximación universal – Wikipedia) es un poderoso teorema que establece que una red neuronal es un aproximador funcional universal. Sin embargo, no dice nada sobre el tamaño de una red neuronal de capa oculta. Excepto que es finito y que puede hacer que la red neuronal se acerque arbitrariamente a la función original simplemente lanzándole más unidades ocultas.
La implicación de una red neuronal más profunda es que la red neuronal puede aproximar funciones exponencialmente mejor al aumentar la profundidad. Al igual que un circuito lógico multinivel, en comparación con un producto de una sola capa de sumas (POS) o sumas de productos (SOP).
- ¿Qué habilidades se requieren para diseñar productos de consumo que tengan tecnología de inteligencia artificial incorporada?
- ¿Cuál es la principal diferencia entre el aprendizaje por refuerzo y el proceso de decisión de Markov?
- ¿Por qué existe el temor de dominación de robots / IA cuando se pueden incorporar múltiples niveles de interruptores de muerte?
- ¿Puede la inteligencia artificial detectar falsificaciones de arte?
- ¿Debería la IA tener emociones?
La red neuronal profunda es buena para aproximar límites de decisión lineales y no lineales.
El poder de la red neuronal profunda es que es muy eficiente para capturar el modelo oculto en una cantidad enorme de datos (como millones / miles de millones de imágenes) usando un cálculo exponencialmente menor y con un margen de error muy pequeño.