Por supuesto que soy el escéptico perenne, así que me gustaría decir … ¡Ninguna! Pero eso no sería cierto. Si bien el aprendizaje profundo no está tan sólidamente fundado en teoría como las máquinas kernel (basadas en la teoría VC) o algunos otros algoritmos que se basan en la teoría de aprendizaje PAC, tampoco existe en el vacío.
En mi opinión, en última instancia, el aprendizaje profundo se basa en redes neuronales. Entonces, el teorema del aproximador universal sería la primera parte de la teoría. ¡Este teorema establece que puede simular la salida de una red profunda con una red superficial suficientemente masiva (aunque imposible de implementar)!
El segundo aspecto detrás de la teoría de redes neuronales es Backpropagation. Este es el algoritmo clásico utilizado para entrenar redes neuronales que falla en redes neuronales profundas debido a un fenómeno llamado saturación que, según diría, es otro aspecto teórico importante que condujo a la aparición del aprendizaje profundo. Las redes neuronales profundas se entrenan mal con la propagación hacia atrás ya que los pesos en las capas neuronales más profundas no cambian (se saturan) con las iteraciones posteriores de la propagación hacia atrás.
- Cómo encontrar el límite superior de una secuencia recursiva
- ¿Cómo determina esta función si hay una superposición entre dos rangos?
- ¿Cuáles son las cuatro aplicaciones prácticas de la teoría de conjuntos en informática?
- ¿Es posible crear un lenguaje completo de Turing con solo un puntero de instrucción modificable, una operación de intercambio y un incremento por una operación?
- ¿Cuáles son algunas aplicaciones del mundo real de punteros en la programación con ejemplos?
Los científicos computacionales quedaron perplejos por este fenómeno durante un período de tiempo decente y se han hecho varios intentos teóricos y no tan teóricos para comprender esto con grados de progreso limitados pero interesantes.
Ahora, el genio de Geoffrey Hinton y varios otros científicos de la computación (entre 1995 y 2015) fue descubrir que uno podría sortear el problema de la saturación entrenando las redes capa por capa (codificadores automáticos dispersos) o inventando nuevas neuronas (ReLU) o por otros medios Eso es lo que llamamos “aprendizaje profundo” y aunque la base teórica es un poco nebulosa, probablemente requerirá una generación de doctorados en la academia para dilucidar y explorar por completo.