Una de las cosas que recuerdo de mis estudios es que se puede demostrar que dos (o tres, no recuerdo, pero creo que dos) capas ocultas son suficientes para calcular cualquier función que sea calculable por un NN.
Esto, de hecho, ralentizó la investigación. No mucha gente en ese momento estaba interesada en experimentar 3, 4, 10, 320 capas simplemente porque “dos es suficiente” (no estoy hablando de redes de pesas o redes compartidas, para quienes no sé si hay una similar resultado).
Incluso si esto es cierto, el punto es que el número de neuronas necesarias en cada capa tiende a crecer exponencialmente si se limita a dos capas. Lo que se puede calcular con una red de 15 capas (ocultas) también se puede calcular con una red de 2 capas (ocultas); pero el número total de neuronas no es el mismo. Necesita muchas más neuronas en una red de 2 capas para aproximarse a lo que puede hacer con una arquitectura profunda y menos neuronas totales.
- ¿Cuál es la inteligencia más común de las especialidades matemáticas aparte de la inteligencia lógico-matemática?
- Dado el impacto potencial de la IA en el empleo, ¿qué piensa sobre un ingreso básico universal?
- ¿Cómo se puede evaluar la inteligencia?
- ¿Cuáles son las materias más candentes en Ingeniería Eléctrica hoy, para MS / PhD?
- ¿Cuándo ganará conciencia la IA?
Entonces la respuesta es, velocidad de rastreo (y convergencia, tal vez). En teoría, dos capas ocultas son suficientes, pero en la práctica se necesitan demasiadas neuronas para lograr el mismo resultado, con problemas relacionados con la velocidad del entrenamiento y creo que también se sobreajusta.