Elegir arquitecturas de redes neuronales profundas es mucho más un arte que una ciencia y generalmente es una combinación de intuición, heurística y experimentación.
Un enfoque que generalmente es útil es comenzar con versiones “de juguete” del problema (con un tamaño de conjunto de entrenamiento mucho más pequeño) para tener una idea de la compensación de sesgo / varianza en función del número de capas, el número de unidades por capa y Otros hiperparámetros.
En el ejemplo específico de DeepSpeech , los autores optaron por usar una capa recurrente, que era una de las capas superiores de la red.
- ¿Cuál es la aplicación más grande y más reciente de las redes neuronales?
- ¿Qué son las máquinas de aprendizaje extremo?
- ¿Es posible usar IA para obtener nuevas ideas en física teórica y / o matemática?
- ¿Qué es una lista de experimentos mentales con IA?
- ¿Cuáles son algunas aplicaciones de la IA en el campo de la agricultura?
¿Por qué usar una capa recurrente? Debido a la naturaleza secuencial de las capas recurrentes, la capa recurrente es más difícil de paralelizar en las GPU (mientras que las capas no recurrentes son trivialmente paralelizadas a lo largo de la dimensión de tiempo): tener más de una capa recurrente sería un cuello de botella computacional.
¿Por qué la capa recurrente está más arriba en la red? Las redes neuronales profundas aprenden cada vez más representaciones de alto nivel de los datos de entrada sin procesar (por ejemplo, espectrogramas de voz) más arriba en la red, por lo que la capa recurrente es más efectiva utilizando estas representaciones de alto nivel en lugar de características sin formato o de bajo nivel.