En el caso más simple, es como agregar capas ocultas adicionales, excepto:
- debes pensar qué sucede durante el entrenamiento ; ¿Cómo se determina si el resultado de esa “otra red neuronal” es correcto o no? quizás esté estimando una cantidad intermedia para la cual pueda juzgar el error; entonces tener esa “otra red neuronal” tiene mucho sentido para ayudar a descomponer el problema.
- a veces desea combinar ANN de arquitecturas diferentes y, de hecho, mantener el entrenamiento separado (tal vez no pueda juzgar el error, pero puede usar métodos sin supervisión para crear un ANN que simplemente arregle las cosas). Esta es una base de dos métodos de aprendizaje profundo , por ejemplo, los codificadores automáticos apilados significan esencialmente recurrir a una red ANN más pequeña que está pre-entrenada de forma independiente (pero eventualmente toda la red combinada se entrena).
- Los ANN recurrentes son una amplia clase de ANN donde la red neuronal se invoca repetidamente y desea mantener algún estado oculto; luego, algunas de sus salidas se retroalimentan en sus entradas. Es útil para la predicción o el reconocimiento de datos de series de tiempo, ya sean precios de acciones, muestras de voz o etiquetas de frases orales.
Por lo tanto, crear arquitecturas complejas como esta es en realidad la base de algunos avances recientes en el aprendizaje automático. Y yo diría que (1) puede surgir de forma bastante natural incluso en las tuberías de aprendizaje automático mundanas.
- ¿Cómo diferenciarías entre una IA y un humano?
- ¿Cuáles son las razones por las que la IA, especialmente la robótica, es tan lenta?
- ¿Cómo aprenderán los niños en el mundo de la inteligencia artificial avanzada?
- ¿Cómo podríamos estar seguros de que una IA evolucionaría para satisfacer el trabajo 'exacto' para el que fue concebida, cuando no deberíamos postular que un software está libre de errores?
- ¿En qué tareas los humanos siguen siendo mucho mejores que la IA?