Creo que sí … Las redes profundas son funciones no convexas y, por lo tanto, no hay una respuesta única a través de la propagación inversa. Mucho depende de los valores iniciales que use para sembrar la red … Odio esta idea … Pero parece que eso es lo que es actualmente … Todo depende de cómo se inicialice. Loca. Lo odias, apuesto.
Algunas personas consideran el algoritmo genético en lugar de BackProp, que estoy seguro de que despreciaría (los algoritmos genéticos no se mantienen como algo ‘elegante’ ya que carecen del rigor teórico).
Entonces, ¿qué es lo interesante de las redes profundas?
- Cómo obtener colores 'visualmente distinguibles' de las imágenes
- ¿Cuál es el gradiente de la función de probabilidad logarítmica en la regresión logística multinomial?
- ¿Qué es el aprendizaje automático y cuál es su futuro?
- ¿Podría la IA volverse autónoma y aprender y adaptarse de manera no supervisada a través del aprendizaje profundo?
- ¿Qué requisitos previos debe tener para aprender la teoría de las redes neuronales artificiales?
Diseñar una red neuronal que realmente pueda generalizar algunas funciones cerebrales es la “cosa” real en todo este drama. Por ejemplo, eche un vistazo a LSTM y RNN. Todos tratan de generalizar algunas funciones cerebrales sin recurrir a un sistema basado en reglas. Aquí es donde está todo el interés, si no me equivoco. Si puede obtener una red elegante que pueda aprender muchas cosas, será el próximo multimillonario. Y, gran parte de este diseño se basa en cómo funciona realmente nuestro cerebro … Introspección sobre la función de nuestro propio cerebro y convertir ese proceso en una red neuronal que puede aprender … ¡Voto! Suena interesante, al menos para mí.
PD:
Tenga en cuenta cualquier BS. Soy nuevo también y estoy tratando de resolver las cosas. Así que toma todo lo anterior con una pizca de sal. Podría estar completamente equivocado también. Espero que los conocedores me corrijan. Gracias por adelantado.