Creo que el aprendizaje profundo se ha beneficiado mucho de las ideas sobre cómo los cerebros procesan los datos. Las ideas centrales que procesan en cerebros naturales son:
- Jerárquico (por ejemplo, capas de procesamiento visual)
- Binario (en términos de comunicación entre neuronas)
- Distribuido (el cálculo se lleva a cabo por un gran número de unidades de procesamiento simples)
- Asíncrono (no parece haber un control central estricto sobre las operaciones de programación)
ha sido tremendamente influyente en la motivación del diseño de redes profundas.
Sin embargo, una pregunta realmente difícil es ¿cuál es el nivel apropiado de descripción del cerebro? ¿Necesitamos modelar canales iónicos, o incluso ir al nivel cuántico? Nadie lo sabe realmente. Mi propia suposición / esperanza es que no es necesario ir más allá de algunos principios básicos de diseño de alto nivel, como los enumerados anteriormente. También se desconoce si se trata de una lista completa o precisa.
- ¿Cuáles son las aplicaciones más interesantes del aprendizaje automático en espacios inesperados?
- ¿Dónde empiezo a aprender Machine Learning?
- ¿Cuáles son algunas formas de evitar la maldición de la dimensionalidad?
- ¿Qué son las medidas completamente aleatorias y cómo / cuándo son útiles?
- ¿Cómo funciona el mecanismo de atención de múltiples cabezas en el aprendizaje profundo?
No estoy lo suficientemente familiarizado con el campo como para saber hasta qué punto los conocimientos del campo de aprendizaje profundo han servido para comprender el cerebro. Ciertamente, aunque investigadores como Peter Dayan han progresado en la comprensión de los aspectos de la plasticidad en el cerebro sobre la base, por ejemplo, de marcos para el aprendizaje de refuerzo.