Depende de lo que entiendas por ‘red neuronal’. Si incluye en esa categoría los algoritmos de aprendizaje aún por descubrir que explican las habilidades de aprendizaje de los cerebros humanos, entonces, obviamente, y por definición, no hay problemas de IA que las redes neuronales no podrán resolver.
Sin embargo, algunas de las principales limitaciones actuales de las redes neuronales * actuales * son las siguientes, en mi humilde opinión:
– probablemente todavía no tenemos algoritmos de aprendizaje lo suficientemente potentes como para entrenarlos adecuadamente cuando la red es ‘compleja’ (por ejemplo, profunda y capaz de representar abstracciones de alto nivel), es decir, los algoritmos actuales probablemente caen en mínimos locales aparentes subóptimos (donde Probablemente existan soluciones mucho mejores, y sabemos que esto a veces sucede, por ejemplo, vea mi artículo JMLR 2010 con Dumitru Erhan, http://www.jmlr.org/papers/volum…)
- En redes neuronales artificiales, ¿cómo se eligen conexiones específicas entre nodos para fortalecerlas durante el entrenamiento?
- ¿Por qué 'nadie' trabaja en hacer una IA consciente?
- ¿Cuál es el enfoque correcto para la inteligencia artificial?
- ¿Cómo comenzar una carrera en inteligencia artificial?
- Cómo contribuir a la inteligencia artificial general
– también podríamos necesitar progreso en el frente de los algoritmos de refuerzo para redes neuronales (pero esta no es mi área)
– probablemente necesitemos progreso en el frente de algoritmos de inferencia rápida (en el caso de redes neuronales probabilísticas como Deep Boltzmann Machines, que pueden ser necesarias para capturar realmente interesantes efectos descendentes junto con el manejo de la incertidumbre en todos los niveles y no solo en La salida); el cerebro parece hacer inferencia en solo unos pocos ciclos, mientras que los algoritmos de inferencia aproximada actuales son 10 veces más lentos al menos y aún no son satisfactorios en muchos casos (pero vea algunas buenas ideas, por ejemplo, en el artículo de Larochelle y Salakhutdinov http: //www.dmi.usherb. ca / ~ laroch …)
Otros investigadores probablemente tengan otras ideas de cosas para agregar en sus ‘listas de deseos’ …
Además: en general, se cree que la capacidad de manipular símbolos y estructuras recursivas no está en el ámbito de las redes neuronales, pero esto no tiene en cuenta el hecho de que uno podría usar redes neuronales recurrentes o recursivas, que de hecho puede representar estructuras simbólicas y recursivas . Sin embargo, lo que es cierto es que el problema de optimización para tales redes es aún más difícil (son realmente muy profundos porque cada paso de tiempo cuenta como profundidad adicional) y su capacitación / optimización adecuada sigue siendo un problema abierto difícil.
Otra posible idea errónea que está relacionada es que se cree que las redes neuronales no pueden manejar estructuras de datos de tamaño variable. Esto se logra fácilmente al menos en principio al permitir representaciones dispersas. Ha habido mucho trabajo en el uso de la dispersión en arquitecturas profundas y redes neuronales en los últimos años. Cuando tiene un vector de estado muy largo (el cerebro tiene miles de millones de neuronas) que es escaso, puede codificar fácilmente estructuras de datos de ‘tamaño variable’ (piense en el tamaño de la estructura de datos como el número de ceros). La limitación del cerebro no es más una limitación a esto que la limitación de una memoria de computadora típica.