Estoy de acuerdo con la respuesta de Chelsea Tanchip, y deseo agregar mis comentarios.
AFAICT, la mayoría de los esquemas actuales de IA se basan en el paradigma de percepción descubierto en la corteza visual (V1-> V2-> V3-> …), que son, con mucho, los circuitos cerebrales más fáciles de examinar y aprender. El aprendizaje profundo parece ser la expresión más extrema de este paradigma.
Este paradigma tiene las ventajas de que es en gran medida lineal (de entrada a resultado), altamente paralelizable (para aprovechar los elementos informáticos más potentes de la actualidad) y tiene relativamente pocas rutas de retroalimentación.
- ¿Debería haber un límite en la tecnología y la automatización, especialmente en IA, que emociona la mente humana y desafía la existencia humana física?
- ¿Qué ha hecho DeepMind desde su adquisición por parte de Google?
- ¿Es razonable trabajar para hacer una IA inteligente?
- ¿Cuál es el siguiente paso más allá del aprendizaje profundo en IA?
- ¿Cuál es el futuro en el campo de la economía? ¿Cuánto se verán afectados los trabajos debido a la IA y la tecnología? ¿Que Consejo tienes?
Los esquemas actuales de IA han tenido éxito en muchas tareas importantes, incluso apareciendo ser “inteligentes”, a la Watson. Esto se debe a la verdad detrás de truismos como “ver para creer” y el reconocimiento de que el arte es realmente un proceso para ver bien. Entonces los circuitos neuronales tienen mucho que ofrecer aquí.
Los próximos pasos serán más difíciles. Muchos de los circuitos importantes del cerebro son circuitos de retroalimentación relativamente estrechos. La recurrencia apretada resultante es una característica fundamental de muchas funciones neuronales importantes, como la activación de recuerdos episódicos a largo plazo, la generación de modelos internos de comportamiento esperado y la evaluación de correspondencias complejas entre estados internos y externos.
La fuente de dificultades para aprender de ellos incluye:
- Estos circuitos involucran muchas más estructuras del mesencéfalo, por lo que los circuitos neuronales son mucho más difíciles de rastrear.
- La naturaleza de su recurrencia es altamente dinámica a velocidades que las tecnologías de escaneo actuales no pueden seguir, incluso si pudiéramos centrarnos en los circuitos estrechos.
- Los circuitos están altamente conectados a otros circuitos, por lo que pequeños cambios en el contexto pueden perturbar la operación en escalas de tiempo pequeñas y grandes.
La fuente de dificultades para aprovechar ese aprendizaje incluye:
- Los circuitos de retroalimentación individuales son amplios y ajustados, fáciles de programar individualmente, pero difíciles de escalar a múltiples circuitos cooperantes.
- La naturaleza heterogénea de los múltiples circuitos cooperantes es difícil de emular de manera eficiente en la tecnología actual (es decir, GPU).
- Los requisitos de memoria para los circuitos heterogéneos son efectivamente acceso aleatorio, por lo que la ampliación de los circuitos requiere grandes cantidades de memoria de acceso aleatorio.
Efectivamente, los conjuntos de herramientas actuales hacen un muy buen trabajo en la comprensión actual de la recurrencia, pero no son muy útiles para el cambio de paradigma requerido a múltiples circuitos de retroalimentación ajustada.
(Como comentario adicional, señalaré que la tecnología de memoria Intel / Micron XPoint es ideal para este cambio de paradigma, ya que permite la construcción de grandes cantidades de memoria de acceso aleatorio estrechamente acoplada, que no ha estado disponible previamente en ninguna forma, y mucho menos en un precio útil)
Un problema mayor que un régimen de procesamiento para circuitos heterogéneos altamente recurrentes es proporcionarles un paradigma de programación. En última instancia, nos beneficiaríamos de la auto programación, pero debemos aprender a gatear y caminar antes de que eso funcione.