Personalmente, creo que la representación del conocimiento y la epistemología son campos que hoy en día están muy subestimados por los científicos de IA. Esto junto con una síntesis del enfoque conexionista con un enfoque simbolista puede ayudar a construir AGI.
Aquí hay una representación del modelo que creo que funcionará bien para AGI:
- ¿Cuál es tu opinión sobre la inteligencia artificial?
- ¿Debemos temer a la inteligencia artificial? ¿Por qué o por qué no?
- ¿Cuál es la forma guiada de dominar la IA?
- ¿De qué maneras (describa al menos tres) la AI alterará la práctica del desarrollo de sistemas?
- ¿Qué IA debo usar para mi aplicación?
Podría haber hecho la imagen más atractiva, pero entiendes la esencia. Como puede ver, la representación del conocimiento / epistemología forma la pieza central de este modelo. Ya se ha realizado mucho trabajo en visión, habla, etc., donde se reconocen las entradas externas y algunas características se extraen a través de algos. Pero existe la necesidad de una fuerte investigación en los pasos posteriores: representar este conocimiento, aprender de este conocimiento, tomar acciones basadas en este conocimiento, etc. Por ejemplo, vea esta charla esclarecedora:
Hay algunos brotes verdes de la investigación sobre la combinación de un enfoque conexionista / ML (digamos redes neuronales) y enfoques simbolistas: el Asistente de IA de Google revela un nuevo giro en las redes neuronales