¿Es el problema central de la Inteligencia General Artificial principalmente un desafío de ingeniería?

Es una mezcla embriagadora de filosofía, psicología, desafíos de diseño y más. Se trata de qué es el significado, qué es el universo, saber qué procesos subyacen en la búsqueda del significado, qué es el Ser, qué son las comunicaciones entre entidades y qué subyace a eso (como las culturas que definen el significado de las palabras y las reglas del lenguaje) y cómo representar el conocimiento, y cómo resolvemos problemas y cómo realizamos la percepción. ¿Y cómo aprendemos? Y lo que es importante para un individuo cuando aprendemos.
Ahora, si tuviéramos una buena comprensión de los fundamentos, entonces podríamos comenzar a diseñar un sistema que pueda hacerlo.
Puedes ver los desafíos para construir un AGI,
Pero recuerde, un bebé crece para realizarlo todo, por lo que sabemos que se puede hacer. Simplemente no sabemos claramente CÓMO se puede hacer.
Además: creo que un verdadero AGI necesitará tener algo muy parecido a una mente propia, una personalidad y una perspectiva del mundo. No podemos simplemente crear una máquina ‘sin sentido’. Vamos a tener que diseñar personas sintéticas que piensen lo suficiente como los humanos para que puedan entender el mundo como lo hacen los humanos. Eso tiene profundas implicaciones, especialmente porque todavía no entendemos completamente a los humanos. No vamos a poder diseñar seres sin emociones como Spock que piensen tan bien como las personas. Entonces, el problema de diseño es bastante profundo y difícil. Al final, un AGI probablemente tendrá que tener necesidades y objetivos al igual que las personas. Entonces, un problema para nosotros será cómo hacerlos viables e integrarlos en la sociedad sin cambiar radicalmente la sociedad. El grito a Abe Lincoln 2100: “¡Libéranos robots, señor Lincoln!” Entonces, al final, habrá aspectos de ingeniería pero también de cambio social a tener en cuenta al hacer AGI.