¿Pusimos las bases teóricas para crear el software para IA súper inteligente o apenas tenemos idea de cómo lograrlo?

No, no tenemos el marco teórico. Lo hemos estado buscando durante mucho tiempo, pero en mi opinión, sigue siendo el elemento que más nos falta.

Las computadoras han mejorado en todas las formas posibles, y todavía están mejorando. La ingeniería de software también está mejorando. Con esas mejores herramientas, estamos construyendo sistemas que son cada vez más buenos para resolver individualmente numerosas tareas específicas que podríamos describir como que requieren un comportamiento inteligente. En algunas de esas tareas, la IA ya tiene un rendimiento “sobrehumano” (son consistentemente mejores que los mejores humanos). Pero eso no nos dice cómo juntar todas esas cosas para producir un sistema capaz de acción inteligente general y adaptativa en un nivel que llamamos “sobrehumano”, o incluso humano, o simplemente animal. (Y “poner esas cosas juntas” probablemente ni siquiera sea la forma correcta de pensarlo). Sí, podemos construir máquinas que jueguen Go a un nivel sobrehumano, pero no podemos hacer un agente autónomo con las mismas habilidades generales. comportarse de manera inteligente en un ambiente rico y abierto como su perro. Y su perro no puede jugar Go (o, como Rodney Brooks escribió, los elefantes no juegan al ajedrez).

¿Cómo desarrollamos progresivamente habilidades para producir comportamientos inteligentes adaptados a nuestro entorno? ¿Cómo se conducen exactamente este desarrollo y esos comportamientos? ¿Cómo podemos replicarlos y extenderlos en un agente autónomo? Esas son preguntas generales muy buenas para las que aún no tenemos respuestas generales.