¿Qué tan lejos estamos de desarrollar una IA fuerte, con propiedades de aprendizaje recursivo que resulten en falacias lógicas?

Soy un psicólogo primero y un experto en tecnología, mucho, mucho segundo. Con eso en mente, mis pensamientos sobre la IA siempre tienen en cuenta cómo se instancia la conciencia a través del organismo particular con el que emerge. George Layoff y Mark Johnson, entre otros, han presentado un argumento convincente para considerar la conciencia como encarnada, como unida al dispositivo experiencial humano que llamamos nosotros mismos o carne. La experiencia de lo que está sucediendo, por ejemplo, es lo que está por encima de nosotros, ciertamente una situación diferente para una hormiga. La “cara” de un objeto está determinada por lo que estamos mirando, colocando proyectivamente algo que poseemos en objetos como árboles y rocas que no tienen nada de eso. Además, la forma en que nuestros cerebros funcionan, evolucionaron como lo hicieron en los pastizales de África, han sido construidos por la naturaleza con heurísticas adaptativas particulares para la supervivencia y la simplicidad del uso de energía.

Todo esto trae una IA de computadora, que tendría, si las palabras tienen algún significado aquí, un “cuerpo” muy diferente y ciertamente no habría evolucionado de ninguna manera similar, si es que lo hicimos, como lo hicimos nosotros como especie. ¿Qué implica esto? La recursividad es una característica de ingeniería, que en teoría parece bastante posible de lograr. ¿Surgiría el potencial de las falacias? De hecho, tengo curiosidad, si se trata de una extremidad aquí, si la “conciencia” de la IA diferiría tanto de nosotros que sería difícil entenderlo, particularmente si se dejara su propio desarrollo una vez establecido. Dentro de ese pensamiento hay un reconocimiento de que cualquier falacia que pueda surgir probablemente sea diferente a la que estamos acostumbrados y en cualquier momento que haya similitudes, me pregunto si tal criatura lo estaba haciendo deliberadamente para tranquilizarnos a través de la familiaridad.

El razonamiento circular es un ejemplo de falacia. Entonces, una IA que lo usó no sería muy inteligente.