¿Cuáles son los cuellos de botella actuales para la IA general?

Cuando decimos IA “general”, necesitamos examinar eso un poco más cuidadosamente. Lo que se considera “inteligente” puede verse desde el exterior o desde el interior del marco de información disponible. Si conocemos información que otra persona no conoce o si podemos percibir algo que no pueden, su comportamiento puede parecer bastante estúpido. Pero para ellos, puede que no sea estúpido porque no tienen esa información adicional. Lo que es “inteligente” depende del contexto y del sistema de valores del observador. ¿Qué número viene después en esta serie … 1,2,3,4, … ?? Bueno, la mayoría de nosotros en esta cultura diríamos “5” como la respuesta obvia. Pero, de hecho, uno puede elegir CUALQUIER próximo número; por ejemplo, “6”, “4.001” o “77” y se le ocurre un algoritmo que elegiría ese número. Desde puntos de datos finitos, podría inventar una historia para cualquier número siguiente como correcta. Por inteligencia “general”, las personas generalmente se refieren a un sistema que daría la misma respuesta que daría un ser humano. El problema es que si esa es nuestra definición de IA “general”, ese sistema tenderá a cometer exactamente los mismos errores que cometería una persona. En este momento, estamos sobrepoblando y contaminando demasiado nuestro planeta. Si hacemos un sistema de “IA general” que dé las mismas respuestas a los problemas que daríamos, entonces este sistema de “IA general” simplemente nos ayudará a destruir el planeta de manera un poco más eficiente. Si por sistema de “IA general” te refieres a uno que daría respuestas DIFERENTES de lo que lo haría una persona, entonces, podemos o no aceptarlas como “correctas”. Este es un dilema fundamental que constituye un “cuello de botella”. Creo que hay hay otros, algunos de los cuales se insinúan en “Las pesadillas de Turing”: estos son escenarios ficticios, pero algunos están destinados a ilustrar algunos puntos técnicos. https://www.amazon.com/Turings-Ni…