Porque la súper inteligencia no aparece en el garaje de alguien o incluso en el sistema de laboratorio de computadoras de una compañía. Alguna inteligencia limitada, tal vez. Pero una súper inteligencia del mundo real requiere:
- Competencia: la súper inteligencia solo puede aumentar en competencia con otros sistemas de súper inteligencia. Esto significa que necesitamos tener muchos sistemas de superación personal que compitan entre sí. Sin esa competencia, la inteligencia pronto se estancará y nunca alcanzará un nivel súper inteligente. Esta es una de las razones por las cuales es poco probable que veamos una súper mente única que salga de la nada. El proceso llevará algún tiempo y será muy visible. Esto también explica por qué el escenario “SkyNet” de la serie Terminator es altamente improbable.
- Interacción del mundo real (similar). Necesita interactuar y lo más importante, manipular su entorno. Esto no es fácil de lograr a escala, al menos no con un entorno lo suficientemente complejo como el mundo real. Los niños tardan años en alcanzar el nivel “inteligente” y su “hardware” supera significativamente el poder de procesamiento de las computadoras actuales. Por ejemplo, Watson de IBM no hace eso. Un virus / gusano informático es más adecuado para dicha manipulación: tiene una presión evolutiva para adaptar e infectar más máquinas. Sin embargo, cuanto más “inteligente” se vuelve ese gusano, más obvio es que se está ejecutando en la máquina y, por lo tanto, más fácil de detectar por los sistemas antivirus. Lo mismo se aplica a la evolución humana también: a medida que nuestros cerebros se hicieron más grandes, necesitábamos consumir más recursos y, por lo tanto, exponernos a mayores riesgos mientras los alcanzábamos. No fue un proceso rápido y posiblemente comenzamos a buscar depredadores (caminando erguidos) y a usar herramientas (para convertirnos en un depredador más formidable) mucho antes de desarrollar cerebros grandes.
- Control: como señalaron otros, todos (programadores, gerentes, personal de soporte, CEO, inversores) queremos tener control sobre el software. Un sistema impredecible y demasiado inteligente es un comodín. En cierto punto, ni siquiera es obvio que hace lo que creemos que está “optimizado” para hacer.
- Puede haber límites de inteligencia. La singularidad dice que una IA muy inteligente diseñará una aún más inteligente, pero esto es realmente suicida y puede detenerse en cierto punto. O al menos frenar hasta detenerse. Lo mismo ocurre con las auto-mejoras. Digamos que crees en ReligionA (que podría ser no-religion, no importa). Luego, la sociedad decide colectivamente que ReligionB te hará una mejor persona y ayuda a la sociedad a avanzar. Nuevamente, ReligionB podría decir ‘no-religión’, la parte importante es que RegligionB no es lo mismo que ReligionA. ¿Cambiarías tus sistemas de creencias incluso sabiendo que serías una “mejor persona”? O otra opción moral: puede ser dos veces más inteligente, pero luego perderá la capacidad de comunicarse con sus seres queridos, ya que no podrán atrapar con su coeficiente intelectual / velocidad de pensamiento. Una IA que está en camino de convertirse en una súper inteligencia golpeará estas barreras.
- El estado de la ciencia: tanto la ciencia de los materiales (hardware) como la informática (software) aún no están listas para crear una inteligencia a nivel humano. Nos estamos acercando, pero se puede argumentar que este ha sido el caso durante al menos cien años. Soy optimista y creo que atacaremos la inteligencia casi humana en nuestras vidas. A partir de ahí, podemos “simular” la superinteligencia simplemente acelerando el tiempo de cálculo. Por ejemplo, obtienes un humano y lo emulas en un hardware que corre 1,000 veces más rápido que el cerebro humano. Ahora tiene una entidad que no es más inteligente que la humana, pero parece serlo, ya que tiene toda una vida de investigación por delante de cualquier ser humano.