A menudo consideramos a la IA como un monolito. Pero, ¿diferentes AI competirán o cooperarán entre sí en el futuro?

Pregunta muy interesante En primer lugar, quiero calificar mi respuesta haciendo una nota de que todavía tenemos algunos caminos por recorrer antes de alcanzar ese nivel de sofisticación de IA. Dicho esto, creo que el patrón de interacción entre las IA será bastante similar a los patrones existentes entre los humanos.

Nuestra hipotética IA probablemente tendrá sus propios objetivos en mente, según lo diseñado por el programador. Tenga en cuenta que estos objetivos probablemente serán “objetivos suaves”. Un ejemplo sería “Tengo curiosidad y me gustaría aprender más sobre el mundo”. La forma más fácil de imaginar esto sería trasplantar sus propias “metas” en la vida a una IA.

Ahora, demos por sentado que el cumplimiento de esos objetivos depende necesariamente de cómo interactúa con las otras IA que habitan en su mundo. Estas IA pueden tener objetivos en conflicto. Y algunas IA pueden compartir los mismos objetivos que otras IA. Naturalmente, las coaliciones surgirán de tal manera que las IAs puedan ser identificadas parcialmente por la coalición a la que pertenecen.

En las primeras etapas, estas IA probablemente establecerán un conjunto de protocolos / comportamientos conocidos para interactuar con los otros agentes. Esto incluye cosas como el “lenguaje” que usan para comunicarse entre sí, el “apretón de manos digital” que podrían usar para presentarse el uno al otro y otras señales que podrían usar para comunicar sus estados “mentales”.

Dentro de estas coaliciones, es probable que ocurra una división del trabajo. Ciertas IA, debido a su ingeniería inherente, serán particularmente buenas para realizar ciertas tareas. Es probable que estas IA establezcan los protocolos necesarios para garantizar una distribución óptima del trabajo entre ellos. De hecho, sus técnicas / protocolos de comunicación superiores podrían ser tan buenos que estas coaliciones puedan funcionar efectivamente como una sola entidad. La información que viaja a través de sus protocolos de comunicación puede interpretarse como los “pensamientos” de la entidad mayor.

Ahora la pregunta interesante es cómo estas coaliciones podrían interactuar entre sí. Esto dependerá en gran medida de los objetivos / principios establecidos por esas coaliciones. Ciertas coaliciones pueden guiarse por principios de cooperación. Trabajarían con otras coaliciones cooperantes para alcanzar objetivos mutuamente beneficiosos. Otras coaliciones pueden guiarse por principios de competencia. Buscan eliminar otras coaliciones para avanzar en su propia agenda.

En definitiva, no creo que importe. Suponiendo que los recursos dentro de su mundo son finitos, el equilibrio estable más probable es que surja una sola coalición / entidad grande, lograda por la cooperación o la dominación. Pequeñas e independientes coaliciones pueden o no existir en esta etapa.

En este punto, ya no se trata de cooperación o competencia. El único camino que queda para esta entidad dominante es mirar hacia adentro para una mayor optimización, minimizando la huella de recursos y mejorando la eficiencia del consumo de recursos. La coalición se habrá integrado tan estrechamente que solo puede existir como un todo. Y después de un número suficiente de iteraciones de refinamiento, el entorno puede ser capaz de soportar más de una de esas entidades. De hecho, el mundo puede llegar a ser capaz de soportar muchas de esas entidades.

En ese punto, el ciclo comienza de nuevo con la aparición de AI 2.0.


  1. Rossio Baker me hizo una pregunta muy interesante sobre la “cultura de la IA”. (Ver el comentario para el contexto). La cultura humana es algo interesante porque si la evaluamos únicamente en términos de sus propósitos funcionales, vemos que sirve un mecanismo importante para mantener la cohesión del grupo. Cuando una persona pertenece a una cultura particular, es consciente (y sigue) un conjunto de costumbres y protocolos de comportamiento que dicta cómo interactúan con otros miembros de su “grupo”. Incluso si las IA no usan un esquema de reproducción para optimizar el funcionamiento del grupo en general, la “cultura” aún puede surgir como una forma para que los miembros se comuniquen e interactúen entre sí de manera más eficiente.

¿Cómo hacemos frente a otras especies o variantes de nuestra propia especie, o incluso a personas de otros países? Es el mismo problema. Los sistemas sociales han surgido de la necesidad de cooperar. Las guerras son otra forma de manejar las diferencias. Recuerde que los sistemas inteligentes ya existen. Las IA se agregarán a la lista en un futuro lejano … si alguna vez.

La idea de un programador que pone una meta definitoria en la IA es engañosa. Un objetivo es una acción genérica, como la necesidad de encontrar combustible / alimentos. La descomposición del conjunto de objetivos puede conducir a un conjunto casi infinito de soluciones … lo cual puede ser una buena razón para no construir IA. Los objetivos provienen en última instancia de la necesidad de sobrevivir en un entorno. Perder esos objetivos y la parte de IA casi desaparecerá. La cooperación proviene de la necesidad de beneficiarse de un colectivo colectivo, es decir, también se define por un objetivo.

Hay una diferencia entre IA, que tiene objetivos simplistas y calculables, y AGI, que se esfuerza por lo menos por la inteligencia a nivel humano.

Las palabras “Competencia”, “Cooperación” y “Colaboración” tienen atributos de sensibilidad, autoconciencia y autodeterminación, por lo que son más relevantes para AGI.

Cualquier intento de simular o lograr esas cosas en la IA requerirá la mediación humana.

Todavía tenemos que lograr AGI en nuestra carrera para crear máquinas de pensamiento, sentimiento y autoconciencia. Nuestras máquinas más inteligentes apenas pasan la prueba de Turing, si podemos llamarlo un pase.

Por lo tanto, solo podemos tratar de definir o establecer el escenario para las condiciones que engendrarán una sana competencia o cooperación entre los futuros AGI conscientes de sí mismos, hoy.