¿Hay alguna manera de garantizar que una IA superinteligente no sea malévola?

No, no podemos hacer ninguna garantía sobre tales máquinas porque son puramente especulativas en este momento. No tenemos una teoría integral de la inteligencia general y, por lo tanto, no podemos decir cómo funcionaría.

Es posible garantizar que una IA superinteligente no sea malévola. Pero ciertamente no sabemos cómo hacerlo en este momento. Por supuesto, tampoco sabemos cómo construir una IA superinteligente o incluso una IA general moderadamente inteligente. Todo lo que podemos construir ahora es IA que sea buena en tareas específicas (que, por supuesto, son muy útiles).

Pero sospecho que nunca tendremos tales garantías. No puedes predecir las acciones de algo más inteligente que tú. Si pudieras, serías tan inteligente como él. Entonces, si las superinteligencias considerablemente más poderosas que los humanos son posibles y prácticas de construir (lo cual no está garantizado de ninguna manera) correremos un riesgo al hacerlo.

Las Tres Leyes de la Robótica de Asimov tenían la intención de ser una forma infalible de prevenir inteligencias artificiales malévolas. Estas reglas debían integrarse en cada robot de manera que el robot las siguiera. Las reglas deben ser interpretadas en orden con el primero teniendo prioridad sobre los otros dos.

Citando de Wikipedia, son (Three Laws of Robotics – Wikipedia):

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Parecerían proporcionar protección blindada, pero hay límites. Muchas de las historias de robots de Asimov, muy agradables, giran en torno a los límites de estas reglas. Un robot, por ejemplo, podría dañar a un humano cuando no sabe que una acción dada dañará a un humano.

Un gran problema con estas leyes es que no hay forma de asegurar que se hayan programado correctamente en una máquina determinada y que cada máquina las entienda correctamente. Un robot podría decidir, por ejemplo, que todos los humanos estarían mejor protegidos del daño, todos ellos serían preservados en nitrógeno líquido.

Estas leyes previenen efectivamente el uso de robots militares. Pero parece improbable que los militares del mundo quieran renunciar a la opción de usar robots de combate. Estarían tentados a construir robots que carezcan de esas leyes.

Esto se llama el problema de alineación de valores. Todavía no se ha resuelto, pero no se ha demostrado que sea imposible.