¿Qué reglas debe seguir la inteligencia artificial en el futuro?

Es posible que haya escuchado sobre Tres leyes de la robótica de Isaac Asimov que dice:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley

En mi opinión, estas reglas son reglas que debemos mantener siempre como obligatorias en cualquier tipo de Inteligencia Artificial. Sin embargo, no creo que sean suficientes cuando la IA se desarrolle a una etapa superior de inteligencia. A medida que Google anuncia 5 reglas de seguridad para su desarrollo de inteligencia artificial, podemos ver que las empresas ya son conscientes de los posibles peligros del desarrollo de IA sin control.

En mi opinión, deberíamos tener 3 reglas más:

  • Una que establezca claramente que cualquier sistema de IA estaría cubierto por las mismas leyes que se aplican a su propietario humano. Esto aseguraría que las personas no usarían la IA para cometer delitos y culpar de sus acciones a los robots.
  • La segunda regla sería que cualquier IA alertara claramente de que es un robot y nunca intente pasar como humano. (Hemos visto algunos ejemplos de sofisticados programas informáticos que pueden dialogar y hacer que las personas crean que están hablando con otro ser humano).
  • Una IA nunca podría obtener ninguna información y almacenarla sin la aprobación de donde está tomando la información. Esta regla asegurará que AI no pueda acceder y almacenar información confidencial.

Al final, creo que estas y otras posibles reglas pueden garantizar que la IA se desarrolle con menos riesgos.

La única regla que tiene sentido: “Sé mejor que los humanos”

Realmente no hay otro propósito por el cual la IA se desarrolla en primer lugar.

“Nunca dañar a los humanos directamente o por inacción a través”?

No. No … AI no decide. No lo hace. Hace lo que es su propósito.

Es un bot bombero rescatador? Bien, pero si está apagado, cerca de un incendio provocado, tiene que permanecer apagado. Esa puede ser una barbacoa inofensiva y no hay necesidad de descargar el extintor.

¿Un bot de cirujano? Tiene que cortar la piel abierta. Es trabajo

¿El problema del carro? ¿Desea salvar a los transeúntes pero matando a los pasajeros? El automóvil AI frenará más rápido que los humanos con su programación innata y, para empezar, mantendrá un límite de velocidad seguro. Permanecerá en el camino. Los peatones no aparecen de la nada.

[Más por agregar]

La respuesta obvia es que se debe implementar algo como las “Tres leyes de la robótica”.

Sin embargo, hay una regla que también podría resolver muchos problemas: la transparencia del proceso de pensamiento. Esencialmente, cada vez que una IA toma una decisión independiente, dicha IA debe ser completamente abierta y honesta cuando se le pide que explique sus intenciones y razones.

De esa manera, cuando una IA comienza a actuar sospechosamente, simplemente podemos cuestionarla y descubrir si está tratando de dominar el mundo o no.