¿Las tres leyes de la robótica representan un estándar viable para la ética de la IA?

No, en realidad no, ya que son imposibles de implementar.

Abordemos primero un problema un poco más simple. Supongamos que fabrico martillos. Por supuesto, al ser una persona ética, me gustaría que mis martillos sigan las siguientes pautas:

  • Mis martillos no deberían poder usarse para dañar a un ser humano.

Tenga en cuenta que esto corresponde a la primera ley de la robótica.

¿Cómo implementaría esto? No veo ninguna forma posible de fabricar un martillo totalmente funcional que no pueda usarse también como arma. No hay forma de construir un mecanismo de seguridad que capte todos los escenarios posibles en los que alguien pueda usar un martillo para lastimar a otra persona o a sí mismos, sin inutilizar el martillo.

Por supuesto, cuando se habla de sistemas de IA, parece que podría haber formas de dejar que la IA razone y descubra los efectos de sus acciones. Esto, sin embargo, se encuentra con un problema muy importante para los sistemas de IA: el problema del marco. Para cada decisión posible, el sistema de IA necesitaría ejecutar simulaciones interminables para determinar si esta decisión influye positiva o negativamente en la probabilidad de que algún humano se dañe. Dependiendo de la escala de tiempo (¿Puede dañar a los seres humanos dentro de 200 años? ¿Debería evitar dañar a los seres humanos en los próximos 10 días? ¿Cuánto tiempo debemos considerar los posibles efectos secundarios de nuestras acciones?) Y la definición de “daño” (¿Puedes sacrificar una extremidad para salvar un riñón? ¿Deberías hacerlo? Cuando se te da la opción de salvar a 3 personas matando a 2, ¿deberías simplemente quedarte esperando, observando sin hacer nada?), el problema no está bien planteado. Cualquier encuadre muy específico del problema todavía requiere un agente con habilidades de razonamiento casi perfectas, lo que no es viable en este momento.

Las tres leyes de la robótica son un concepto interesante en la literatura de ciencia ficción donde se explora la esencia de la humanidad al considerar un tipo de agente “diferente”: uno con una capacidad superior de razonamiento y cálculo, pero que no necesariamente tiene la misma moralidad, por lo tanto, necesita para ser agregado con fuerza. Es buena literatura, pero tiene poco que ver con los sistemas reales.

Le sugiero que profundice en la serie de novelas Lije Baley de Asimov, donde él mismo profundiza en este tema.