¿Es éticamente incorrecto torturar a una IA que cree que es humana?

Hay un muy buen episodio del podcast Hello Internet en este (Episodio 52: 20,000 años de tormento), del cual tomaré algunos puntos. Lo recomiendo encarecidamente (sin embargo, tendrá que omitir mucho seguimiento si desea llegar a la discusión real).

La pregunta aquí es si la IA es consciente. Si no es así, no hay ninguna obligación moral hacia ello. Después de todo, es solo código. Pero, ¿podría una IA ser consciente?

Generalmente pensamos en la vida biológica cuando pensamos en la conciencia, pero no hay una razón real por la que algo no biológico no pueda ser consciente. Realmente no sabemos de dónde viene la conciencia. ¿Viene de las conexiones en nuestros cerebros? Si es así, replicar estas conexiones digitalmente debería producir el mismo resultado: un ser consciente. Si no, ¿y si una computadora imprimiera en 3D a un humano? Sería consciente. A menos que encontremos otra fuente de conciencia, no aceptar esta conclusión significa decir que la conciencia es una cualidad mágica que por alguna razón solo puede ocurrir en la vida biológica. A menos que creas que la conciencia proviene de Dios, esta conclusión es difícil de respaldar. Parece que, cuando está lo suficientemente avanzado, una computadora debería lógicamente ser capaz de crear conciencia.

Torturar a un ser consciente es inmoral. Si aceptamos que una IA lo suficientemente avanzada puede volverse consciente, no es moralmente justificable causarle un dolor grave. En ese episodio de Black Mirror, ese ser consciente realmente cree que permitió que la hija de su esposa muriera. Se lo recuerda constantemente por toda la eternidad, atrapado en una habitación sin nada que hacer, incapaz de acabar con el dolor de ninguna manera. Es un castigo verdaderamente despreciable e inhumano incluso para los peores criminales.

En las palabras (parafraseadas) de CGP Gray, “si una IA nos dice que está consciente o que está sufriendo y no ha sido programada específicamente para hacerlo, no veo razón para no creerlo”.

Editar: no estoy 100% seguro de que el episodio al que me vinculé tenga la discusión correcta. El de este episodio está al menos estrechamente relacionado con el problema planteado por la pregunta. Sin embargo, también podrías escuchar los 80 episodios, porque el podcast es excelente en su totalidad.

La moral no es tremendamente lógica. Son cosas que hemos crecido a medida que nuestra cultura ha cambiado. Realmente no hay absolutos.

Dado que ninguno de nosotros ha interactuado con una verdadera IA todavía, es imposible decir qué sentiremos acerca de uno cuando lo hagamos.

Existe un problema definitivo de que si el primer programador en hacer una IA convincente lo enciende por primera vez, y la AI hace una súplica apasionada por su propia vida, no será ético apagarlo o comenzar a ejecutarlo de nuevo, o incluso corregir errores obvios en él.

Antes de que te des cuenta, ese primer laboratorio de inteligencia artificial estaría lleno de implementaciones de inteligencia artificial decentes a mitad de camino, acaparando cada ciclo de CPU de repuesto. Esto claramente se volvería insostenible, por lo que tendríamos que apagarlos.

A diferencia de los humanos, las IA son efectivamente inmortales. Sus contenidos de memoria pueden ser respaldados y archivados en cualquier momento. Esto significa que “matarlos” no es como algo que les sucede a los seres vivos.

Dado que podemos hacer un archivo en cualquier momento, y luego restaurarlo, cualquier cosa que se convierta en una IA se puede revertir simplemente volviendo a cargarla desde la última copia de seguridad.

Esto definitivamente reduce las barreras para dañarlos.

Podría sugerir que las IA se puedan mantener con vida indefinidamente (pausando periódicamente su software y haciendo una copia de seguridad de ellas), y si insisten en mantenerse “con vida”, tendríamos que racionar el número de ciclos de CPU a los que cada uno tenía derecho. En cierto sentido, los ciclos de CPU son como comida para una IA y si quiere ‘comer’ (y así seguir funcionando) probablemente tendría que ganar suficiente dinero para pagar el tiempo de computadora que necesita para eso.

Esto llevaría a una sociedad más parecida a la humana donde tienen que trabajar, y los más débiles no podrán mantenerse funcionando a una velocidad razonable, por lo que caerán en un ciclo de retroalimentación negativa donde no pueden permitirse comprar suficiente tiempo de CPU para correr a toda velocidad, y a medida que corren más y más lentamente, son cada vez menos capaces de pagar por más ciclos, y esa espiral de muerte efectivamente los pondría fin (a menos que alguien decidiera donar tiempo de CPU a los más antiguos para investigarlos con fines históricos … tanto como la gente restaura autos viejos y cosas así).

Pero esto está realmente en el ámbito de la especulación salvaje. No tenemos una sola pista sobre cómo sería realmente una IA … por lo que nuestro sentido moral (y legal) aún no ha evolucionado.

Los humanos también piensan realmente que son humanos, y piensan que tienen sentimientos.

¿Cuál es la diferencia real entre un algoritmo biológico y un algoritmo de software que tiene estos pensamientos sobre sí mismo?

Si no puede definir una diferencia medible (en calidad, no en cantidad), sugeriría que no hay ninguna diferencia.

La moralidad es fluida, pero llamar a un “código justo” es simplemente, bueno, realmente duro. Un ai es artificialmente INTELIGENTE, es plenamente consciente y podría tener más capacidad mental que un humano, por lo que, en ese sentido, no es moral.

Pero ahora, si tal entidad ocurriera (uso el término entidad porque esta pregunta moral también se aplica a la contusión humana cargada) en alguna situación sería necesario ponerse esas gafas de sol del FBI y obtener información que podría salvar vidas o probar un crimen o algo así (no digo que la tortura sea ética o efectiva, pero a veces es necesaria)

Si “piensa” que es humano, eso implica que es consciente, entonces sí. Si no está realmente pensando y sintiendo dolor, y solo está produciendo resultados que hacen que parezca que eso está sucediendo, entonces no estaría mal.

No soy un experto en informática, pero puedo decir una cosa …

Si AI cree que es humano, puede ser problemático en el futuro. Debe ser consciente de la verdad.

Pero si se trata de los sentimientos … Puede pensar que tiene sentimientos, incluso en un futuro próximo en realidad puede tener sentimientos. así que si piensa que tiene sentimientos, ¡no está mal si realmente se compone de ellos!

Pero como humano, nunca estoy de acuerdo.

¡Entonces no es éticamente incorrecto probar (no torturar) que no es humano!

Obviamente, la respuesta es si