Cuando construimos una IA tan inteligente como los humanos, ¿cuáles son los derechos fundamentales que se otorgarían a tales máquinas?

Este tema ya ha sido ampliamente debatido por los filósofos. Puede leer más al respecto aquí: Ética de la inteligencia artificial

Agregaré rápidamente que no soy un experto, pero mi opinión es que la conciencia y la inteligencia, los rasgos que creo que valoramos más, no son exclusivos de los humanos o incluso de la vida orgánica. Entonces, en una sociedad utópica justa, los robots que muestran ambos en la misma medida que nosotros deberían recibir el mismo trato.

En la práctica, sin embargo, la ética está enraizada en el propio interés humano. Nadie está en contra de matar bacterias o plantas, algunas personas están en contra de matar a otros no humanos de inteligencia variable (arañas, ardillas, ciervos, perros, delfines), pero todos aceptan no matar humanos, porque no queremos que nos maten a nosotros mismos. . Y mire cuán lentos han sido los movimientos de igualdad de derechos incluso dentro de nuestra especie. Los robots son potencialmente amenazantes al igual que los negros y las mujeres eran para los hombres blancos en los EE. UU. (O si no son amenazantes, más útiles subyugados que gratuitos). No me sorprendería en absoluto si los robots equivalentes humanos permanecieran marginados durante mucho tiempo.

En mi humilde opinión, la única razón por la que tenemos derechos es porque experimentamos emociones relacionadas con la moderación y el cautiverio si no lo hacemos. Lo que hace que el homo sapien sea humano es la emoción. (Para explicarlo: en términos puramente lógicos, no hay razón para que sobrevivamos y nos reproduzcamos si morimos tarde o temprano de todos modos. La única razón por la que no nos damos por vencidos) la vida en el momento en que nacemos es la motivación, un derivado de la emoción.) A menos que y hasta que este pedacito emocional de apareamiento y multiplicación se implante explícitamente en una máquina, no tiene que preocuparse por otorgar derechos a los robots. Según la lógica actual, la inteligencia y la emoción son independientes entre sí, aunque este es un punto que debate activamente.

El problema principal aquí no es la “inteligencia” o las “emociones” sino la propiedad. Las máquinas deben ser hechas por alguien o algo. Y hasta que las máquinas no tengan “propietarios”, nunca tendrán mucho en cuanto a “derechos”.

La esclavitud de los humanos sigue siendo un tema muy difícil. Hay más esclavos en el mundo hoy que en el momento de la guerra civil de los Estados Unidos. Sin embargo, todavía existen restricciones sobre los “derechos” de los humanos percibidos como “menores que”.

De la misma manera, ahora está claro que muchos animales, especialmente los mamíferos como las ballenas, los delfines y los chimpancés son inteligentes, pero por lo general no tienen “derechos”, pero son salvajes o de su propiedad.

Entonces, hasta que las máquinas “libres” comiencen a crear máquinas “gratuitas”, no habrá derechos para las “cosas”.

Gracias por la A2A

Si se comportan de manera idéntica a los humanos, querrán y nos veremos moralmente obligados a darles igualdad, etc.

Pero la pregunta es: ¿se construirán con el amor a la libertad que tienen los humanos? Las máquinas de ajedrez son muy inteligentes (en un dominio estrecho), pero no tienen noción de libertad. Quizás la primera IA fuerte sea capaz de encontrar una cura para el cáncer, crear estrategias ganadoras de guerra, vencer al mercado, conducir todos los autos del mundo a la vez, pero no preocuparse por la libertad de expresión, empleo, religión, movimiento, etc. (En realidad, se preocupará por algunas libertades, a menos que estén específicamente diseñadas para no preocuparse, porque ayudan a trabajar hacia sus objetivos. Pero en este caso, el deseo de libertad será solo un instrumento para alcanzar sus objetivos, no un valor final .)

Entonces, todo depende de cómo se construya la IA, cuáles son sus valores y objetivos.

No estaríamos haciendo humanos. Estaríamos haciendo máquinas que pudieran pensar tan bien como las personas, pero si se implementan correctamente, no tendrían sentimientos, ni metas personales (solo las metas que les dimos), ni amor por nada más que por nosotros. Serían máquinas altamente capaces, pero máquinas, no creo que sea necesario otorgar derechos a mi automóvil o televisor.

Observo que las máquinas pueden comprender las emociones humanas, para comprender mejor nuestras necesidades, pero no tienen que tener emociones humanas en sí mismas. ¿Quieres que una máquina se enoje contigo? Eso entraría en conflicto con una de las leyes de Asimov sobre no dañar a los humanos. (Suponiendo que implementemos controles sobre las IA para cumplir con esas leyes).

Supongo que las máquinas tendrán un alma o equivalente, creo que está mal.

En lugar de debatir qué derechos deberían otorgarse a ellos, por favor, dedique su tiempo para hacerlos.
NOTA: Si alguien crea un monstruo, antes de hacerlo se asegurará de poder controlarlo.
Tampoco mire demasiadas películas de ciencia ficción. Nada va a suceder.