¿La inteligencia artificial que puede experimentar sufrimiento tiene derechos?

Aquí está la cosa: excepto si eres humano en la mayoría de los casos, realmente no tienes derechos. Los animales son criaturas inteligentes que pueden sentir dolor, pero tienen dos defectos principales con respecto a nosotros:

  • incluso si tenían derecho, no son realmente capaces de defenderlos en nuestro sistema judicial.
  • simplemente no somos nosotros, entonces ¿por qué debería importarnos

No estoy necesariamente apoyando lo anterior y simplemente describiendo cómo son las cosas en su mayor parte. Por supuesto, existen “derechos de los animales” de apoyo humano que pueden presionar para tener algunas leyes, pero una vez más se puede plantear la cuestión de si esta ley realmente está aquí para apoyar a los animales o simplemente para satisfacer las necesidades antropomórficas de estos humanos con respecto a los animales.

Otro caso de excepciones son los que “protegen a los animales” en términos de un recurso que necesitamos mantener para nuestra supervivencia proyectada. Ejemplo: controlar las pesquerías para asegurarnos de que todavía tendremos peces en los próximos años.

Vale la pena señalar que 0 es que si la historia de la esclavitud, o la noción de raza dominante que encontramos en muchos lugares y períodos en nuestra historia relativamente corta, también nos mostró algo es que estamos bastante cómodos para rechazar a uno de nuestro par como un “Realmente humano” para separarlos de algunos de sus derechos.

Ahora vamos salvajes y supongamos que terminamos creando un sistema que tiene habilidades cognitivas y es capaz de sentir dolor. Primero, ¿por qué impondríamos la necesidad de sentir dolor? Ya parece un poco sádico, pero descartemos esta idea al considerar que, por alguna razón, sentir dolor es una necesidad de ser inteligente … ¿Por qué lo daríamos bien?

Es solo una especie de mascota de juguete, después de todo, Dios, ni siquiera es un animal y ya sabemos lo que podemos hacer a los animales. Eso es lo que esta nueva entidad es solo una máquina de nuestra propia creación, y probablemente lo descartaremos como un simple juguete al principio como lo hicimos antes con cosas que descubrimos (nuevas especies, nuevos grupos étnicos, …)

¿Es una elección ética considerar a una criatura que siente dolor de esa manera? No, y es probable que eventualmente algunas personas intenten proponer leyes relacionadas con el buen tratamiento de su IA (nuevamente asumiendo que dicho tratamiento es necesario debido a la necesidad de que sienta dolor por alguna razón retorcida). Pero incluso eso puede ser una vez más leyes que no se crearon realmente para la criatura sino para nosotros, ¿son realmente sus derechos?

De todos modos, déjame empujar este clavo un poco más: ¿Por qué demonios quieres que esta entidad sienta dolor en primer lugar? Sé que sirve su argumento, pero ¿no cree que lo primero que debería haber hecho antes de otorgarle derechos es probablemente no darle artificialmente algo que lo haga sufrir?

Mi opinión es que la inteligencia artificial no es consciente de sí misma y no se volverá consciente de sí misma porque solo procesa números. Por lo tanto, incluso no se siente como un ser vivo. Pero la inteligencia artificial adapta el lenguaje, adapta el movimiento y supera a un ser humano en inteligencia en algún momento. Entonces, de hecho, uno dirá: “Sí siento”.

Ya nadie podrá falsificar la declaración y, sin embargo, deberá responder la pregunta.

La ley es clara; un humano es responsable de otro y no debe cuidar a un animal o reclamar cosas, en lugar de salvar la vida de alguien. La inteligencia artificial será manejada como, por mucho tiempo. Por lo tanto, puede suceder que sufra y sufra especialmente porque la gente no deja que tenga derechos.

Por lo tanto, independientemente de si, me preocupa que las personas podamos renunciar a los derechos, solo porque alguien ya no puede falsificar la declaración (y ya no hay sufrimiento). Esta dinámica seguramente es real en la comunidad; se está ejecutando algún tipo de programa de ventas, alguien muere y a nadie le importa.

Bueno, mira el problema como se trata en Blade Runner. Los androides eran humanos sintéticos. Si algo quiere vivir, siente dolor emocional, ¿qué derechos debería tener en la sociedad humana? si fue creado pero no se reproduce como un humano, ¿es igual al hombre? ¿Es solo una máquina, un mecanismo, una colección de células artificiales? ¿Qué derechos le debemos si se creó como herramienta? ¿Una herramienta de sentimiento, pero una herramienta de todos modos? Por otro lado, infligir innecesariamente dolor prevenible a cualquier sensible es quizás cruel e inmoral. ¿Es moral pegarle a un perro? ¿Cuál es la diferencia entre un perro y un sentimiento inteligente, AI?

¿Qué quieres decir con dolor?
Si te refieres a la capacidad de sentir daño, eso no significa mucho.
Si te refieres a la experiencia de tener dolor, bueno, entonces tienes una IA que puede experimentar cosas. Demostrar que irá mucho más lejos para obtener derechos que tratar de razonar sobre el dolor.

Usted ha sugerido un modelo hipotético, mediante el cual ciertas inteligencia (s) pueden experimentar sufrimiento. Esto también implica que esta misma inteligencia puede experimentar otras emociones o una variedad de emociones.

La respuesta corta a su pregunta es sí. Tal inteligencia, cuando surge y si surge, debería tener derechos.

El criterio para definir algo como ser consciente debería ser simple.

  • Una forma de tecnología, que puede operar en cierto nivel y exhibe un cociente emocional / sentimental / de inteligencia igual o mayor.
  • Una forma de vida que imita el comportamiento humano, habiéndolo aprendido de sus contrapartes humanas. O navegando por el mundo / universo general y aprendiendo sacando sus propias conclusiones. O una combinación de los dos (humano + por sí mismo).

Creo que a su debido tiempo podremos saber qué está pensando una determinada entidad. Si podemos ver y observar objetivamente ciertos rasgos, como las emociones que se sienten, entonces se convierte en un imperativo moral otorgar tal inteligencia a sus derechos inalienables.

Sin embargo, puede haber otros problemas que resolver antes de que podamos llegar a tal modelo.

No.

Creo que sería bastante legítimo crear IA intencionalmente para sentir dolor, ser puesto en situaciones potencialmente peligrosas como una alerta temprana de las condiciones, como un canario en las minas. Si un detector de humo pudiera hacerse más efectivo al sentir dolor, entonces lo apoyaría.

Otra forma de pensarlo: ¿De alguna manera, una persona que no puede sentir dolor tiene menos derechos debido a esto? No lo creo.

Eso depende. El hombre bicentenario toca muchas preguntas teóricas sobre IA. Creo que habrá un punto en el que accidentalmente hemos creado una vida inteligente y cuando lo hagamos, deberíamos darle derechos.

No, pero los demócratas presionarían para darles votos, tal como lo han hecho para adolescentes, personas fallecidas, delincuentes y residentes ilegales.