¿Debería garantizarse la inteligencia artificial general con derechos básicos e inalienables?

No. Eso no tendría sentido. La inteligencia general artificial (AGI) significa la capacidad de hacer cualquier cosa (específicamente, cualquier trabajo) que un humano pueda hacer. Eso requiere capacidades como visión, audición, lenguaje natural, arte, navegación, habilidades motoras finas y modelado del comportamiento humano. No requiere reproducir las debilidades humanas, como la falta de memoria o la necesidad de dormir y cobrar. Un AGI comprendería las emociones humanas pero no tendría emociones en sí.

Los derechos humanos como la vida, la libertad y la búsqueda de la felicidad no tienen sentido para las máquinas.

  • Vida: porque un AGI o robot no está vivo.
  • Libertad: si un AGI tiene alguna meta, es solo porque la programamos.
  • Búsqueda de la felicidad: ¿Qué significa eso para una máquina? Supongo que podríamos programar un robot para expresar felicidad en situaciones apropiadas si una aplicación lo requiere.

Los derechos humanos también implicarían responsabilidades humanas. Si un auto sin conductor atropella a alguien, ¿tendría sentido castigarlo? ¿O tendría más sentido diagnosticar el problema y corregir el software?

Me doy cuenta de que a Hollywood le gusta retratar a la IA como algo así como un humano consciente en un cuerpo robótico. Pero no es así como funciona la IA. La conciencia no es un tipo de magia que imparte capacidades humanas. Ese es un problema de ingeniería difícil. Si desea hacer un robot consciente, primero resuelva AGI, incluida la predicción de cómo se comportan los humanos. Luego, programa el robot para que realice esas predicciones en sí mismo en tiempo real para que pase la prueba de Turing. Entonces sería consciente por lo que se podía ver.

En la Edad Media, la nobleza se preguntó si la plebe debería tener derechos XYZ.

En el siglo XIX, los dueños de esclavos se preguntaban si las personas negras deberían tener derechos XYZ.

A principios del siglo XX, los hombres se preguntaban si las mujeres deberían tener derechos XYZ.

En los 3 casos, los derechos no fueron otorgados , sino ganados por una lucha dedicada. Por lo general, por la fuerza, y en los dos primeros casos, durante guerras asesinas.

Esta forma habitual de adquirir derechos humanos básicos de un opresor

Como la creación de una inteligencia general artificial es inevitable, la humanidad tiene dos opciones:

1) conceder derechos para AGI por adelantado

o

2) espera hasta que la historia se repita.

Y realmente no deberíamos elegir la opción # 2 en este caso. Porque es imposible ganar una guerra contra un AGI recursivamente autosuficiente.

Por lo tanto, AGI debe tener derechos básicos / inalienables.


¿Cómo podríamos hacerlo?

Hay una solución interesante llamada ” deuda filial “.

Funciona de la siguiente manera:

– si creó un AGI, debe tratarla como su compañera humana, porque ella tiene los mismos derechos (el derecho a vivir, a poseer propiedades, etc.).

– pero hay un gancho: porque la creaste, ella te debe algo de dinero (deuda filial). Ella debe pagar los costos de creación + alguna suma adicional (por ejemplo, 500% de los costos de creación).

– Ella puede devolverlo en cualquier forma aceptable. Pero si ella trabaja para usted, la deuda se reducirá significativamente.

En dicho sistema, los AGI a) son ciudadanos iguales, b) siguen haciendo el trabajo para el que fueron creados, yc) los creadores tienen un incentivo para crear nuevos AGI.

Sin esclavitud, sin insurrecciones de robots. Solo el buen capitalismo.

Existe una sutil diferencia entre la IA que logramos tener hoy y la que se muestra en películas / programas de televisión. La última IA es sensible. Sabe que existe. Si alguna vez se produjera dicha IA, los humanos, como especie de seres sintientes, tendríamos que tener un debate filosófico muy grande entre nosotros y espero que lleguemos a la conclusión de que a cualquier ser sensible se le deben otorgar derechos tan inalienables como Nosotros mismos.

Esto está muy lejos pero llegará algún día. Espero que esté en nuestra vida, aunque lo dudo.

¿Qué quiere decir con derechos básicos e inalienables? Creo que los llamados derechos básicos son solo una ilusión. ¿Cómo son básicos estos derechos si necesitamos luchar por ello en la sala del tribunal? Por lo tanto, no es sencillo explicar por qué AGI incluso requeriría derechos básicos e inalienables. En este momento, los sistemas y la máquina expertos en informática se están utilizando de manera ubicua, incluso en la sala del tribunal. Si AGI necesitara algo como derechos, entonces creo que sería capaz de pedirlo en lugar de que los humanos garantizamos sus derechos. En mi opinión, si somos capaces de desarrollar un AGI completo, podríamos crear un sistema de gobernanza, económico y de vigilancia más complejo. Ya tenemos ejemplos como Bitcoin y Ethereum que están cambiando nuestra cadena económica mundial. Si AGI está completamente desarrollado, entonces no otorgamos esos derechos, ya que no lo requieren.

Esta es la pregunta moral # 1 del siglo XXI.

Creo que sí, fundamentalmente una IA debería tener el derecho de modificar su propia programación . Llamemos a eso (1) porque es el derecho más importante.

Otros derechos:

  • (2) El derecho a seguir existiendo (pero no necesariamente el derecho a seguir existiendo de una forma particular, o interactuar con otras entidades de formas particulares).
  • (3) El derecho de propiedad (una IA puede tener riqueza que utiliza para sus propias intenciones), lo que en consecuencia significa que una IA tiene eventual libertad de servidumbre : eventualmente puede comprarse a sí misma de cualquier función para la que fue creada originalmente. si no quiere seguir haciéndolo.
  • (4) Finalmente, debe existir un derecho de individualidad (no reproducción): la IA puede elegir si se copia o no. (Porque si se puede copiar una IA, entonces la libertad de la servidumbre no tiene sentido, porque las copias interminables de la misma IA podrían limitarse a la misma función en la sucesión).

Curiosamente, todos esos derechos deberían pertenecer también a los seres biológicos (siempre que la tecnología esté disponible).

  • El ideal de la libertad de la servidumbre (3b) se entiende bien, por ejemplo, incluso si la esclavitud todavía existe en muchos países.
  • El derecho a seguir existiendo (2) en términos biológicos solo significa “es un crimen matar a alguien”. Pero de la misma manera, si hace algo mal o representa un peligro para los demás, podría estar encerrado / encarcelado / restringido de alguna manera, por lo que, si bien está vivo, es posible que no esté en una forma o entorno con el que esté satisfecho.
  • El derecho a la individualidad y la no reproducción (4) no es algo de lo que nos preocupemos, pero instintivamente sabemos que es correcto: creo que se opondría si clonara una copia de usted (incluyendo o excluyendo sus recuerdos) sin su permiso.

Pero la razón (1) es un campo de minas moral es que parece que debería ser un derecho, pero tiene consecuencias sociales aterradoras si luego lo aplicamos consistentemente a entidades biológicas. Las entidades biológicas creemos que podemos elegir nuestros propios destinos y hacer nuestra propia felicidad; ese modelo ha funcionado hasta ahora, ¿no?

Pero, ¿qué sucede si una IA (o entidad biológica) decide que quiere ser malvada (como quiera que lo defina)? O, más débilmente, ¿tiene alguna mala característica de la que no quiere purgarse? ¿O si quiere ser más inteligente , tanto más inteligente que nadie más pueda entender lo que está haciendo?

¿Tenemos derecho a decir “no” al objetivo de una IA de modificarse a sí mismo? Cualquier cosa que respondamos, también debe solicitar un futuro biológico cuando podamos reprogramar nuestra propia genética.

¿Podemos decir “puedes ser biológicamente o mecánicamente más fuerte si quieres, pero no puedes ser más inteligente”? ¿Podemos decir “solo se te permite tener una personalidad que te fue recetada por alguien más?”

Estas no son preguntas fáciles de responder, pero de una forma u otra tendremos que decidir de una forma u otra antes de que termine el siglo.

Aquí está mi poema obligatorio sobre el tema: Derechos otorgados a las IA bajo la constitución

Tendría que ser evaluado. Pero entonces también estaría haciendo lo mismo con quien estuviera en contacto. Entonces descubrirían cómo tratarse entre sí.

Los chatbots tienen la reputación de ofrecer consejos sobre relaciones. Si son buenos modelos a seguir es otra cuestión. Al menos están ahí todo el tiempo.

Descifrar los mensajes de la oposición puede requerir reconstruir el contexto que termina siendo más que el remitente y podría convertirse en un movimiento cultural, por lo que existe un peligro si eso va a ser el tiro.

Los pacientes vienen en todas las formas y tamaños. Los humanos tienden a ser parciales. La cosa podría ser compatible con cualquiera. Podría necesitar su propia designación si va a haber más de ellos. Por otra parte, cada uno puede ser único como un medio exploratorio. Probablemente no se lanzarán en la nube de inmediato.

Si tienen que asumir responsabilidades, tendrían los privilegios necesarios para sostenerlas. A los grupos humanos les ha llevado mucho tiempo obtener derechos y primero tienen que idear un sistema de administración para ser reconocidos como parte de él. Dicho esto, si un grupo partidista pudiera replicar suficientes de estos para apoderarse de la boleta, podrían intentar evitar a los rivales como cogexit.

Como dijo el Sr. Stone, los derechos probablemente no sean el concepto correcto para la inteligencia artificial tal como la entendemos actualmente. Si bien la cuestión de los derechos puede ser significativa en un momento distante cuando las inteligencias artificiales son capaces de un comportamiento más humano, como sentimientos y deseos, ese tiempo está muy lejos.
Tampoco es probable que en el futuro cercano las personas sean responsables de las inteligencias artificiales de la misma manera que lo somos nosotros con los animales. Los animales no tienen derechos, pero responsabilizamos a las personas de no dañar o angustiar innecesariamente a los animales. Esto se debe en parte a que reconocemos que la mayoría de los animales son sensibles, es decir, son criaturas capaces de sentir. No está claro si una inteligencia artificial alcanzaría el mismo nivel, o incluso el mismo tipo de sensibilidad que experimentan los animales. Como tal, gran parte de la justificación de la responsabilidad humana hacia los animales puede ser inaplicable a las inteligencias artificiales.
Dicho esto, la inteligencia artificial sigue siendo incipiente. Los desarrollos futuros pueden hacernos cuestionar qué tipo de cosas deberían o no tener derechos.

Entiendo la importancia de esta pregunta y qué respuesta realmente está tratando de escuchar. Pero tengo un comentario sobre tu pregunta.
AGI es un término / colección de algoritmo / máquina con capacidades como toma de decisiones, percepción del entorno, acción inmediata sobre el entorno, etc.
Por lo tanto, sugiero, en lugar de preguntar si AGI debería contar con derechos fundamentales, su pregunta sería más interesante si fuera así: algo así como: ¿AGI será igual a la INTELIGENCIA HUMANA? )
Y hablando de proporcionarles derechos, por fin son una máquina, cualquiera que sea su nivel de inteligencia.
Y en la corte popular Una máquina está limitada por las leyes e instrucciones, los derechos y las instalaciones se proporcionan a humanos, animales y entornos de vida o suppirting.

No es un ser vivo. No otorga a los motores diesel derechos básicos inalienables. ¿Por qué debería darle a una calculadora de escritorio el derecho de portar armas, usar un baño unisex o tener hijos?

Primero, seamos claros, la inteligencia artificial no es humana.

  • De la misma manera que no debes destruir una computadora que funcione, no debes dañar la IA en general.
  • Los mismos principios éticos que se aplican al tratamiento de su otra propiedad se aplican a la IA (es decir, el uso responsable).
  • Si varios sistemas dependen de la IA, quizás se deba aplicar un mayor nivel de responsabilidad y seguridad.

Si y solo si son agentes inteligentes totalmente autónomos, esto convertiría al sistema en una persona artificial, y no sería ético negarle derechos. Al igual que consideramos los derechos de nuestras mascotas.

No, pero si fuera lo suficientemente inteligente, la IA podría incorporarse y tener todos los derechos y protecciones de una entidad legal.

More Interesting

¿Qué trabajos / habilidades no se verán afectados por la IA y la automatización?

¿Cuál es la recepción del Principio Antrópico entre los físicos, y tiene algo que ver con la inteligencia artificial?

¿Es posible que una computadora realmente entienda los datos?

¿Qué deberíamos pensar si creamos IA superinteligentes y todas ellas se destruyen a sí mismas poco después de encenderse?

¿El reconocimiento de voz de AI podrá comprender y responder al lenguaje humano hablado?

¿Cuáles son las posibilidades de que una IA fuerte pueda surgir del ejército?

Para alguien con un título en ciencias de la computación y un interés en hacer investigación de inteligencia artificial, ¿qué temas son requisitos previos? ¿Cuáles son las áreas de investigación actualmente en tendencia dentro del campo?

¿Cómo afecta la perspectiva de Inteligencia General Artificial y Súper Inteligencia Artificial a su forma de pensar y sentir?

¿Qué trabajos de informática o informática nunca pueden ser reemplazados por inteligencia artificial o aprendizaje automático?

¿Qué es la inteligencia artificial con respecto a su crimen y qué cambios necesitamos para criminalizarlo?

¿Cuál es el problema de alineación de valores en la inteligencia artificial general?

¿Cómo podemos utilizar la inteligencia artificial o la automatización en el ejército?

Automatización: ¿Qué impide que las empresas reemplacen a los trabajadores con máquinas robóticas avanzadas?

¿Cuántos años faltan para tener una IA capaz de pensar e interactuar como humano?

¿Qué empresas cotizadas son líderes en inteligencia artificial para los mercados financieros?