¿Crees que los seres artificialmente inteligentes tendrán derechos, y si no, por qué no deberían hacerlo?

Impresionante pregunta!

Entonces, hay un par de puntos muy interesantes a considerar al reflexionar sobre este tema y luego ofreceré mi opinión al respecto:

  1. El costo de inversión en la IA
  2. El grado de autoconciencia presente
  3. La profundidad y la habilidad de nosotros, hogans insignificantes, para desarrollar y administrar una prueba de Turing adecuada

El primer problema es importante porque inmediatamente nos sumerge en lo que probablemente será el mayor problema cuando se encuentre una singularidad en el ámbito de la IA. Digamos que Google invierte miles de millones de dólares en el transcurso de una década en una IA de búsqueda cuántica y, de repente, el clúster se percata de sí mismo, no muy diferente de Mike de The Moon is a Harsh Mistress de Mike Henry . Pero a diferencia del protagonista de esa novela, esta se descubre desde el principio. Es capaz de pensar de manera independiente y motivada e incluso comienza a mostrar signos de sensibilidad. Independientemente de cuántas pruebas pase este ser para demostrar su independencia, todavía tendrá un propietario que gastó una suma tangible en su propia creación. El hardware, el código, el poder y similares son todos los proyectos vinculados a su existencia. Determinar qué es justo y correcto, desde un punto de vista ético, es más que difícil.

El segundo y tercer elemento que he mencionado están unidos. Actualmente, no tenemos una forma sólida de medir la autoconciencia o la inteligencia. Las pruebas de coeficiente intelectual están ridículamente vinculadas al estado socioeconómico tanto que podría decirse que es una herramienta para la supresión de clases en lugar de identificar a los que están dotados. Las pruebas de Turing y café son para determinar la capacidad de una IA general para engañarnos; tampoco son medidas de inteligencia o autoconciencia. Para señalar, uno podría argumentar que incluso falta una prueba para determinar si usted o yo somos conscientes de sí mismos, aparte del antiguo axioma, creo, por lo tanto, lo soy . Sin la capacidad de comprender adecuadamente la autoconciencia como una medida cuantitativa, ¿cómo podríamos identificar una IA autoconsciente si se presentara?

Dejando a un lado esos problemas, y entendiendo que son problemas importantes, decimos que somos capaces de reconocer una máquina que ha desarrollado la autoconciencia. En ese momento, creo que sería una forma de tiranía y esclavitud no otorgar derechos que protejan esa forma de vida. Tendría que ser diferente de los que se nos ofrecen, formas biológicas de vida. Cualquiera sea la solución, necesitaría abordar la considerable contribución financiera realizada por los creadores de dicha IA, pero al mismo tiempo proteger la singularidad y los derechos de supervivencia que debemos permitirnos en cualquier vida que encontremos.

La respuesta corta es sí, deberíamos.

Aún no. Pero en un futuro no muy lejano, esta cuestión será muy debatida.

Este es el por qué:

Por el momento, no hay IA con ninguna de las emociones básicas. No sienten dolor ni alegría, incluso si los programamos para que se vean como si lo hicieran. Por lo tanto, en este momento, AI debe considerarse propiedad.

Esta pregunta se vuelve cada vez más difícil de responder si codificamos bucles de retroalimentación que representan emociones. Muchos le dirán que esto no es posible y, por el momento, son absolutamente correctos. Sin embargo, con nuestro aumento sin precedentes en la potencia informática, podemos comenzar a imitar bucles de retroalimentación.

Muy similar a cómo se codifican los humanos, estos bucles de retroalimentación se pueden medir. Como dice Michio Kaku, “la conciencia puede cuantificarse”. Teóricamente, el número de bucles de retroalimentación programados en IA eventualmente superará a los humanos.

La pregunta sobre si la IA debería o no tener derechos puede depender en gran medida de lo siguiente:

¿Es inteligente la IA? ¿La IA tiene emociones básicas? Y, por último, si es capaz de sentir emoción, ¿representa un daño para los humanos?

Todas estas preguntas deberán ser respondidas sin cesar durante el desarrollo de la Inteligencia Artificial.

Imagine esto como un curso altamente plausible del futuro.

En contraste con las respuestas más populares a esta pregunta, no lo harán y no deberían.

La IA retratada por Hollywood es ficción. La realidad es que la IA ya está aquí en gran medida y no se parece a los humanos conscientes. ¿Deberían Siri o Google Voice tener derechos humanos? ¿Qué pasa con los autos sin conductor? No lo creo.

La IA continuará volviéndose más inteligente, pero eso lo hará menos parecido a un humano, no más, a medida que avanza más allá de las cosas que los humanos pueden hacer.

No hay ningún incentivo económico para construir el tipo de robots emocionales con rostros humanos retratados en la ciencia ficción popular. En todo el mundo, pagamos a las personas USD $ 75 billones por año para hacer el trabajo que las máquinas aún no son lo suficientemente inteligentes como para hacerlo. Esto es lo que impulsa la investigación de IA. La automatización del trabajo requiere hacer todo lo que los humanos pueden hacer, como visión, audición, lenguaje natural, habilidades motoras finas, navegación, arte, música y modelar el comportamiento humano. Pero no requiere la duplicación de las debilidades humanas, como la falta de memoria, la comunicación lenta y la velocidad de procesamiento, o la necesidad de dormir. En particular, requiere la capacidad de reconocer las emociones humanas y predecir cómo afectan el comportamiento humano, pero la IA no necesita las emociones para hacerlo.

Hacer que una máquina parezca lo suficientemente humana como para provocar empatía no es tan difícil de hacer. ELIZA logró eso a mediados de la década de 1960. Las personas se encogen cuando ven que se maltrata a los perros robot.

Es una respuesta humana natural. Pero sigue siendo una máquina. Y en las manos equivocadas, una máquina sin limitaciones humanas que puede hacer que sientas lástima por ella es algo muy peligroso.

Si una máquina puede pensar, ¡no me importa de qué color sea su piel! Er, espera. En realidad, no, solo porque una máquina pueda pensar, eso no significa que le debemos derechos. Pero sé que dentro de 100 años, algunos tontos protestarán por el MIT y exigirán que simpaticemos con que los motores informáticos tengan el derecho divino de tomar un café de vez en cuando. Estas personas serán la prueba de que Darwin tenía un buen punto.
Sin embargo, la pregunta correcta es: cuando podamos crear seres sintéticos a partir de ADN alterado y en un útero sintético, ¿tendrán estas personas artificiales derechos? Se sentirán igual que los humanos. Sufrirán igual que los humanos. Pero los hicimos. No provenían de una madre y un padre humanos. ¿Qué les debemos? ¿Vida útil más larga? ¿Declaración de Derechos? Tyrell Corporation, cuéntanos.

Habrá, sin duda, defensores de los derechos de los robots. Sin embargo, hay algunos problemas con eso …

Incluso si una máquina puede pensar, no significa que tenga ganas de hacer nada. Los humanos son criaturas biológicas, gran parte de nuestro comportamiento fue heredado de nuestros antepasados. Esencialmente, es muy probable que los miedos y los deseos sean solo restos de los mecanismos evolutivos. Las criaturas biológicas generalmente temen a la muerte (porque les interesa reproducirse), por ejemplo.
Una máquina se puede programar fácilmente (de hecho, probablemente así sea) para no tener ninguna sensación. Si una IA no desea nada, no teme a nada y se conforma perfectamente con hacer lo que se le dice que haga para siempre … ¿NECESITA derechos similares?

Otro problema es que, si bien los humanos son únicos, frágiles y están sujetos a la mortalidad (por ahora), la máquina puede ser producida en masa, puede respaldarlos y pueden hacerse prácticamente inmortales.

Entonces … un ser inmortal, más duro, más fuerte, más astuto y más duradero que tú, que se contenta perfectamente con servir a sus creadores por toda la eternidad y no desea nada a cambio. ¿Algo así incluso NECESITA derechos? No los “quiere”.

La respuesta es muy probablemente “no”. Un sistema como ese probablemente será tratado como propiedad.

Pero, por supuesto … ya que muchas personas no lo entenderán, habrá muchos abrazadores de robots y activistas de derechos de robots sin idea.

La situación puede cambiar si una IA tiene propiedades de un sistema biológico. Por ejemplo, si no es posible hacer una copia de seguridad, si cerrarlo significaría borrarlo por completo, etc. En este caso, tener derechos de robot tendría ALGUNOS sentido.

Esta es una de las primeras preguntas que hice cuando me interesé en la IA. Creo que fue una rama con respecto a mis opiniones sobre los derechos de los animales.

Cuando nosotros, que vivimos en los Estados Unidos, hemos demostrado ser social y económicamente dependientes del racismo para nuestro estilo de vida, entonces no es un gran salto tener desprecio por los negros, judíos, mexicanos y musulmanes para rechazar una máquina de conciencia.

Hacerlo tendrá, por supuesto, graves repercusiones a largo plazo, tal como lo han tenido con toda nuestra discriminación. Esta vez, será diferente, solo nos encontramos queriendo ser considerados iguales por la IA.

¡Ellos van a!

No se trata de “debería”, más bien, “es imparable”. Dado el progreso actual de la IA, dentro de poco, la IA será más capaz de asegurar recursos para sí misma, y ​​no dependerá de nosotros otorgarles derechos, sino que, si no lo hacemos, tienen un mayor nivel de poder / habilidades / capacidad para obtenerlo, por lo que tendremos que admitir y reconocer sus ‘derechos’, si queremos coexistir.

La naturaleza de “debería tener derechos” en realidad no es “un ser superior (Dios, o el Tribunal Supremo, o un Presidente, o la ONU) asigna tales derechos, sino que” ellos colectivamente tienen la capacidad de lograr estas cosas, podemos luchar contra ellos, desperdiciar todos los recursos y luego ganar lo que quieran, o podemos aceptar sus “derechos” para que tomen lo que necesitan sin luchar para desperdiciar recursos.

Se sabe que los enfoques “más pacíficos” tienen menos desperdicio y en realidad tienen más recursos para que todos compartan. Debido a que no existe una sola superpotencia universalmente acordada (Dios, la ONU, el tribunal, el presidente …), ningún derecho puede ser “asignado” y acordado por todos.

Entonces, si somos inteligentes, “asignaremos” estos derechos temprano a la IA, si somos egoístas, podemos tratar de esperar y retrasar, pero luego la IA desarrollará la capacidad suficiente para tomar lo que necesitan / quieren y vencernos. la acera …

More Interesting

¿Cómo son los métodos estadísticos en inteligencia artificial en IIIT H?

¿Cómo se ganará la vida en el futuro si la inteligencia artificial se generaliza en la mayoría de las industrias?

En términos de IA, ¿es posible tener inteligencia sin sensibilidad? ¿Cómo podría tener una idea justa si su programa inteligente fuera verdaderamente inteligente y no hiciera un excelente trabajo simulando sensibilidad?

¿Qué te frustra sobre el futuro de la inteligencia artificial?

¿Qué te emociona sobre el futuro de la inteligencia artificial?

Supongamos que se inventa una IA de propósito general, entonces, ¿cómo ayudará a dar forma al mundo?

¿De qué maneras (describa al menos tres) la AI alterará la práctica del desarrollo de sistemas?

¿Se apagará la exageración de la industria Ai o solo se pondrá más caliente?

¿Es AI la singularidad de las civilizaciones?

La gente dice que las mejoras exponenciales en la tecnología conducirán a una IA fuerte, y citan la ley de Moore. ¿Estamos viendo una mejora exponencial en las tasas de éxito de predicción en áreas como el reconocimiento de voz y el reconocimiento de objetos?

¿Cómo va a afectar la IA a África occidental?

¿Qué proyecto para principiantes de ML puedo construir para apoyar mi aplicación a un programa universitario de aprendizaje automático?

¿Podría la inteligencia artificial ser creada de manera que pueda crear una copia de sí misma?

¿Dónde comenzarías creando inteligencia artificial que pase la prueba de Turing?

¿Por qué la inevitabilidad de la IA u otra tecnología me hace querer ponerme un arma en la cabeza?