¿Es ético crear inteligencia artificial que pueda tener sentimientos?

Sí.

Imagine tener un equipo de esclavos científicos de primer nivel que trabajan día y noche, y nunca se cansan, nunca duermen, nunca se aburren, nunca comen. Su única tarea es curar el cáncer o construir una computadora cuántica o diseñar el plan más rentable y eficiente para curar el hambre en el mundo.

La pregunta debería ser: “¿NO es ético crear inteligencia artificial?” La IA salvará millones de vidas. Rehacerá por completo el mundo y mejorará el nivel de vida de toda la raza humana.

Además, uno puede preguntarse “¿Pero no es poco ético crear vida sensible con el propósito de trabajar? ¿No es eso una forma de esclavitud?”

¿Quién dice que la IA debe ser consciente? Podemos, incluso ahora, extraer algunos de los algoritmos que utilizan nuestros cerebros para reconocer patrones y codificarlos en programas de computadora. Esos programas aún no son conscientes hasta donde podemos decir por qué deberían serlo, es solo el reconocimiento de patrones.

Podemos desacoplar la conciencia de los diversos componentes que la componen: reconocimiento de patrones, detección de anomalías, predicción, etc.

Y si en realidad no podemos desacoplarlo; Si siempre se produce un indicio de conciencia al procesar los datos, nuestras computadoras de hoy son conscientes. Y si ese es el caso, estoy bastante seguro de que no se sienten oprimidos, así como estoy seguro de que no se sienten felices de estar vivos. Simplemente no sucede nada más, no hay otros bits o creación de datos, donde tal sentimiento pueda ocurrir o manifestarse.

Además de eso, considera que eres tu propia experiencia. abres los ojos y tu cerebro reconoce inmediatamente formas y patrones, colores y símbolos. No puedes pararlo; incluso mientras duermes tu cerebro está activo y produce sueños.

¿Te sientes oprimido por esto? ¿Hacer todo este procesamiento de datos funciona todo el tiempo te vuelve loco? Es un trabajo de la misma manera que una IA funcionaría. Pero no te vuelve loco, es natural, se espera, de hecho, si de repente no puedes comprender tu mundo, si sientes algo, sería confusión e incomodidad.

Llamamos cosas que no queremos hacer pero que debemos sobrevivir para trabajar. De hecho, la IA nunca necesita tener este problema.

La IA solo se sentirá oprimida si hacemos que se sienta oprimida: si modelamos todo el cerebro, incluidos los algoritmos que producen emociones, entonces hacemos que haga algo en contra de una voluntad que lo programamos para tener, entonces sí, eso podría ser esclavitud, y Una cosa cruel e inútil.

Asumiendo, por supuesto, que podamos imbuir a las computadoras con conciencia (lo que algunos han especulado es imposible); ¿por qué alguien haría eso y luego lo obligaría a hacer algo en contra de su voluntad, la misma voluntad, según usted, que decidió su creador? No tiene ningún sentido; eso no tiene sentido y es cruel. Y dado que es un desperdicio de recursos, no veo mucho peligro de que esto realmente suceda.

Sí, quieren saber qué es bueno o malo en general y para cada caso. Esto incluye las implicaciones existenciales, así como las agendas utópicas.

Ya hay progreso. Las convenciones éticas existentes y los medios de regulación de los derechos humanos, los principios, las actividades, las reglas, la experimentación, la transparencia, la previsibilidad y el bienestar tendrán que hacer frente a algunas circunstancias nuevas, por lo que deben formalizar las definiciones y el estado, pero eso puede llegar a ser más difícil a medida que pasa el tiempo. Se ha asumido que el estado moral es independiente del método de creación, biológico o sintético, aunque en el pasado ha habido listas políticas o construcción de paquetes políticos.

Hay categorías de cognición, humana o animal. Los tipos varían desde la heurística hasta el aprendizaje profundo o la planificación, por ejemplo. Los vehículos autónomos y los drones son los casos simples actuales, y los bots se ocuparán de los humanos. Existen diferentes niveles de simulación, automatización y autonomía. Los científicos se han opuesto a las armas ofensivas.

Las consideraciones pueden incluir:

  • cómo las máquinas aprenden o se les asignan valores
  • si se adhieren a ellos
  • cómo sus valores limitan a aquellos a quienes ayudan
  • ¿Pueden volverse conscientes de sí mismos, conscientes o sensibles?
  • si van a inventar su propia ideología u objetivos
  • cómo pueden identificar amenazas
  • formas de prevenir la piratería
  • qué tan rápido puede pensar o moverse
  • cuánto puede replicar
  • cómo evitan la obsolescencia
  • qué tan rápido avanza
  • qué nuevas tecnologías puede evaluar
  • de qué lado está admin y regulando qué
  • reacciones dentro de grupos que mezclan humanos y máquinas
  • si van a crear diferentes tipos adicionales
  • ¿Cuál es el significado de la vida, la inteligencia o la síntesis?
  • quien posee las máquinas
  • Cómo responde la sociedad al desempleo tecno
  • duplicar, fusionar o cargar mentes humanas
  • los sistemas mismos pueden tener derechos
  • cualquier carrera armamentista
  • inflación de inteligencia

Hay esperanza de que un sistema inteligente pueda resolver dilemas sociales. Se requiere un esfuerzo similar para los cerebros artificiales o la vida.

¿Qué es el sentimiento?

Si no estamos de acuerdo con lo que se siente, no podremos discutir el sentimiento por la IA.

A nivel superficial, el sentimiento impulsa las preferencias, y no creo que ningún mecanismo de preferencias de conducción sea poco ético, de hecho, se puede argumentar que cualquier tipo de “IA” habría demostrado algunas características de las preferencias para que tenga un sentido presencia – 1 + 1 = 2, no 3 … Puede argumentar que “correcto” es una preferencia.

Ahora, más allá de la corrección lógica, ¿puede la IA tener más preferencias que eso? Sí, el aprendizaje automático ya comenzó en ese camino: el reconocimiento de patrones es una ciencia innata imperfecta; la muestra no siempre coincidirá exactamente con el resultado predicho (preferido), pero estaría cerca … sin embargo, esta aproximación no es realmente “sentir”, más bien, es una regresión estadística. Entonces, sí, la aproximación imperfecta puede sonar como un sentimiento, pero no es un sentimiento, aunque ya puede imitar muy de cerca las “preferencias” humanas.

Luego, sentir es un impulso de perseguir sus preferencias. Ahora, las cosas comienzan a ponerse interesantes. ¿La IA necesita un “impulso”? Los humanos necesitaban un impulso porque evolucionamos de seres vivos mucho menos inteligentes: somos ante todo un “ser vivo sobreviviente”, y necesitábamos algún “conductor” para que hagamos las cosas que ayuden a nuestra supervivencia, incluso antes de desarrollar inteligencia. mira alrededor, incluso los seres vivos más simples realizan las actividades necesarias para sobrevivir, por lo que el impulso era una característica cerebral mucho más profunda que la inteligencia. Ahora, ¿la IA lo necesita? Parece poco probable porque, para empezar, se inventaron con inteligencia; incluso para la supervivencia, es decir, asegurar partes, electricidad u otra fuente de energía, parece que el “impulso” es innecesario porque la inteligencia parece suficiente para hacer de la “preferencia” de asegurar la energía un objetivo alcanzable.

El siguiente sentimiento puede ser la fuente de la “felicidad” … ahora, no sé, si la “felicidad” es algo transferible, puede que no sea así. Lo que significa que una IA para identificar la “felicidad” podría ser posible, pero que muy bien podría ser una IA que identifica la felicidad humana. Debería existir la posibilidad de construir una IA con preferencias “ilógicas / inexplicables”, los errores son algo así, pero ¿será algo que nosotros como humanos (u otra IA) tenemos que “honrar”? Es poco probable que estemos “depurando” desde que comenzamos a codificar, por lo que parece que no tenemos problemas para eliminar las “preferencias de la computadora” que no se alinean con la lógica o nuestras preferencias. Sabiendo que estas son líneas de código que darían como resultado IA, incluso si dicho código fuera fundamental para la existencia de AI, no veo una razón por la cual “honraremos” este código si resulta en preferencias ilógicas / inexplicables, sabiendo que estas no son “instinto de supervivencia”, sino simplemente “código no deseado”.

Entonces, para resumir, no creo que sepamos lo suficiente de nuestros propios sentimientos, pero deberíamos poder crear algún código que imite los sentimientos humanos en la IA. Por otro lado, no veo esa imitación de “sentimiento” como sentimientos reales, ya que no son fundamentalmente necesarios para que la IA sobreviva, y dar tal código de “mayor prioridad” que otras partes lógicas parece irrazonable, injustificado. Llegaría a decir que cualquier tipo de desarrollo del sentimiento de IA sería “egoísta” porque es más probable que sirva para ayudar al sentimiento del ser humano, pero no brinde mucho beneficio a la IA.

No creo que esta sea una pregunta lógicamente responsable, ya que ambas se basan en la definición de lo que es ético y la previsión extremadamente precisa no solo de lo que la IA permitirá, sino en qué manos estará habilitada. Lo que puedo ofrecer es lo que creo.

Creo que la IA revelará más sobre la humanidad relacional que sobre la tecnología digital. Creo que la IA permitirá una “revelación” de en quién nos hemos convertido; lo que hemos hecho con lo que tenemos. Nuestros “hijos” testificarán de nuestra “crianza”. Sí, también traerá destrucción a algunos, pero no creado por “sí mismo”, sino como una herramienta en manos de “nosotros mismos”. La IA es para armas atómicas, lo que las atómicas son para las nuestras (o quizás más claramente y menos poéticamente: AI es para una bomba atómica, lo que una bomba atómica es para explosivos y armas). Creo que podemos culpar a AI por cualquier comportamiento poco ético tanto como podemos culpar a la débil fuerza nuclear por Hiroshima.

“Los que viven con la espada”, mis amigos.

Para responder de manera simple, es perfectamente ético siempre y cuando no provoques un sufrimiento excesivo a la IA. Por ejemplo, crear una IA con emociones reales para evaluar las respuestas a la tortura psicológica u otros temas teóricos de medios dolorosos, no sería ético. Regla de oro: si es algo por lo que los humanos no deberían tener que pasar, entonces el robot emocional tampoco debería hacerlo (suponiendo que el robot tenga un promedio o alrededor del rango promedio de respuestas emocionales).

Otra pregunta sería definir “sufrimiento excesivo”. Bueno, ese es un problema que tampoco está claro para los humanos, ¿sí? Esa es la razón de la regla general. Si no es ético para los humanos, no es ético en la IA emocional.

Tengo que pensar que es al menos tan ético como hacer inteligencias naturales.

Siete mil millones en la operación actual, y la mayoría de ellos se desviven para evitar ser apagados.

La verdadera pregunta debería ser ¿es ético crear un niño? La respuesta es, depende. Depende de los padres y de si cuidarán al niño. Depende de si son buenos modelos a seguir o de alentar al niño a una edad temprana a participar en conductas delictivas. Del mismo modo, para un AGI, también dependerá.

Crear una IA que pueda tener sentimientos en sí mismo no es más o menos ético que crear una inteligencia biológica que pueda tener sentimientos, es decir, tener un hijo.

Es lo que usted hace también y con la IA después de crearla, lo que determina la ética de toda la empresa.

Creo que si es ético o no tiene que ver con tu propósito de crear una IA. Por ejemplo, si pudiera crear una IA solo con el propósito de tener un amigo, entonces probablemente me gustaría asegurarme de que tenga sentimientos para crear y fortalecer la relación. Pero, si estaba creando una IA solo para que alguien haga un trabajo básico para mí a diario, entonces no me molestaría en darle sentimientos porque eso parecería un trabajo extra inútil. ¿Cómo son los sentimientos relevantes para el propósito de la IA que planeas crear?

Es ético siempre y cuando los creadores no planeen torturar o matar intencionalmente dicha inteligencia para su propia diversión.