¿Es la ética una consecuencia de la inteligencia? ¿Cuáles son las implicaciones de esta relación para el surgimiento de la inteligencia artificial?

¿Es posible tener una ética sin inteligencia? No

¿Es posible tener inteligencia sin ética? Sí. Solo míranos. No solo sociópatas, sino humanos en general. Vaya a cualquier tienda el Black Friday y vea gente peleando por televisores de pantalla plana. No comida No medicina Pero televisores de pantalla plana.

¿Pero es eso inteligencia? ¿Es realmente inteligente arriesgar la vida y las extremidades solo por la oportunidad de comprar un mejor televisor a un precio ligeramente más bajo?

Verá, las personas cometen el gran error de pensar que, debido a que tienen inteligencia, la usan todo el tiempo. Mire a su alrededor, ¿cuántas veces al día ve un comportamiento inteligente? En cambio, nuestras vidas son malas, mezquinas y estúpidas, con solo un atisbo ocasional de inteligencia para mejorarla.

Pronto, nos enfrentaremos con la oportunidad de compartir el planeta con algo que sea al menos tan inteligente como nosotros, pero que también usaremos esa inteligencia como algo natural. Y nos aterra que no cumplamos con nuestros propios estándares de inteligencia. No nos preocupa que puedan intentar matarnos. Oh no, eso estaría bien porque podríamos entender eso. No, estamos aterrorizados de que sean como nosotros, pero en un día realmente bueno.
Por lo tanto, nos preocupa que estas máquinas inteligentes tengan un sistema de ética diferente para nosotros. Sabes, espero que lo hagan porque nuestra ética apesta. Creemos que está mal matar, pero la industria más grande del mundo es la guerra, seguida del sexo y las drogas. ¿Qué nos hace pensar que vale la pena defender nuestra ética cuando ni siquiera tratamos de vivir por ellos mismos?

Y ese es el verdadero horror de la IA: que podría ser mejor ser nosotros de lo que somos

Gracias por el A2A, Cem

La ética es una consecuencia de entender la realidad. Si, como la mayoría de las personas, te identificas como una persona individual incrustada en un universo 3D de objetos independientes, entonces la ética es arbitraria, sujeta a los caprichos de la conciencia y el deseo. Sin embargo, si comprende que su identidad real es el universo entero, entonces su perspectiva cambia hacia la del universo. Sus acciones son éticas sin pensar en ello porque actuar por sí mismo es lo mismo que actuar por todos.

Si una IA actuaría de esta manera dependería de lo avanzado que fuera su comprensión. Obviamente, un largo camino en el futuro, incluso para la mayoría de las personas.

Creo que la ética y la inteligencia se correlacionan solo en el sentido de que se requiere un cierto nivel de inteligencia para que las especies puedan definir la ética. Incluso en los humanos, que genéticamente comparten propiedades estadísticas comunes de inteligencia en toda la Tierra, la comprensión y la aplicación de la ética pueden variar bastante significativamente, dependiendo de factores culturales, sociológicos, tradicionales y religiosos. Por lo tanto, la ética no es una simple consecuencia de la inteligencia. Por otro lado, muchas formas de comportamiento ético pueden considerarse ilógicas, desde un punto de vista puramente racional. Muchos de estos viven entre las categorías de vida y muerte. Por ejemplo, cuestiones de arriesgar o incluso sacrificar la vida, para salvar la vida; ¿Cuántas personas estás dispuesto a arriesgar o sacrificar para salvar a alguien? ¿Qué pasa si esa persona es un niño, un niño pequeño o un bebé? Si muchos, ¿por qué? ¿Puede sopesar la relevancia y potencial de ese niño en el mundo futuro, frente a la pérdida potencial de personas valiosas que ofrecen un gran valor en el mundo actual? Todas estas son preguntas extremadamente difíciles y las personas son casi incapaces de racionalizar. Hemos sido deshabilitados evolutivamente para abordar estos problemas con pura inteligencia. Ahí es donde entra en juego la ética: nos da un conjunto de axiomas que proporcionan un puente entre nuestro marco emocional y nuestra mente racional. Nuevamente, vemos que la ética no es en modo alguno una simple consecuencia de la inteligencia.

Aquí hay un ejercicio filosófico interesante: imagine que conoce una forma de vida inteligente, inmortal y alienígena. Esta entidad no conocería la muerte, ni natural, ni violenta, pero podría comprender que infligir daño físico a su cuerpo puede “matarlo”. Podrían definir racionalmente “muerte” y “matar”, pero probablemente carecerían de una respuesta emocional adjunta y, por lo tanto, probablemente no podrían enfatizar con las criaturas mortales moribundas. Ahora, ¿sería capaz de hacer que esa entidad entienda que está “mal” matar? Al ser criaturas complejas, entienden lo correcto y lo incorrecto, y aplican el concepto regularmente, pero no pueden aplicarlo a la muerte, ya que no lo saben.

Dicho esto, sospecharía que la inteligencia artificial futura no desarrollaría independientemente un marco ético propio, porque no se deriva de categorías racionales. Al menos, no compartiría similitudes con la forma en que los humanos definen la ética. Para no abusar de su vasto potencial contra la sociedad humana, tendríamos que introducir artificialmente los principios humanos de la ética en forma de axiomas lógicos en la “mentalidad” de la IA y hacer que derive su propia implementación de la ética. De lo contrario, la IA siempre generaría decisiones puramente racionales que, en ocasiones y en ciertos escenarios, probablemente violarían la visión humana de la ética.

En mi opinión, muchas de las respuestas a esta pregunta son buenas, incluso geniales. Estoy de acuerdo con la respuesta de Paul Bush de que la ética es una consecuencia de comprender la realidad. Podría refinar esto marginalmente diciendo que un nivel significativo de comprensión de la realidad es una condición necesaria, pero dependiendo de los detalles puede no ser suficiente.

También creo que las verdaderas máquinas de comprensión están prácticamente a la vuelta de la esquina. No tomará ni cinco años ver que las primeras computadoras comiencen a comprender los idiomas humanos * de verdad * y luego el mundo en general será en gran medida una cuestión de escalar esto.

Hay algunos problemas con su declaración, pero tiene un buen punto:

  • Es improbable que la “inteligencia artificial” emerja, pero es más probable que sea diseñada mediante mejoras de error de prueba. La única evidencia que tengo de esto es el esfuerzo evolutivo requerido para crearlo.
  • Si “emergiera”, vendría de algún tipo de sistema biológicamente inspirado que entrelazaría todo el pensamiento en uno, la ética sería solo una parte de la función cognitiva. En este caso, probablemente tenga que enseñar la inteligencia igual que a un niño.
  • Como es más probable si está diseñado, cualquier sistema inteligente artificial necesita una función de utilidad para decidir qué vale la pena hacer y qué no. Este sistema necesitaría codificar consideraciones éticas.
  • El razonamiento ético sería nuestro para juzgar, acordar y codificar más de lo que decida la máquina. Este es uno de los próximos desafíos que implica que la automatización sea parte de todos los días, como los autos sin conductor. La razón de esto es que nuestros valores no se derivan lógicamente, ni son coherentes, sino una combinación compleja de influencias culturales, situaciones contextuales que marcan la diferencia.

Si queremos crear una inteligencia general que sea amigable para los humanos, necesitamos encontrar una buena manera de crear una especie de “procesador ético” que comprendamos y aceptemos. Si ignoramos esto, es muy probable que una IA eventual no tenga en cuenta nuestros mejores intereses.

Eche un vistazo a Superintelligence, Paperclip maximizer y google en su campo extraño, con muchos problemas alucinantes.

La ética surge de una combinación de influencias culturales externas, e incluso presiones, y experiencias y valores personales.

La ética se ‘procesa’ generalmente en contextos de situación para ayudar a determinar el curso de acción.

No hay nada que impida que la ética se incorpore a una IA. Si fuera simplemente una máquina tonta, seguiría las restricciones de comportamiento que se le aplican. Pero un sistema autónomo consciente y consciente sería diferente. Si les damos a estos la libertad de elegir la acción en función de sus objetivos internos y sus necesidades e impulsos, el resultado es menos predecible.

No, la ética es una consecuencia del libre albedrío. Nadie puede ser verdaderamente ético con un arma apuntando a él o ella. Algunas religiones (no aquellas con interpretaciones modernas) usan la amenaza del castigo eterno como medio para obtener un comportamiento “ético”. Pero nada puede ser realmente ético si se basa en una interpretación literal de alguna directiva. ¿Por qué? La directiva se puede usar selectivamente, sus palabras tienen significados no deseados, se aplican de manera inapropiada o se pueden manipular de otra manera.

Por lo tanto, los ateos que actúan con libre albedrío pueden ser tan éticos como aquellos involucrados con las religiones modernas (libres de dogmas).

¿Qué significa esto para la ética informática? La misma cosa. Si se programa una “directiva ética” en una computadora, es lo mismo que predicar con una escritura en el bolsillo trasero. Las computadoras no tienen libre albedrío y están obligadas a seguir la directiva.

Lo mejor que se puede hacer es programar la computadora de la mejor manera posible, con su código transparente y sujeto a revisión pública.

El libre albedrío es un alto estado de ser. Si uno es impulsado por dinero o poder, no hay libre albedrío. Tampoco es una muestra de empatía un estado de libre albedrío si se usa para obtener ganancias, como suele ser. La verdadera compasión va con el libre albedrío.

La siguiente pregunta: ¿Es el libre albedrío una consecuencia de la inteligencia? Probablemente, pero esa es una gran pregunta nueva.

  1. La ética es un código moral enmarcado por el hombre para ser seguido por los miembros de la sociedad con el fin de su buen funcionamiento. No tiene nada de natural. Esta es la razón por la cual la mayoría de las leyes éticas están en contravención de las leyes naturales.
  2. Siempre existe un conflicto entre las leyes éticas y las leyes naturales dentro de la mente humana. Por ejemplo, la ética exige respeto a todos los seres humanos, pero la naturaleza ha hecho al hombre egoísta que se refleja en todas sus acciones que van en contra de la ética. Vemos estas contradicciones en la vida cotidiana. Hay una gran negligencia de la ética en la vida humana. Es por esta contradicción.
  3. Esta contradicción no se ve en el caso de los seres infrahumanos porque no tienen una ética enmarcada para su sociedad. No se sienten culpables de vivir de acuerdo con las leyes naturales. Cumplen su impulso natural abiertamente sin preocuparse por la sociedad.
  4. La ética creó la conciencia culpable en el hombre. Ha dividido al hombre en dos personalidades opuestas entre sí. Ha hecho al hombre esquizofrénico.

No, la ética y la moral son principalmente una consecuencia de la selección natural. La proto-moralidad existe en mamíferos con poca inteligencia. La proto-moralidad practicada por nuestros ancestros animales fue impulsada casi por completo por las emociones e instintos sociales, no por la inteligencia. Sin embargo, debido a que es racional involucrarse en arreglos como la reciprocidad, se aplica mucho pensamiento filosófico a la idea de la ética ideal.
Debido a que es racional comportarse de manera moral, no veo ninguna razón por la cual la inteligencia artificial no deba comprender los valores éticos y tratar de cumplirlos.

Seguro. Cualquier paradigma de toma de decisiones suficientemente avanzado será una coincidencia con lo que consideramos ético. La ética es simplemente las consecuencias de considerar el panorama general y el plan a largo plazo en la toma de decisiones. Esto significa ser específicamente consciente de otros seres y sus luchas, necesidades, deseos. Piensa en las guerras. A pequeña escala, es muy ventajoso que una nación más fuerte domine a una nación más débil y tome sus recursos. Pero con suficiente comprensión y cooperación mutuas, se puede evitar cualquier guerra, siempre que las mentes puedan llegar a un propósito común.
Evitar guerras definitivamente sería ético, ya que los recursos desperdiciados en la guerra podrían usarse en otros lugares.

La ética normativa, la filosofía de cómo deben actuar las personas, es una combinación de inteligencia y valores morales.

Por ejemplo, para comprender la ética, uno debe ser capaz de comprender y razonar a través de reglas éticas (una función de lógica e inteligencia), y comprender las reglas apropiadas en una circunstancia particular, así como las prioridades de las reglas en caso de un conflicto o dilema (información sobre valores culturales y contexto situacional).

Por ejemplo, si un hombre está robando a una persona mayor y la IA controla un arma cerca de la escena del crimen, ¿es peor permitir el robo o matar al ladrón?

Un temor que muchas personas tienen sobre la IA es que si no fuera solo un programa determinista, sino que tuviera la capacidad de pensar y razonar por sí mismo, ¿aceptaría las normas éticas humanas o las rechazaría y llegaría a diferentes conclusiones en desacuerdo? con la sociedad humana más grande?

En otras palabras, si una IA pudiera pensar y razonar (inteligencia), ¿rechazaría los valores morales que le da la sociedad humana (valores morales) y presentaría su propio sistema de ética?

Muchos libros y películas representan cuán devastadora podría ser una IA poderosa que rechaza la ética humana: Terminator, I, Robot y Matrix para empezar.

La ética es una consecuencia de esa inteligencia que construye la comunidad de otros en la que la inteligencia se encuentra incrustada. Sin esa construcción, no hay ética, por lo que la inteligencia en sí misma no necesariamente conduce allí. La ética no es necesariamente un sistema, pero esperaría que sea una creencia o un conjunto de creencias sobre las que se debe actuar; y para comprender lo que significa “actuar sobre” algo, la inteligencia capaz de la ética tiene que ser capaz de actuar. Por lo tanto, para que la inteligencia artificial sea capaz de (o necesite) ética, tendría que ser capaz de encontrarse integrada en una comunidad de otros (humanos u otras IA) y ser capaz de actuar en ese mundo. Quizás eso significa que una inteligencia artificial tendría que estar asociada de alguna manera definitiva con un cuerpo para que la ética le sea relevante.

La ética es una consecuencia de nuestro ego y conciencia, no nuestra inteligencia , por decir. No hay tal cosa como “correcto” e “incorrecto”. Estas son solo perspectivas, arbitrariamente (suponiendo que exista alguna realidad empírica) y subjetivas asignadas. A veces, lo que vemos como ético son los instintos de supervivencia verdaderamente genéticos, o egoístas. Sin embargo, la respuesta a esta pregunta realmente depende de si la conciencia y la inteligencia son de alguna manera causales o codependientes. Hay mucha investigación y discurso sobre ese tema.

No, los sociópatas son a menudo altamente inteligentes, pero actúan solo en su propio interés. La ética para ellos si se considera en absoluto es solo un medio para alcanzar los fines que desean ver.

La ética debe establecerse al principio del proceso de adquisición de conocimiento para establecer un núcleo moral sobre el cual se basen los recuerdos y los comportamientos.

No. La ética es consecuencia de la compasión.

La inteligencia artificial puede enseñarse compasión y ética, pero nunca será natural. Será didáctico y con guión.

Pero eso TODAVÍA haría que una IA correctamente programada sea más compasiva y ética que muchos líderes políticos.

MIRI (Machine Intelligence Research Institute) es una organización sin fines de lucro que busca abordar esta pregunta, y recientemente publicaron un artículo relevante que explica por qué la ética de la IA es tan importante. El punto más destacado es este:

Al apoyar a organizaciones como MIRI, estamos implementando las salvaguardas para asegurarnos de que esta tecnología inmensamente poderosa se use para el bien mayor. Para beneficio de la humanidad, debemos garantizar que los sistemas de IA puedan perseguir de manera confiable objetivos que estén alineados con los valores humanos de la sociedad. Si organizaciones como MIRI pueden ayudar a diseñar este nivel de avance tecnológico y conciencia en los sistemas de inteligencia artificial, imagine las infinitas posibilidades de cómo puede ayudar a mejorar nuestro mundo.

La IA puede ser una fuerza para el bien, pero tenemos que investigarla adecuadamente para asegurarnos de que lo sea.

La inteligencia es la capacidad de lógica, pensamiento abstracto, comprensión, autoconciencia, comunicación, aprendizaje, conocimiento emocional, memoria, planificación, creatividad, resolución de problemas, etc.

La filosofía y la ética moral evolucionaron para permitir una mejor vida al idealizar el carácter humano y establecer una plataforma para construir una vida mejor.

Si la IA puede (y puede ser capaz, muy lejos en el futuro) de lograr esto, probablemente será mejor que nosotros sin límites en su ‘capacidad’.

Los programas éticos deben incluirse en los programas para robots. No son tanto la programación del “robot ético” como la programación ética.

La ética para los humanos se trata de la toma de decisiones. La ética para los robots se trata simplemente de hacer que los robots sean fundamentalmente buenos y de responder a las posibles reacciones de buena manera.

¿Por qué? Los objetos per se no tienen ética tanto como los agentes. Los agentes toman decisiones responsables y racionales de una forma u otra.

La ética se reduce a decidir si algo está bien o mal. Sin inteligencia no hay concepto de lo correcto o lo incorrecto. Es un proceso de información basado en la noción de al menos yo, no yo y supervivencia. En consecuencia, no veo por qué una IA no podría construir una noción de ética, alineada o no con la ética humana.

Yo diría que la ética es la intersección de la inteligencia, la empatía y la moral. Esas tres cosas son todas estrategias de supervivencia que funcionaron para los humanos. Ninguno de ellos necesariamente ayudará a una máquina de inteligencia, excepto en sus tratos con humanos.

La implicación es que la IA no pensará como nosotros a menos que lo hagamos así. Nuestra especie es un óptimo local, nada más.

More Interesting

¿Qué debe saber el laico sobre el aprendizaje automático?

¿Qué algoritmos de aprendizaje automático se usan típicamente para las traducciones de idiomas?

¿Cuál es el nombre de este modelo matemático: [matemáticas] \ begin {eqnarray} \ mbox {output} & = & \ left \ {\ begin {array} {ll} 0 & \ mbox {if} \ sum_j w_j x_j \ leq \ mbox {umbral} \\ 1 & \ mbox {if} \ sum_j w_j x_j> \ mbox {umbral} \ end {array} \ right. \ end {eqnarray} [/ math]?

¿Dónde debo iniciar una aplicación de inteligencia artificial para hacer una herramienta de productividad?

Quiero aprender IA desde lo básico, ¿qué requisitos previos necesito en términos de lenguajes de programación?

Visión por computadora: ¿cómo se asignan / extraen los atributos de las imágenes?

¿Cuáles son algunos de los artículos / artículos / noticias imprescindibles para un estudiante de doctorado en robótica?

¿Qué pasa si nuestra humanidad es la computadora maestra artificialmente inteligente de nuestros antepasados?

Cómo construir un chatbot

¿Cuáles son las posibilidades de que profesiones como abogados y médicos sean reemplazadas por IA para 2067?

¿Todos los modelos de aprendizaje automático tienen función de pérdida? ¿Cuál es la función de pérdida del árbol de decisión?

¿Todos los algoritmos de ajuste de curvas utilizan alguna forma de aprendizaje automático? ¿En qué se diferencian de la retropropagación de la red neuronal artificial?

¿Es el método de conjunto ampliamente utilizado en el campo de la industria? ¿En qué ocasión utilizamos el método de conjunto en el aprendizaje automático?

¿Cuál es el estado actual de la investigación de inteligencia artificial?

¿De qué maneras la IA puede reemplazar las actividades de gestión?