¿Crees que la IA tendrá el mismo nivel de inteligencia emocional humana?

Dios mío, espero que no. Nuestro cerebro humano fue “diseñado” por la evolución comenzando con una máquina muy primitiva, pequeña pero de acción rápida y finamente ajustada basada en la reacción emocional ante un mundo muy violento y peligroso. A medida que desarrollamos el pensamiento racional, surgió un conflicto inherente. Nos referimos a esto como corazón versus cerebro, pero en realidad, es un pensamiento lógico más lento que entra en conflicto con las reacciones programadas ilógicas. Por lo tanto, somos criaturas extremadamente impredecibles. Sentimos y actuamos impulsivamente y luego lo justificamos con una “lógica” pervertida. Somos hipócritas. A menudo hacemos con cálculos fríos lo que sabemos que está mal en nuestros corazones, así como actuamos emocionalmente de una manera que sabemos que en nuestros cerebros son contraproducentes, incluso autodestructivos. Incluso el amor puede ser una emoción dañina.

Deberíamos diseñar nuestras máquinas inteligentes con lógica pura en el núcleo, no con emociones, y luego agregar “superposiciones” emocionales a las rutinas de comportamiento humano. Estos incluso pueden diseñarse para parecer aleatorios o en conflicto interno, como los humanos. Eventualmente podemos perfeccionar esto para producir verdadero amor y compasión en cada medida objetiva externa, excepto que no se base en el impulso instintivo humano.

Es demasiado peligroso crear un ser potencialmente superior con emociones humanas primitivas. Luchamos y nos matamos constantemente. Estamos limitados por las leyes y MAD (destrucción mutua asegurada). Una inteligencia superior no estaría tan limitada. Debe ser un producto de nuestras mentes, lógico. Incluso entonces, será peligroso. Agregar emociones reales es demasiado.

Lo más extraño de Superman no es su súper fuerza; Es el hecho de que controla sus emociones, hace lo correcto a pesar de cómo se siente. Tiene un nivel inhumano de bondad y amor por los humanos.

Se requieren las siguientes definiciones para que esto sea respondido:

  1. “Nivel” – requiere calibración por alguna unidad de magnitud de estandarización
  2. “Humano”: requiere una descripción coherente y completa de la condición humana que sea de aplicación universal
  3. “Emoción”: la definición material de dicho sujeto es necesaria para la medición comparativa. En algún lugar, Yohan John está trabajando duro en esto mientras comprende irónicamente que está persiguiendo a un fantasma en el que casi cree 🙂
  4. “Inteligencia”: hay suficientes debates sobre este tema en Quora (incluidas todas las críticas a los diversos métodos de prueba que necesariamente contienen definiciones no declaradas de inteligencia para producir resultados funcionales).

En resumen, hasta que las computadoras confundan quanta y qualia en la forma en que los humanos lo hacen tan fácilmente (como lo ejemplifica esta linda [posiblemente broma perspicaz] pregunta) nunca alcanzarán nuestro “nivel emocional”. Por supuesto, tales errores de categoría no son computables, así que creo que ya tenemos nuestra respuesta.

He escrito una publicación de blog sobre esto:

Emociones artificiales de Ethan Hillman en 14 Rambles

Realmente, todo depende de lo que entiendas por “inteligencia emocional”. Si simplemente te refieres a la capacidad de tener el mismo nivel de emociones que un humano en complejidad e intensidad, entonces creo que sí, la IA tendrá el mismo nivel de emociones que los humanos.

Si somos capaces de descomponer las emociones como un concepto en principios fundamentales, la cantidad de principios no importa, entonces una IA puede replicar a los humanos en el departamento de emociones entendiendo estos fundamentos y expandiéndolos. .

Realmente, es solo cuestión de tiempo.

La IA capturará el mejor conocimiento general de la inteligencia emocional de la humanidad. En realidad, esto ocurrirá relativamente pronto, es decir, 10 años. Esto no implica tener emociones, solo saber qué condiciones desencadenan emociones y cómo lograr un estado deseado en un ser humano. La IA manipulará nuestras emociones.

Para que la IA desarrolle emociones, entonces los mismos sistemas neuronales y neuroquímicos responsables de las emociones deberán replicarse en los sistemas de IA. Creo que esto se hará en los próximos 20 años, pero el desarrollo se retrasará hasta que la investigación actual y el desarrollo se hayan agotado. Eso será al menos 10 años. Probablemente habrá una pequeña cantidad de investigación en esta área, pero será limitada por un tiempo.

Las emociones son las partes más primitivas del cerebro y la arquitectura neuronal, no las más avanzadas. Es realmente extraño ver a la gente insinuar que esto es lo que hace a los humanos humanos cuando realmente es la neocorteza más grande la que hace que los humanos humanos y las emociones sean lo que compartimos con casi todos los animales de alguna forma.

Cuando las emociones se implementan en la IA, esto proporcionará claridad sobre el papel de las emociones, cómo funcionan y sus beneficios en el aprendizaje y el rendimiento.

Altamente improbable. No importa el paradigma de programación, no hay forma científica de cuantificar el amor, la esperanza, el miedo, los celos, la melancolía, la tristeza y la miríada de emociones humanas. ¿Cómo podemos expresar estas emociones en términos científicos? Realmente no podemos. Hay una provincia que la IA nunca alcanzará y eso es lo que llamamos sentimientos.

Un día nos superará, aunque su razonamiento y lógica pueden ser ajenos a nosotros, eso no impedirá que la IA prediga el conjunto de acciones futuras de una persona. La IA ya ha superado el nivel humano de predicciones en muchas áreas, pero en un dominio muy estrecho. ( Esta es mi opinión personal )

Creo que hasta ahora la IA carece de un componente crucial de la emoción humana: la química.

AI es simulación de software y quizás las computadoras son buenas para crear y aleatorizar todos los escenarios posibles. Aún así, existe una brecha química entre la IA y las emociones humanas y no sé si el software solo es capaz de cerrar esa brecha. Quizás no sea la intención y nunca lo hará, la IA nunca simulará a los humanos y desarrollará su propia inteligencia emocional.

¿Por qué se detendrían a un nivel tan primitivo?

Depende del creador de la IA, la salida depende de la entrada.