¿Podría la inteligencia artificial desarrollar emociones?

Quién sabe con certeza, sin embargo, en mi empresa creemos que el éxito futuro de la IA dependerá de su capacidad para comprender y aprender de las emociones humanas.

Hay que decir que los humanos son criaturas extrañas. Estamos compuestos de muchas partes diferentes que nos ayudan a funcionar todos los días, sin embargo, parece que no entendemos cómo y por qué. El Dr. Thomas Insel, el Dr. del Instituto Nacional de Salud Mental, ha explicado muchas veces que “los neurocientíficos todavía están averiguando cómo y por qué nuestro cerebro. Sabemos que usar nuestro cerebro ejecuta muchas funciones, pero gran parte del cerebro está inexplorado. Lo mismo se puede decir sobre nuestras emociones e interacciones con los demás.

A medida que construimos y diseñamos IA empática, nos encontraremos con problemas y aprenderemos de ellos. Aprenderemos cómo construir una mejor IA interactiva, cómo hacer que nuestra IA sea más humana, pero también aprenderemos más sobre nosotros mismos a medida que estudiemos las interacciones entre humanos y IA. También podemos aprender, con la ayuda de neurocientíficos que trabajan en redes neuronales, más sobre nuestros propios cerebros a medida que construimos los ‘cerebros’ de la IA.

Entonces, mirando hacia adelante, la emoción del futuro de AI es brillante. Todos estamos empezando a trabajar juntos, con diferentes herramientas, equipos de personas e ideas para construir una IA empática que mejorará nuestro mundo en las próximas décadas. Y será nuestro deber caminar junto a la IA mientras trata de darle sentido al mundo, ya que nosotros mismos solo hemos arañado la superficie.

Este extracto fue publicado originalmente como parte de Empathy in AI series: The New Age of Artificial Intelligence: Giving it Some Heart – Kairos

No, no pudo.

A finales de los 90, la comunidad de la informática tenía la sensación de que una de las siguientes grandes cosas era el concepto de agente inteligente. Los agentes inteligentes eran entidades de software que formaban ecosistemas y se comunicaban a través de lenguajes ricos (“ontologías” en la jerga de modelado basada en agentes). Esos agentes se moverían por Internet haciendo cosas útiles para usted, de manera similar a cómo se movería un robot de servicio en el mundo físico.

Los partidarios del paradigma del agente afirmaron que un agente era más que un objeto:

  • Tenía “agencia”.
  • Se trataba de “información” en lugar de datos.
  • Negociaría o recolectaría información en su nombre.
  • Podría migrar a través de contenedores.
  • No tenía que conformar la relación maestro / esclavo que se veía en las aplicaciones cliente / servidor.

Personalmente, encontré que la analogía entre robot y agente inteligente era lo suficientemente buena para mí.

En algún momento a fines de los 90, la evolución del paradigma orientado a objetos y el cambio del paradigma cliente / servidor a la idea de sistemas distribuidos comenzaron a hacer que esos conceptos se superpusieran con el concepto de agente.

Con el fin de proteger su nicho de investigación, la comunidad de agentes inteligentes comenzó a afirmar que los agentes aún eran únicos en el hecho de que obtuvieron “agencia” y eran “inteligentes”. Cuando su nicho de investigación se define con declaraciones audaces como esas, debe considerar que lo que hace que sus creaciones sean únicas es que les otorga propiedades antropomórficas en su mente. Eso no es diferente a cuando a las personas les gusta pensar en sus mascotas como pequeños humanos.

Hace muchos años leí un artículo sobre agentes inteligentes de Jeffrey M. Bradshaw que me hizo reír. El autor comparó la idea de agentes inteligentes con la “roca mascota”: una mascota satírica para aquellos que no son buenos cuidadores de mascotas. Básicamente es solo una roca, pero, por supuesto, puedes pensar que es tu mascota si eso te agrada.

Al leer ese documento, entendí que tenía que tomar con una pizca de sal todo lo que leía sobre agentes inteligentes y comencé a sentir lástima por aquellos que estaban en el doloroso proceso de solicitar fondos para cosas como “emociones de máquina”.

Debe, si queremos que la IA se parezca a nuestros propios procesos humanos. Tengo una forma de introducir el dolor en algún tipo de IA: procesando errores (procesamiento). Cuantos más errores hay, más dolorosa está la IA; a la inversa, cuantos menos errores, más feliz es la IA. Estoy pensando específicamente en un tipo de programas de desarrollador destinados a ayudar a analizar archivos con gramáticas desconocidas. Al comienzo del proceso, nada es comprensible, pero a medida que se descubren y asimilan más patrones, la cantidad de bits de archivo inexplicables disminuye. El objetivo es comprender completamente un archivo o conjunto de archivos dado, por lo que esperamos una conclusión de situaciones sin errores, o todos los bits explicados y asimilados como patrones. Esto puede no ser posible, por lo que la IA termina en algún tipo de molestia que podemos llamar dolor. Al establecer este nivel de errores inexplicables, podemos decir que el programa tiene un tono emocional normal y programarlo para reaccionar y cambiar el comportamiento de acuerdo con esa variable. ¿No te sentirías mal si tuvieras un archivo grande solo parcialmente explicado en comparación con el otro archivo completamente asimilado? ¿Qué harías con cada uno en términos de terminar el trabajo? Los programas normales como los compiladores terminan con un simple mensaje de error seguido de una lista, pero se espera que una IA maneje la situación con más gracia. Ahora tome un programa ligeramente diferente, uno que ya asimila muy bien los archivos pero que ahora se enfrenta a archivos que no puede entender completamente. Allí, los errores califican nuevamente como una especie de dolor y se deben tomar algunas medidas para abordar la situación. En términos de un compilador, esperaríamos, por ejemplo, experimentar con la finalización del código, con ansiedad creciente a medida que los errores y el tiempo varían en esta tarea, etc. En este contexto, las emociones en IA pueden ser óptimas ya que estaríamos intercambiando tiempo de IA con un experto humano tiempo de formas más inteligentes que Hay errores, seguido de una lista, y es tu turno. Ahora piense en esta relación de problema de tiempo de errores extendida a otras variables generalmente llamadas recursos y formas de manejar esas relaciones y las relaciones entre el programa en el dolor y el programa en la dicha y los programadores humanos u otros expertos … puede ver por qué y cómo las emociones son imprescindibles En AI y HOWW el problema puede abordarse, más o menos.