¿Se está haciendo un esfuerzo para enseñar empatía de inteligencia artificial?

No es que yo sepa, y si hay personas trabajando en él, sería en mi opinión que no se debe confiar en su conocimiento del dominio. Como dijo Matthew Lai, el estado del arte en IA está muy lejos de permitir incluso prever que una IA, en cualquier forma de los diferentes campos, pueda comprender el concepto. sí, podemos tener un sistema que reconozca caras, aunque … puede que no sea tan bueno como quisiéramos:


También tenemos sistemas de inteligencia artificial que pueden reconocer un lenguaje hablado e incluso adaptarse a tus acentos (aunque una vez más:

Esto no es realmente “perfecto”.

Ahora mire estas imágenes y trate de descubrir por qué la “empatía” no es realmente la más alta prioridad. Los programas que tenemos en este momento no están cerca de comprender un dominio de tan alto nivel. Quiero decir, en base a este artículo (Cómo los niños desarrollan empatía), incluso un niño humano comienza a comprender las bases de la empatía muy tarde (4 años) y todos han experimentado a un niño que dice algo tonto como “esta persona se ve gorda”. que no es muy empático; y a esta edad ya son mucho mejores para reconocer una cara o dar sentido a lo que decimos que los ejemplos anteriores.

Entonces también viene una pregunta más grande; ¿Puede una IA, que por definición no es humana, ser empática con los humanos? La empatía es la capacidad de comprender y compartir los sentimientos de los demás. Hay mucho bajo esta simple definición, pero en resumen es poder ponerse en el lugar de la persona. Y para hacerlo, debes tener algo de comprensión sobre cómo se sentiría. En todo caso, diría que incluso para nosotros, los autoproclamados campeones de la empatía, mostramos muy rápidamente nuestros límites al respecto. Por supuesto, en el nivel superior puedo ser muy empático cuando alguien sufre de alguna forma de cosas que experimenté de una manera relativamente similar o es más universal (como este niño que muere de hambre en algún país del tercer mundo). Pero al mismo tiempo alcanza sus límites muy rápidamente: soy un hombre blanco, me considero no racista o sexista (sé que es más fácil decirlo que probarlo). Sin embargo, como el 99% de los hombres, dije al menos una vez (TBH probablemente mucho más que eso) algo así como “mujeres … ¿tengo razón?” y por el contrario escuché a las mujeres suspirar y decir “hombres …”. Hay cosas que no entiendo sobre el comportamiento de las mujeres y eso me hace, y a la mayoría de los hombres, tener dificultades para ser empáticos en estas situaciones (y supongo que lo mismo ocurre con las mujeres con respecto a los hombres). Lo mismo acerca de ser blanco y no darse cuenta por completo o tener dificultades para comprender el tipo de dificultades con las que algunas de las “minorías” tienen que luchar. Y puedo continuar con preferencias sexuales, etc., etc.

Entonces, a pesar de los mejores esfuerzos de mis padres, tengo mi límite en términos de empatía y esto incluso para las personas que son de la misma especie que yo e incluso viven en la misma sociedad. Ahora transponga esto a la máquina: supondré aquí por el argumento que es lo que a la gente le gusta llamar un AGI hoy en día (es decir, como inteligente, si no más que los humanos). Aún así, esto probablemente no piense exactamente de la misma manera que nosotros, no tenga los mismos sentimientos (si los hay: por ejemplo, ¿por qué sentiría dolor? … esto es útil para nosotros como advertencia antes de estar realmente herido, pero ¿es realmente útil? ¿para máquina?) Entonces, puede haber muchos conceptos que son naturales para nosotros pero totalmente extraños. ¿Cómo podría ponerse en nuestros zapatos si sus propios zapatos tienen formas tan drásticamente diferentes? Como dije, incluso algunas diferencias “leves” (órganos reproductivos, color de piel y lugar en la sociedad u orientación sexual) me hacen perder mucha de mi capacidad de ser empático, lo mismo probablemente ocurriría con una entidad que es muy diferente a mí.

Pero una vez más, ¿por qué nos importaría eso? Ni siquiera estamos cerca de que sea un problema y hay formas de evitar esto que incluso aplicamos tanto a nuestros hijos como a nosotros mismos a la sociedad: nos guste o no, pero cualquier padre que afirme que nunca dijo “porque te lo dije” ni una sola vez a un niño cuando le da órdenes de no decir descripciones crudas insensibles de personas probablemente le está mintiendo. Y tenemos lo mismo para los adultos: la ley es algo así y sirve como una guía social sobre lo que se puede hacer o no (que varía de correr desnudo para matar personas) y los programas de hoy en día también tienen este tipo de reglas: no realmente “no matar”, pero hay reglas más suaves sobre lo que se puede hacer en qué contexto y esto puede variar desde cosas básicas simples como “limitar su velocidad a 1 a 2 m / s” porque se espera que el robot se mueva en un entorno humano y su velocidad limitada alrededor de nuestra velocidad de caminar tiene sentido, para reglas más delicadas sobre cómo un robot debe enfrentar a su contraparte humana cuando realiza una acción como servir una cerveza (para que sus acciones se entiendan bien): el robot puede no sentir empatía pero para muchos humanos se sentiría así.

La versión cognitiva que implica la mímica está en la línea de objetivos y habilidades. Socialmente, la realidad virtual puede poner a alguien, o algo, en el punto de vista de otro. Los dispositivos también se utilizan para mostrar a alguien que es autista cómo hacer frente a otros.

La empatía en el sentido biológico de las neuronas espejo que modula la emoción para que coincida con otra se considera un rasgo que formaría parte de su composición. Las teorías clásicas, como la Sociedad de la Mente de Minsky, señalaron que también podría referirse a los estereotipos y que había una cuestión de si era necesaria la autoconciencia. Según los informes, la empatía artificial avanza en los robots de desarrollo.

Las máquinas utilizan el aprendizaje profundo para hacer sus propias correlaciones a partir de datos sobre personas y el medio ambiente. La analítica descifra el sentimiento o pueden detectar la información. Pueden hacer recomendaciones personalizadas basadas en la actividad, por ejemplo, música para adaptarse al estado de ánimo. El entretenimiento a menudo muestra las perspectivas de los demás, por lo que parece que el sistema sabe lo que les gusta. Las máquinas pueden estar tomando medidas, incluido el dolor, por lo que pueden ser parte del tratamiento. De lo contrario, los usuarios tienden a antropomorfizar en ausencia de signos comprensivos. Los transhumanos valoran el bienestar a través de la tecnología.

Los temas relacionados incluyen inteligencia emocional, EQ, computación afectiva y asistentes digitales personales.

Claro, hay muchos enfoques para este tema, por ejemplo, Página en stanford.edu, Más allá de la IA: compasión artificial, ¿Es posible la inteligencia artificial sin dolor y placer artificiales? Página en ieet.org.

Aún así, las máquinas no deberían ser como nosotros y su inteligencia debería aprenderse y no basarse en cómo la vemos. La compasión debe ser aprendida y no implementada ingenuamente.

Aprendemos cómo funciona el cerebro no para simularlo, sino porque es una herramienta increíblemente efectiva. Las máquinas aprenderán su propia forma de manejar los datos y decidirán cómo definir su propia empatía.

Nuestra empatía tiene sentido, porque ayudar a otros a tu alrededor te hace crecer mucho más rápido que en completo aislamiento. Las personas empáticas pueden ver que aprender razones es mejor que arreglarlas, aisladas de los demás.

No, porque las IA modernas aún están a décadas de poder aprender un concepto de tan alto nivel.