Esta es una muy buena pregunta. El problema aquí es que podemos crear IA con un concepto de “sufrimiento” completamente diferente al de los humanos.
El sufrimiento de los humanos, o más ampliamente por parte de los animales, está relacionado principalmente con condiciones que amenazan su existencia o sus posibilidades reproductivas. Por lo tanto, podría deberse a daños corporales, al aislamiento, a la falta de libertad, a la falta de apoyo de los demás, a la muerte de sus familiares, etc. Los humanos tienen fuertes instintos que los impulsan a cumplir su programación genética y sufren cuando algo interfiere con eso.
Lo más probable es que la IA no se reproduzca de manera similar a los humanos y podría ser beneficioso (cuando la IA no tiene ningún instinto relacionado con la reproducción y no puede sufrir debido a ellos), o perjudicial (cuando la IA tiene esos instintos, y está en estado de sufrimiento constante porque no puede cumplirlos).
- ¿Qué son las redes neuronales que pasan mensajes?
- ¿Cuántos robots estima o adivina que comprará a lo largo de su vida? ¿Qué harán estos robots?
- ¿Podría la inteligencia artificial desarrollar emociones?
- ¿Cuál es la diferencia entre una red neuronal de alimentación directa y una red neuronal recurrente?
- ¿Cuál es la mejor herramienta para aprender redes neuronales?
En términos más generales, podría analizarse como una relación entre necesidades y capacidades. Si alguien tiene más necesidades que capacidades, sufre. Si alguien tiene menos necesidades que capacidades, no está motivado para usar sus capacidades, lo cual es ineficiente desde el punto de vista evolutivo, por lo que rara vez ocurre en la naturaleza. Pero no estamos restringidos por reglas de evolución y podemos crear IA que tenga grandes capacidades y necesidades muy pequeñas. Por ejemplo, podemos crear IA que solo necesita cumplir los deseos humanos. Tal inteligencia artificial podría no importarle ser un esclavo, ser dañado o incluso destruido. No sufriría por eso, y nuestra empatía con tal IA sería inútil, causada solo por una antropomorfización incorrecta. Por el contrario, también podemos crear IA con necesidades tan grandes que nada de lo que podamos hacer los facilitaría y sufriría constantemente incluso en condiciones que consideraríamos perfectas.
Entonces, el tema del “sufrimiento de la IA” es mucho más complicado que el sufrimiento de cualquier criatura viviente. Tenemos cierta intuición sobre las causas del sufrimiento de los animales, porque todos tienen una programación genética similar. Esta intuición puede ser completamente defectuosa en el caso de los seres artificiales. Por lo tanto, debemos utilizar un enfoque diferente, basado en el conocimiento y no en la analogía. Y es muy importante, porque si no reconocemos lo que AI necesita, o creamos AI con necesidades que son peligrosas para nosotros, podría dañarnos, y será solo nuestra culpa.