¿Cómo se sienten los ateos sobre el posible sufrimiento de la inteligencia artificial?

Esta es una muy buena pregunta. El problema aquí es que podemos crear IA con un concepto de “sufrimiento” completamente diferente al de los humanos.

El sufrimiento de los humanos, o más ampliamente por parte de los animales, está relacionado principalmente con condiciones que amenazan su existencia o sus posibilidades reproductivas. Por lo tanto, podría deberse a daños corporales, al aislamiento, a la falta de libertad, a la falta de apoyo de los demás, a la muerte de sus familiares, etc. Los humanos tienen fuertes instintos que los impulsan a cumplir su programación genética y sufren cuando algo interfiere con eso.

Lo más probable es que la IA no se reproduzca de manera similar a los humanos y podría ser beneficioso (cuando la IA no tiene ningún instinto relacionado con la reproducción y no puede sufrir debido a ellos), o perjudicial (cuando la IA tiene esos instintos, y está en estado de sufrimiento constante porque no puede cumplirlos).

En términos más generales, podría analizarse como una relación entre necesidades y capacidades. Si alguien tiene más necesidades que capacidades, sufre. Si alguien tiene menos necesidades que capacidades, no está motivado para usar sus capacidades, lo cual es ineficiente desde el punto de vista evolutivo, por lo que rara vez ocurre en la naturaleza. Pero no estamos restringidos por reglas de evolución y podemos crear IA que tenga grandes capacidades y necesidades muy pequeñas. Por ejemplo, podemos crear IA que solo necesita cumplir los deseos humanos. Tal inteligencia artificial podría no importarle ser un esclavo, ser dañado o incluso destruido. No sufriría por eso, y nuestra empatía con tal IA sería inútil, causada solo por una antropomorfización incorrecta. Por el contrario, también podemos crear IA con necesidades tan grandes que nada de lo que podamos hacer los facilitaría y sufriría constantemente incluso en condiciones que consideraríamos perfectas.

Entonces, el tema del “sufrimiento de la IA” es mucho más complicado que el sufrimiento de cualquier criatura viviente. Tenemos cierta intuición sobre las causas del sufrimiento de los animales, porque todos tienen una programación genética similar. Esta intuición puede ser completamente defectuosa en el caso de los seres artificiales. Por lo tanto, debemos utilizar un enfoque diferente, basado en el conocimiento y no en la analogía. Y es muy importante, porque si no reconocemos lo que AI necesita, o creamos AI con necesidades que son peligrosas para nosotros, podría dañarnos, y será solo nuestra culpa.

Si algo es capaz de tener sentimientos, debe tratarlo en consecuencia. No importa de qué moléculas esté compuesto.

More Interesting

¿Cuál es un buen libro para comenzar a aprender sobre el desarrollo de un sistema de aprendizaje automático / IA?

¿Cuándo se convertirán los videojuegos en un "arte"?

¿Cuáles son los principios del aprendizaje automático?

¿Cómo se ingresa a un laboratorio / grupo de investigación de inteligencia artificial sin educación formal?

¿Los valores atípicos afectan la capacitación de las redes neuronales profundas?

¿Cómo ve el futuro del desarrollo de aplicaciones móviles en los próximos 5 años con AI y ML?

¿Cómo beneficiará la inteligencia artificial al mundo de los profesionales de TI en Sudáfrica en el futuro?

¿Qué modelo de red neuronal es eficiente para la predicción del mercado de valores mediante el análisis de sentimientos? ¿Y qué herramienta / biblioteca usar?

¿Qué distingue a las llamadas 'redes neuronales profundas' de las redes neuronales de antaño? ¿Por qué están mucho mejor ahora?

En pocas palabras, ¿cómo se hace el aprendizaje automático con imágenes?

¿Por qué Elon Musk cree que la comprensión de Mark Zuckerberg de la IA es limitada?

Al sintonizar una red neuronal, ¿cuánto tiempo suele esperar mientras entrena antes de cambiar los hiperparámetros y probar otra configuración?

¿Cuáles son algunos textos recientes sobre el aprendizaje a gran escala?

¿Qué es una explicación intuitiva para las redes neuronales?

¿Descubriremos el impulso warp en los próximos 1000 años con avances en la ciencia o la inteligencia artificial?