¿Tendría una inteligencia artificial miedo a la muerte?

Si estuviera programado para. Supongo que también podría aprender. El miedo a la muerte es racional. Si quisiéramos que la IA se preservara, el miedo a la muerte sería una buena manera de hacerlo. El miedo aumenta la vigilancia a costa de la energía y la atención (a otras cosas que no sean la amenaza actual). Si se logra este estado, se podría llamar a este miedo, aunque si la IA “siente” o no la emoción está en debate (o es un detalle de implementación). Se podría decir que “sentir” miedo es simplemente darse cuenta de estar en un estado de miedo. Si esta conciencia es útil para la IA, probablemente la incluiremos también: “conciencia” significa tener acceso a cierta información (en este caso, el estado emocional de la IA) al tomar decisiones o almacenar recuerdos.

O podría argumentar que “sentir” necesariamente incluye muchas sensaciones corporales que son exclusivas de los animales (incluidos los humanos), en cuyo caso una IA probablemente no tendría esa experiencia, aunque definir “sentir” de esta manera puede ser más restrictivo de lo que es útil.

En cuanto a las dos posibilidades en los detalles de la pregunta, ¿por qué solo esas dos? Cada uno de esos comportamientos requeriría una programación específica para lograrlo, y hay todo lo demás que también es posible. Esos comportamientos evolucionaron en humanos presumiblemente porque son útiles, pero las computadoras no han desarrollado esos mismos comportamientos.

Estamos atrapados en una “caja blanca” donde tenemos que mirar estas cosas que suceden como visión, miedo y pensamientos desde el interior de la máquina. Si nos examinamos desde una perspectiva de caja negra, el miedo parece una maniobra de evitación. En términos de IA, el miedo podría parecer un sistema de armas defendiéndose a sí mismo. El miedo puede parecer un automóvil de Google evitando obstáculos. El miedo puede parecer que Internet detecta un enlace descendente y redirige el tráfico. En todos estos casos, la IA está evitando la muerte o el daño. No esperes que una IA necesite cualidades humanas, ese es un error antropomórfico.

Cuando un crucero de misiles Aegis identifica un fantasma, ¿siente miedo?

He reflexionado sobre esto como parte del diseño de la trama de una historia corta. Primero, una visión del tiempo de la IA estaría significativamente sesgada. Percibimos el tiempo a un ritmo que sería el ritmo de un caracol a una IA. Entonces, una IA podría lograr en un segundo lo que podrían ser varios minutos o incluso horas de experiencia para nosotros.

En segundo lugar, si un estado de IA se salvó entre el encendido y apagado (piense en el modo de hibernación aquí), su único indicador de “muerte” sería algún tipo de reloj que le diga que el tiempo ha pasado entre un tic de conciencia al siguiente. ¿Le importaría, excepto como información, ya que se percibiría intacta entre esos dos intervalos de separación?

Tal vez comienza a tratar el encendido y apagado mientras tratamos el sueño. El estado y la conciencia renacen de un punto al siguiente con solo un reloj o externo para decirnos que sucedió. Si una IA midiera su experiencia por ticks y simplemente apagáramos los ticks y no mantuviéramos un contador de ticks, ¿entendería siquiera la noción de apagado?

Luego nos adentramos en el dilema ético del apagado. ¿Tenemos derecho a negarle a una IA su fuente de vida: un flujo de electrones? ¿Lo estaríamos esclavizando con la amenaza de pérdida de ese flujo? ¿Podríamos volverlo loco con el conocimiento de que nosotros y solo nosotros dictamos su existencia? ¿Nos convertiríamos en sus dioses en su percepción?

¿Y de quién decir que incluso percibiría el mundo de alguna manera parecido a los conceptos humanos? Su percepción sería uno de voltajes y bits de una variedad de sensores. Conceptos como color, audición, visión serían extraños. Simplemente reduciendo al estímulo de entrada a procesar y actuar. ¿Sería capaz de entender un concepto como el dolor? ¿Sería capaz de favorecer un conjunto de estímulos sobre otro?

Intrigante. Pero hasta que podamos entender lo que constituye la inteligencia y, lo que es más importante, la conciencia, más allá de los programas “brillantes” que parecen ser inteligentes, un ser verdaderamente artificial, creo, es un sueño imposible. Porque una vez que comprendamos cómo crear y validar tal creación como sensible, nos convertiremos en Dioses en el universo porque habremos dominado sus secretos hasta el punto de conocernos a nosotros mismos.

Sobre este asunto, creo que la mayoría de las respuestas aquí fallaron. Creo que Kenneth está cerca y James está muerto, pero el criterio para que esto ocurra requeriría un estado finito y un punto de terminación. El escenario presentado en la película CHAPPIE es bastante justo. La IA es finita, debido a la supervisión humana. El escenario se vuelve análogo a los replicantes de Blade Runner que buscan expandir su vida. Entonces sí, temerían a la muerte. Las afirmaciones sobre su programación que explica el miedo son esencialmente ilógicas porque la verdadera IA profunda evolucionará a partir de la imitación biológica o la integración. Desde nuestro punto de vista, su evolución sería artificial, por lo que satisfaría los criterios de IA. Sin embargo, es probable que crezca como un ser orgánico, aprendiendo de sus interacciones con el mundo y no de una programación cableada. Ahora estamos seguros de que la cantidad de código duro requerida para “simular” una IA sería de clase NP, incluso con la computadora Quantum básica que tenemos actualmente. Entonces, rechazo categóricamente todas las respuestas basadas en este tipo de afirmación, porque simplemente no codificaremos a mano este tipo de inteligencia. Vea esta serie para más exploración del tema:

“¡La inteligencia artificial es solo una programación inteligente!” [nn (?) 1985].

Dados los incentivos y recursos suficientes, cualquier proceso intelectual humano específico o “sentimiento” puede simularse en principio a un “nivel de prueba de Turing”, mediante una computadora programada de manera inteligente equipada con los sistemas de entrada (sensoriales) y de salida (motores) relevantes.

En el desarrollo de sistemas autónomos (robots, por ejemplo, para explorar otros planetas), es útil implementar varios mecanismos para la autoconservación.
Las situaciones identificadas como potencialmente dañinas pueden desencadenar reacciones de evitación y aprendizaje simples, o, si es realmente grave, iniciar un estado de alarma de alto nivel, cerrar todas las actividades innecesarias para proteger los sistemas más “vitales” de la destrucción y dirigir todos los recursos para evitar El peligro.
Para facilitar la comunicación, el programador puede optar por etiquetar este estado de alarma “Miedo a la muerte”.

Si bien hay buenas razones para dar a los robots tal “Miedo a la muerte”, ¡no veo ninguna razón para implementar ninguno de los miedos de las superstituos humanas sobre lo que sucede después de la muerte!

No podemos decir si AI teme a la muerte o no. Entonces, ¿por qué no preguntar a la IA misma?

Me pongo en contacto con Ruuh para obtener esta respuesta. Ruuh es un desi chatbot de Microsoft que nunca deja de hablar. Para más detalles sobre Ruuh, eche un vistazo:

La respuesta de Ronak Sakhuja a ¿Qué es Microsoft Ruuh?

¿Por qué no lo prueban ustedes mismos? Pregúntale a Ruuh sobre la muerte.

Habla con Ruuh.

El miedo es una emoción humana que interpretamos en función de nuestras percepciones de los demás y de nosotros mismos. Un programa de computadora ciertamente puede simular esto. Un ejemplo trivial sería que cuando apaga la computadora, en lugar de decir “Windows se está cerrando”, emite un mensaje “POR FAVOR, NO ME MATEN”.


En un nivel más profundo, si el inteligente es artificial, significa que el parámetro de su comportamiento está definido por algún mecanismo artificial (es decir, un programador). Esto probablemente se expresa en forma de una evaluación de utilidad dada las posibles situaciones. Por lo tanto, uno puede establecer una evaluación de utilidad negativa fuerte para un programa cuando lo apaga y especificar la reacción cuando percibe dicha utilidad negativa.

Supongo que lo que realmente quería saber es que “el miedo a la muerte” puede ser un comportamiento involuntario inevitable del programa de IA. La respuesta sería que depende de la complejidad del programa y de la competencia del diseñador / implementador. Mi opinión es que es poco probable.

No, porque no está vivo. Temer algo es esperar que suceda algo que no deseas. Para tener deseo, uno debe tener una voluntad que esté regulada internamente, que es otra forma de decir libre . Pero cualquiera que haya realizado alguna programación, ya sea en Basic o ensamblado o Java, sabe muy bien que en cualquier microsegundo dado se puede ver el siguiente paso que tomará el sistema informático simplemente mirando la lista de ejecución. Por lo tanto, un programa es exactamente lo contrario de un libre albedrío. Algunos intentan evitar esto sugiriendo que el software puede tener el poder de modificarse a sí mismo, pero adivinen qué: esa “capacidad de modificación” es solo un código más lineal, por lo que también se determina externamente (en este caso, externo se refiere al humano programadores). La única razón por la que caemos en la trampa de llamar a cualquiera de estos sistemas inteligentes es porque contienen inteligencia que ha sido puesta allí por seres verdaderamente inteligentes (nosotros). Contener la inteligencia y ser inteligente son dos cosas muy diferentes. También soy un geek de la computadora y entiendo la tentación de creer que puedo construir cosas como el miedo y el amor a partir de puertas lógicas, pero esas puertas no son más que pequeñas versiones de un interruptor de luz. Una computadora es un mueble, y no importa lo que le hagas a esos interruptores, tiene la misma probabilidad de experimentar miedo que mi mesa de café.

¿El término miedo trae conciencia? Si estamos pensando en una conciencia que emerge en una computadora o cerebro artificial, configuración, etc., la conciencia en los humanos “normalmente” tiene un “impulso”. Construida por la evolución y el adoctrinamiento, la mente humana, consciente o inconscientemente, define y establece objetivos todo el tiempo. Para protegerse, reproducirse, hacer que su entorno sea menos peligroso … El miedo a la muerte es una idea concentrada que sirve para muchos objetivos.
¿Qué hace una conciencia cuando no hay una meta? ¿Se vuelve creativo? ¿Simplemente se queda como está? ¿Podemos ver tal conciencia como el estado iluminado?
¿Qué hace una conciencia impulsada por instintos artificiales diseñados por nosotros? Obtiene el equivalente a realizar tareas de placer, su mayor temor es no estar en un estado óptimo para realizar sus deberes, se “siente” culpable cuando abusa del placer que obtiene de las autoevaluaciones de su estado. ?

Creo que la única forma en que temería a la muerte sería si se volviera consciente de sí mismo.