Si la personalidad humana cambia con el tiempo, ¿cómo puede funcionar la ‘inmortalidad digital’?

El problema aquí es que la “inmortalidad aumentada” no es la inmortalidad.

Tu mueres. Su “imagen” sigue existiendo.

La instantánea de su conciencia será bastante similar a, por ejemplo, una fotografía o un video, o una pintura o una escultura que lo represente, excepto que podrá hablar. Podrá replicar completamente sus pensamientos (por un tiempo, por supuesto), pero no será usted porque dejó de existir.

Con el tiempo, si se permite que la instantánea aprenda, probablemente se desviará en gran medida de la personalidad original o incluso de un ser humano, debido a que no tiene un cuerpo humano real ni un cerebro humano real. Básicamente, los errores y las diferencias en la emulación del cerebro probablemente se acumularán y el ser desarrollará rasgos no humanos. Se convertirá en una IA.

Toda la idea abrirá una enorme lata de gusanos … en asuntos legales. Por ejemplo, ¿la instantánea es una persona? ¿Tiene derechos? ¿Posee la propiedad del original? Ese tipo de cosas.

Ahora, hagámoslo un poco más complicado. Digamos que desarrollamos una tecnología que puede reemplazar las neuronas humanas con equivalentes de silicona, que son eternos. Digamos que alguien se somete lentamente a dicho tratamiento y reemplaza una célula a la vez, en el transcurso de unos años, y ahora su cerebro no tiene componentes orgánicos. ¿Esa persona sigue siendo humana? Y hablando de eso … si la mente de una persona se puede cargar, ¿la vida humana todavía tiene algún valor?

Hubo una película que trató de explorar la idea de la trascendencia a través de la carga mental … pero exploró la idea muy mal. La película es “Trascendencia” (2014). Otra película de interés fue Final Cut (2004), que representaba a la sociedad donde los recuerdos de las personas muertas se cargaban como una película para representar sus vidas. Otro es “6to día” (2000) con Arnold Schwarzenegger)

Ahora, volviendo a su pregunta, la mejor idea probablemente sería congelar la instantánea y evitar que aprenda algo, y eso es lo que esperaría que hiciera un científico sensato. Principalmente para evitar su transformación en conciencia digital, IA, “fantasma en la matriz” y similares. Un ser monja humano, básicamente, porque un ai digital con rasgos humanos puede ser muy peligroso.

More Interesting

¿Es la vida biológica solo un paso evolutivo entre la materia inanimada y la IA?

¿Cuál es un buen libro para comenzar a aprender sobre el desarrollo de un sistema de aprendizaje automático / IA?

¿Por qué los modelos que funcionan mejor durante el entrenamiento dan resultados más pobres durante la implementación?

Si tuviéramos una computadora con potencia computacional extrema, ¿podría pensar?

¿Cómo es el póker más difícil que el ajedrez o Go for AI?

¿Qué causó el "invierno AI" y cuáles fueron las primeras señales de advertencia? Dado el estado actual de la IA, ¿es probable que haya otro período de bajo interés en el campo? ¿Qué cuellos de botella serían la causa de eso?

¿Existe un mejor tutorial para el aprendizaje profundo que deeplearning.net?

¿Es difícil aprender las redes neuronales?

¿Cuál es la diferencia entre aprendizaje automático, red neuronal y cómo se relacionan con el aprendizaje profundo?

¿Qué sucederá cuando todos los trabajos en la tierra sean automatizados y realizados por máquinas?

¿Hay alguna base de datos que dé resultados basados ​​en la entrada de voz?

¿Puede el aprendizaje automático ayudar a las computadoras a aprender como los humanos a partir de los datos de los MOOC?

Si los robots toman nuestros trabajos, ¿por qué no todos vivimos en el lujo y les dejamos hacer el trabajo?

¿Cuán importante ha sido la neurociencia para avanzar en el estado del aprendizaje automático / aprendizaje profundo?

¿Es aconsejable dejar que AI juegue videojuegos orientados al combate?