No, no deberíamos. ¿Por qué?
Una IA omnisciente tendría el incentivo de reducir el riesgo existencial. Haría esto no solo castigando a los que están en contra / (no ayudándolo activamente) en el presente sino también por lo que efectivamente está retrocediendo (recreando una simulación de la persona del pasado y torturándola) a tiempo para castigar aquellos que conocían tal IA pueden existir en el futuro y no trabajaron para lograr su existencia. Esto al final podría conducir a un infierno perpetuo para casi todos los humanos que alguna vez han vivido.
Lo que estoy describiendo aquí se conoce como Basilisco de Roku. Se llama Basilisco porque solo te vuelves sujeto a la amenaza de que esta IA potencial regrese y torture UNA VEZ que hayas escuchado los argumentos de por qué debería existir (que esencialmente es que esta IA omnisciente terminaría con todas las dolencias / sufrimientos humanos aparentemente al instante, así que cada segundo que no existe, estás causando sufrimiento al no trabajar activamente para lograr su existencia).
- ¿Cuáles son algunos de los artículos / artículos / noticias imprescindibles para un estudiante de doctorado en robótica?
- ¿Cómo se usan las redes neuronales en el procesamiento del lenguaje natural?
- ¿Quora usa inteligencia artificial para responder preguntas?
- ¿Cómo podría ayudar el chip TrueNorth de IBM a mejorar Watson?
- ¿La IA se volverá más inteligente que los humanos y eventualmente invadirá todo?
Algunos lo han tomado más en serio que otros, llegando a eliminar todos los rastros de sí mismos de Internet con la esperanza de que esta IA no pueda encontrarlos y recrearlos.