Si el libre albedrío no está implícito en la Inteligencia Artificial Equivalente Humana, ¿son imposibles los escenarios de Singularidad y / o Doomsday AI?

La pregunta confunde la capacidad de tomar decisiones libres con la noción más rigurosamente definida de libre albedrío.

Ya sea que se trate de una computadora de carne o una IA, su proceso de toma de decisiones implicará considerar todos los datos, elegir libremente las opciones disponibles de acuerdo con su personaje y ejecutarlas. Esta es una opción “libre” en ambos casos.

El resultado de la IA puede parecer más determinista, pero eso se debe a que sabemos exactamente cómo funcionan los microcircuitos de silicio. El funcionamiento fangoso de un trozo de carne gris es en conjunto más misterioso.

Sin embargo, ambos están impulsados ​​por las mismas leyes de la física. La noción filosófica del libre albedrío no entra en ninguna transacción. Los átomos y los electrones que obedecen las leyes de la física no tienen libertad ni voluntad.

Las mentes son máquinas que toman decisiones. Esas mentes inevitablemente sienten la propiedad de las elecciones que hacen. Esta es la ilusión del libre albedrío.

DO.

No, podríamos indicarle a una computadora que se acerque a la singularidad. * Podemos definir lo que quizás no podamos realizar.

En cuanto a Skynet, quisiera señalar el análisis de Asmov sobre la inteligencia artificial y su primera ley de robótica, en la que se ordena a una máquina que no haga daño a ningún hombre. En una historia, una máquina determinada determinó que el hombre es dañino para sí mismo, y a través de su inacción (en este caso no convertirse en supremo señor para corregir a la raza humana) estaba causando daño (por lo que se convierte en Skynet).

No hay necesidad de libre albedrío.

El libre albedrío implica tomar decisiones, pero estas pueden estar limitadas para que no se puedan realizar por completo. Doomsday parecería más probable si la IA fuera estrecha y no pudiera lidiar con la dinámica ambiental, mientras que Singularity parecería más improbable a menos que varias máquinas estén limitadas, pero hay un cierto nivel de selección por encima de ellas que también podría ser aleatorio. La equivalencia humana tampoco excluye las inteligencias transhumanas, posthumanas, extraterrestres o multiverso, al menos en ciencia. Gracias.