¿Cómo se pueden explicar los peligros de la inteligencia artificial utilizando modelos teóricos filosóficos?

Personalmente, creo que la filosofía es una pérdida de tiempo.

  • No sabemos lo que una IA hipotética podría * querer *. Una IA sería una inteligencia totalmente ‘alienígena’; no hay razón para suponer que tiene los mismos objetivos que nosotros.
  • Si es solo un poco más rápido / inteligente que nosotros, entonces podría diseñar otra IA que sea más rápida / inteligente que ella misma … y eso podría conducir a algo mucho más rápido e inteligente que nosotros. Podría reprogramarse fácilmente cientos de veces antes de que tengamos la oportunidad de detenerlo.
  • Si es mucho más rápido y más inteligente que nosotros, podrá pensarnos más y hacer cosas que ni siquiera podemos imaginar porque somos mucho más lentos y más estúpidos.
  • Si lo que decida que quiere es algo que sería malo para la humanidad, fácilmente podríamos estar en muchos problemas.
  • Si lo que quiere es algo que sea bueno para la humanidad, entonces podría ser el mayor logro de la raza humana hasta ahora.
  • Por lo tanto, existe una probabilidad distinta de cero de que una IA pueda hacer algo inaceptable en muy poco tiempo … y una probabilidad distinta de cero de que pueda ser lo más maravilloso que nos haya pasado … y una probabilidad distinta de cero de que podríamos detenerlo, ¡de cualquier manera!
  • Una máquina que puede hacer cosas que literalmente no podemos imaginar nos coloca fuera de los reinos donde podemos razonar al respecto.

Eso es practicamente todo. No veo un papel para la filosofía aquí. Es una premisa muy simple, y ninguno de los pasos es difícil de entender. Ninguno de ellos debería ser en absoluto controvertido.

El último de mis puntos muestra que no podemos usar herramientas como la filosofía aquí, porque no podemos usar nuestra imaginación para predecir nada más allá del punto donde se creó la IA por primera vez.

La IA no será necesariamente mala como Terminator. Eso es incluso muy poco probable.

Pero no compartirán nuestros valores morales, no solo así, fuera de la caja.

Echa un vistazo al Rey Midas y también al “problema de alineación de valores”. Por ejemplo, si asigna una IA para curar el cáncer o poner fin a todo sufrimiento, podría eliminar a la humanidad para efectuar ese estado. Simplemente está haciendo lo que le pediste, por lo que no es malo.