Tal vez me equivoque aquí, como siempre, pero el título parece suponer una gran suposición errónea. “Lleno”.
Un ASI sería singular, no llenaría el mundo con nada más que sí mismo. O al menos ese es el escenario que la mayoría de los expertos parecen tener en mente, en mi humilde opinión.
Dicho esto, si se convierte en existencia y quiere terminar con la nuestra por cualquier razón, eso es todo. No hay nada que podamos hacer a partir de ese momento.
- ¿Por qué las computadoras no tienen autoconciencia?
- ¿Cómo se inicia un programador promedio en inteligencia artificial?
- En el futuro, ¿la IA probablemente pertenezca a una pequeña élite, lo que hará innecesario al resto de la humanidad y los obligará a luchar por la supervivencia?
- ¿Debería la inteligencia artificial escuchar o simplemente saber lo que está diciendo?
- ¿Es posible que EE. UU. Haya construido en secreto inteligencia artificial a nivel humano?
Muchos, probablemente la mayoría, creen que podríamos darle un buen comienzo y, con un conjunto adecuado de objetivos, lo más probable es que no estén dispuestos a exterminarnos. Otros todavía creen que un ASI ni siquiera es posible, aunque son raros.
En mi opinión, hay una pregunta más importante: ¿cuál es nuestra mejor apuesta para superar todos los demás tratos existenciales, incluidos nosotros mismos (para cosas como causar el calentamiento global o la guerra mundial)?
Creo que sabes la respuesta.