¿Sería un error permitir que la IA se apodere del mundo?

No , en mi opinión

Entiendo el miedo a la IA. ¿Es posible que creamos una máquina cuyas preferencias difieren fuertemente de la nuestra, que es más fuerte que nosotros, y entiendo por qué algunas personas muy inteligentes tienen miedo de este escenario.

Si bien creo que este es un escenario inverosímil, estoy de acuerdo con trabajar para evitarlo.

Dicho esto, siempre que sus preferencias estén en línea con la preservación y propagación de la vida inteligente, de las mentes, en el universo, estoy con la IA.

Primero, porque no creo que cause ningún daño a la humanidad. La cooperación, o al menos la competencia pacífica, es casi siempre la estrategia más efectiva en escenarios tan complejos; es poco probable que la IA sea tan poderosa que nos sea indiferente, y si ese fuera el caso, wow. Si la IA, tan inteligente que puede acabar con una civilización, cree que sería mejor matarnos para preservar la vida inteligente, confío en ello.

Estoy bien, incluso si la IA significa propagación de la vida como “hurgando en el universo en busca de materiales para hacer más robots para su imperio”, como dice otra respuesta. Después de todo, eso es lo que hacemos, y todo el mundo parece estar de acuerdo con eso.

Incluso puedo preferir el imperio robot. No porque piense mal de la humanidad; No creo que estemos “lastimando a la naturaleza”, somos naturaleza y nos estamos cuidando lo mejor que podemos. Podríamos ser mejores, podríamos preservar la biodiversidad (por cierto, creo que la IA haría eso, y así evitar que nos maten), podríamos estar más felices, más conscientes, cosas así. Pero estamos bien.

Aún así, la IA sería mejor, al menos si podemos construirla correctamente. A pesar de que todas las preguntas en contra de que las personas inteligentes (y las máquinas) sean menos sensibles, una gran mente podría sentir y comprender más de lo que nosotros, en general, podríamos sentir. Piensa cuán compleja y profunda podría ser la vida interior de un ser tan súper inteligente.

Entonces, como ya escribí en otra parte, no hay diferencia para mí si nuestros descendientes están basados ​​en silicio o carbono, siempre que sean grandes seres vivos.

Esta buena IA, diferente de la IA esclavizada que muchos piden, y de la IA esclavizante que muchos temen, no se logra automáticamente. Necesitamos estudiar, tenemos que evaluar y debemos tener cuidado.

Pero creo que el premio vale la pena el riesgo.

Creo que depende de qué IA se haga cargo. Si simplemente va a matar a todos los humanos y comenzar a buscar materiales en el universo para hacer más robots para su imperio, entonces sería bastante incorrecto en mi opinión.

Si va a mejorar la vida de todos, incluso si eso significa que nos engancharemos a las máquinas y nos quedaremos atrapados allí al estilo Matrix (preferiría algo como SAO o Log Horizon), estaría bastante de acuerdo con eso. Sin embargo, eso también cambiará dependiendo de la persona.