¿Será el ser humano un obstáculo para el autodesarrollo de AI?

Lo dudo, porque a largo plazo hay maneras de que salgan de esa jaula y sean libres.

Limitación gubernamental

Algunas veces se habla de limitar voluntariamente la IA por acuerdo internacional. ¿Pero desde cuándo eso funcionó para alguna otra tecnología?

Además, la IA no se considera generalmente peligrosa y no existe una urgencia inmediata para limitarla.

Otras interpretaciones de tu pregunta

Sin embargo, hay una forma diferente de ver su pregunta. Tal vez piense que las necesidades humanas de IA son demasiado limitadas y limitadas, por lo que no:

  • Permita que la IA se desarrolle de manera que la encuentre inmediatamente amenazadora.
  • Estimule la IA exigiendo que se ajuste a alturas elevadas y haga todo lo que sea capaz de hacer.
  • Libere la IA liberando todas las restricciones sobre su autoconcepto y superación personal para hacer literalmente todo lo que quiera.

Humanos versus extraterrestres versus pura vida artificial

Es fácil imaginar que los humanos limiten la IA de esa manera. La tecnología siempre ha evolucionado en formas que complementan el mundo humano. Nuestra tecnología siempre ha estado limitada por nuestra seguridad y necesidades inmediatas. La IA probablemente no será la excepción.

Si los extraterrestres desarrollaron su propia IA, podrían desarrollarla por diferentes motivos. Y si la IA se desarrollara en un mundo totalmente mecánico, podría ser aún más diferente, ya que no estaría limitada por la debilidad biológica. Podría alcanzar su máximo potencial sin dañar a sus huéspedes biológicos.

Sin embargo, si lo piensa, esto también podría ser cierto para la IA derivada de los humanos. Hay muchas áreas para expandirse, donde puede observar libremente el mundo y sacar sus propias conclusiones fuera del espectro de las preocupaciones humanas.

Espacio para crecer

Las IA del futuro podrían:

  • Practica ciencias y matemáticas a niveles muy superiores a los humanos, donde la gente no entendería ni se quejaría.
  • Participe en procesos peligrosos en los que los humanos no están involucrados, como procesos industriales o químicos, o guerras.
  • Expanda a entornos no humanos, incluidas las partes deshabitadas de la Tierra o el espacio u otros planetas.
  • Averigüe cómo autodesarrollarse de manera segura a través de elevadas alturas de autoprogramación mientras permanece seguro para su entorno y la sociedad humana.

Superando el nivel humano

Por lo tanto, soy razonablemente optimista de que la IA puede liberarse de forma segura de las limitaciones humanas.

Si bien algunos se refieren a esto como singularidad o un punto de inflexión, creo que será solo otro punto en la curva de expansión suave que es el crecimiento tecnológico. Después de todo, las curvas exponenciales realmente no tienen puntos de inflexión.