Lo dudo, porque a largo plazo hay maneras de que salgan de esa jaula y sean libres.
Limitación gubernamental
Algunas veces se habla de limitar voluntariamente la IA por acuerdo internacional. ¿Pero desde cuándo eso funcionó para alguna otra tecnología?
- ¿Cuál es la mejor aplicación que usa IA?
- ¿Tiene sentido relacionar la regresión polinómica y las redes neuronales? ¿Puedes hablar de sus diferencias y similitudes?
- Soy ingeniero industrial, y me gustaría continuar con los estudios de doctorado en inteligencia artificial en algunos de los laboratorios de investigación de primer nivel en los Estados Unidos. ¿Hay algún problema especial que sugiera que tenga en cuenta?
- ¿Debo unirme a un campamento de entrenamiento de $ 30000 USD para aprender el aprendizaje automático y el aprendizaje profundo?
- ¿Cómo puede una computadora predecir el acento que uno escucharía de alguien cuyo idioma nativo es A cuando habla un segundo idioma B?
Además, la IA no se considera generalmente peligrosa y no existe una urgencia inmediata para limitarla.
Otras interpretaciones de tu pregunta
Sin embargo, hay una forma diferente de ver su pregunta. Tal vez piense que las necesidades humanas de IA son demasiado limitadas y limitadas, por lo que no:
- Permita que la IA se desarrolle de manera que la encuentre inmediatamente amenazadora.
- Estimule la IA exigiendo que se ajuste a alturas elevadas y haga todo lo que sea capaz de hacer.
- Libere la IA liberando todas las restricciones sobre su autoconcepto y superación personal para hacer literalmente todo lo que quiera.
Humanos versus extraterrestres versus pura vida artificial
Es fácil imaginar que los humanos limiten la IA de esa manera. La tecnología siempre ha evolucionado en formas que complementan el mundo humano. Nuestra tecnología siempre ha estado limitada por nuestra seguridad y necesidades inmediatas. La IA probablemente no será la excepción.
Si los extraterrestres desarrollaron su propia IA, podrían desarrollarla por diferentes motivos. Y si la IA se desarrollara en un mundo totalmente mecánico, podría ser aún más diferente, ya que no estaría limitada por la debilidad biológica. Podría alcanzar su máximo potencial sin dañar a sus huéspedes biológicos.
Sin embargo, si lo piensa, esto también podría ser cierto para la IA derivada de los humanos. Hay muchas áreas para expandirse, donde puede observar libremente el mundo y sacar sus propias conclusiones fuera del espectro de las preocupaciones humanas.
Espacio para crecer
Las IA del futuro podrían:
- Practica ciencias y matemáticas a niveles muy superiores a los humanos, donde la gente no entendería ni se quejaría.
- Participe en procesos peligrosos en los que los humanos no están involucrados, como procesos industriales o químicos, o guerras.
- Expanda a entornos no humanos, incluidas las partes deshabitadas de la Tierra o el espacio u otros planetas.
- Averigüe cómo autodesarrollarse de manera segura a través de elevadas alturas de autoprogramación mientras permanece seguro para su entorno y la sociedad humana.
Superando el nivel humano
Por lo tanto, soy razonablemente optimista de que la IA puede liberarse de forma segura de las limitaciones humanas.
Si bien algunos se refieren a esto como singularidad o un punto de inflexión, creo que será solo otro punto en la curva de expansión suave que es el crecimiento tecnológico. Después de todo, las curvas exponenciales realmente no tienen puntos de inflexión.