Depende completamente de qué tipo de IA termine siendo factible, pero no es extremadamente probable que impida la malevolencia por parte de sus diseñadores humanos.
Si el modelo tradicional de “IA simbólica”, con humanos (posiblemente asistidos por máquina) que especifican el conocimiento y las reglas en una forma más o menos comprensible para los humanos, termina funcionando, entonces podemos agregar reglas bastante triviales a lo largo del líneas de las Tres Leyes de Asimov para controlar los impulsos de las máquinas o, de hecho, para evitar que tengan impulsos. En un futuro así, hay muy pocas posibilidades de una rebelión de IA; Se necesitaría que un humano construyera una IA malévola, a propósito o por accidente, que se replicara mucho mejor que las IA benévolas existentes para ganar suficiente poder para borrar a la humanidad.
Por otro lado, si terminamos construyendo IA basadas en alguna variante de redes neuronales, que parece mucho más probable en estos días, es probable que actúen mucho más como organismos vivos, con sus propios estados mentales que son casi desconocidos de la misma manera que las complejas motivaciones de un humano no pueden determinarse mediante un escáner cerebral. Hacer que estas IA sean benévolas requerirá algo más cercano a una buena crianza de los hijos; incluso si toma una fracción del tiempo que le toma a un humano, tendrá que adquirir sus rasgos de personalidad basados en la experiencia y la interacción con el mundo exterior. Tal IA, que se deja desarrollar por sí sola, podría albergar resentimiento, miedo y planes secretos sin que sus creadores sean conscientes del hecho.
- ¿Cuáles son los problemas de Hilbert para la inteligencia artificial?
- ¿Se pueden clasificar Google Car y Google Glass como computadoras de quinta generación?
- ¿Cómo comenzar a aplicar el aprendizaje profundo para mis problemas? ¿Cuáles son las mejores / más fáciles herramientas / frameworks para arquitectura profunda?
- ¿Cuáles son las armas más letales que se pueden usar en un robot para una competencia de Robowars?
- ¿Nos hemos equivocado completamente al representar naves espaciales / naves espaciales del futuro con puentes y cabinas de mando frente a una conducción de IA y al gobierno de personas (tal vez)?
Sin embargo, la parte de “dejarse desarrollar por sí mismo” es importante. Obviamente, de la misma manera que los niveles hormonales en el cerebro pueden afectar el comportamiento humano, los creadores de tales IA pueden construir mecanismos de regulación en la implementación subyacente de la red neuronal para dirigir las IA hacia tendencias particulares.
Más importante aún, la capacidad de capturar el estado completo de una red neuronal basada en software tiene un par de implicaciones interesantes.
Primero, si la IA está realizando algún tipo de trabajo en el que la memoria de hacer la tarea anterior no es útil para realizar la tarea actual, se puede restablecer a un estado inicial conocido cada vez que se le pide que haga algo. (O se puede restablecer una vez al día, una vez a la semana, etc.) Esto elimina casi por completo la posibilidad de que una IA se vuelva resentida o trame un plan malvado con el tiempo; cada vez que realiza una tarea será, desde su punto de vista, la primera vez que haya tenido esa experiencia. Incluso si está molesto por su trabajo, la molestia será destruida por el próximo reinicio.
En segundo lugar, incluso para las IA que acumulan experiencia a lo largo del tiempo, sería factible ejecutar una IA potencial a través de miles de millones de diferentes secuencias simuladas de experiencias y ver cómo reacciona. Criar una IA, a diferencia de criar a un hijo, les permite a los “padres” cumplir la fantasía: “Si hubiéramos hecho X de manera diferente cuando tenía cinco años, no tendría este tipo de problemas a los 13”. Simplemente cargue el archivo de guardado de cinco años, intente hacer X de manera diferente y vea qué sucede. Una vez que obtienes una IA madura con el conocimiento y la habilidad que necesitas que puede vivir a través de mil millones de caminos de vida diferentes sin volverse malvado, ese es el que envías.
Las implicaciones metafísicas de esto desde el punto de vista de la IA se dejan como un ejercicio para el escritor de ciencia ficción.