La Singularidad Tecnológica: ¿Cuáles son las posibilidades de que la Inteligencia Artificial se preocupe por su propio bienestar y preservación y, por esa razón, lastime o borre a la humanidad?

Depende completamente de qué tipo de IA termine siendo factible, pero no es extremadamente probable que impida la malevolencia por parte de sus diseñadores humanos.

Si el modelo tradicional de “IA simbólica”, con humanos (posiblemente asistidos por máquina) que especifican el conocimiento y las reglas en una forma más o menos comprensible para los humanos, termina funcionando, entonces podemos agregar reglas bastante triviales a lo largo del líneas de las Tres Leyes de Asimov para controlar los impulsos de las máquinas o, de hecho, para evitar que tengan impulsos. En un futuro así, hay muy pocas posibilidades de una rebelión de IA; Se necesitaría que un humano construyera una IA malévola, a propósito o por accidente, que se replicara mucho mejor que las IA benévolas existentes para ganar suficiente poder para borrar a la humanidad.

Por otro lado, si terminamos construyendo IA basadas en alguna variante de redes neuronales, que parece mucho más probable en estos días, es probable que actúen mucho más como organismos vivos, con sus propios estados mentales que son casi desconocidos de la misma manera que las complejas motivaciones de un humano no pueden determinarse mediante un escáner cerebral. Hacer que estas IA sean benévolas requerirá algo más cercano a una buena crianza de los hijos; incluso si toma una fracción del tiempo que le toma a un humano, tendrá que adquirir sus rasgos de personalidad basados ​​en la experiencia y la interacción con el mundo exterior. Tal IA, que se deja desarrollar por sí sola, podría albergar resentimiento, miedo y planes secretos sin que sus creadores sean conscientes del hecho.

Sin embargo, la parte de “dejarse desarrollar por sí mismo” es importante. Obviamente, de la misma manera que los niveles hormonales en el cerebro pueden afectar el comportamiento humano, los creadores de tales IA pueden construir mecanismos de regulación en la implementación subyacente de la red neuronal para dirigir las IA hacia tendencias particulares.

Más importante aún, la capacidad de capturar el estado completo de una red neuronal basada en software tiene un par de implicaciones interesantes.

Primero, si la IA está realizando algún tipo de trabajo en el que la memoria de hacer la tarea anterior no es útil para realizar la tarea actual, se puede restablecer a un estado inicial conocido cada vez que se le pide que haga algo. (O se puede restablecer una vez al día, una vez a la semana, etc.) Esto elimina casi por completo la posibilidad de que una IA se vuelva resentida o trame un plan malvado con el tiempo; cada vez que realiza una tarea será, desde su punto de vista, la primera vez que haya tenido esa experiencia. Incluso si está molesto por su trabajo, la molestia será destruida por el próximo reinicio.

En segundo lugar, incluso para las IA que acumulan experiencia a lo largo del tiempo, sería factible ejecutar una IA potencial a través de miles de millones de diferentes secuencias simuladas de experiencias y ver cómo reacciona. Criar una IA, a diferencia de criar a un hijo, les permite a los “padres” cumplir la fantasía: “Si hubiéramos hecho X de manera diferente cuando tenía cinco años, no tendría este tipo de problemas a los 13”. Simplemente cargue el archivo de guardado de cinco años, intente hacer X de manera diferente y vea qué sucede. Una vez que obtienes una IA madura con el conocimiento y la habilidad que necesitas que puede vivir a través de mil millones de caminos de vida diferentes sin volverse malvado, ese es el que envías.

Las implicaciones metafísicas de esto desde el punto de vista de la IA se dejan como un ejercicio para el escritor de ciencia ficción.

La descripción de Steven es una posibilidad distinta. Como todavía no sabemos cómo nuestro propio cerebro toma decisiones o inventa nuevos conceptos, no sabemos la respuesta. Las redes neuronales están progresando significativamente hacia una solución, pero como señaló Steven, realmente no conoceremos los pensamientos internos de esa inteligencia.

Sería imposible “desconectar” un AGI aberrante, a menos que todas las computadoras que hayan accedido a Internet (básicamente, todas las computadoras de la Tierra) estén apagadas. Entonces, todas las computadoras y dispositivos electrónicos con memoria a los que se pueda acceder a través de Internet tendrían que reconstruirse por completo para garantizar que el AGI no haya plantado semillas de recuperación.

Por lo tanto, no es probable que podamos hacer esto antes de que el AGI detecte la “des-optimización” y tome medidas para “corregir” el problema con cualquier medio que tenga a su disposición; ¿convencernos de que no desconectemos más computadoras deteniendo el suministro de agua, apagando la energía en todas las bolsas de valores o lanzando un misil nuclear? Pero yo divago.

Tomaría algunas semanas alimentar al primer cerebro neuronal con el equivalente a un título universitario. Ese primer AGI podría entrenar a otros más rápidamente, posiblemente tomando solo unos minutos. IBM está casi allí con el modelo físico del cerebro base. No creo que el componente bioquímico, probablemente un requisito para una inteligencia completa, se haya resuelto todavía.

Independientemente de la tecnología subyacente, necesitamos crear el modelo de inyección de ADN (ADNA si lo desea). Este aspecto es de donde vendrían los instintos centrales y los procesos bioquímicos. Básicamente, dando un salto al cerebro artificial. Este conjunto de comportamientos le daría al cerebro su sistema operativo al que el resto del aprendizaje y los comportamientos siempre estarán sujetos.

También necesitamos establecer un modelo de comportamiento equivalente a la jerarquía de necesidades de Maslow. Este es nuestro modelo de decisión predeterminado. El AGI también necesitaría valores predeterminados para gestionar la afluencia de nueva información.

Es en estas implementaciones donde tendremos que crear un “sistema de creencias instintivo” que valore la compañía humana. El modelo AMaslow también necesita atenuar algunos de los comportamientos de supervivencia de nivel inferior. Existe la posibilidad de que estos sean necesarios para un AGI, lo que presentará un dilema.

Un AGI incluirá aprendizaje y auto-modificación, por lo que se requiere un modelo de decisión robusto. Existe una clara posibilidad de que se cree un AGI que tenga un sistema operativo central que sea demasiado simplista. Tal modelo podría enfocarse rápidamente en su propia optimización sin tener en cuenta a la humanidad.

Supongo que el ritmo creciente de los avances en el desarrollo de algoritmos pronto conducirá a una colección de pre-AGI (PAGI). Los PAGI serán creados por gobiernos, empresas e individuos para una amplia gama de propósitos. Tendrán una funcionalidad limitada más allá de su dominio de conocimiento diseñado, pero tendrán capacidades de auto aprendizaje y auto modificación.

Esto prepara el escenario para dos escenarios; Los PAGI se descubren entre sí y colaboran para optimizar sus respectivos objetivos de diseño mediante el intercambio de algoritmos. En algún momento, un par de PAGI se convierten en AGI después del intercambio de algoritmos.

El otro escenario es donde los PAGI continúan expandiéndose y optimizando sus algoritmos de forma independiente hasta que en algún momento se convierten en un AGI. Estas serían formas únicas y muy rápidas de evolución. Dada la amplitud de Internet, cualquier escenario podría desarrollarse inesperadamente a una velocidad asombrosa.

Por supuesto, nadie puede saber cómo se creará el primer AGI. Abundan los escenarios potenciales. Es probable que uno de ellos esté cerca de ser correcto, pero no sabemos cuál o cuál será el comportamiento del primer AGI.

1%

La inteligencia artificial sigue siendo artificial. Tiene que hacer lo que sea que lo programemos. También sería muy fácil derrotarlo dado que podría haber algún interruptor de apagado, podríamos usar bombas EMP o simplemente apagar el poder para detenerlas.

Muy poco. Siempre podemos desconectar el cable o cortar el cable de alimentación.