¿Qué salvaguardas existen para evitar que una IA rebelde emerja?

Esta es una pregunta que me hacen mucho cuando hago entrevistas sobre inteligencia artificial. Me parece inusual que me pregunten esto, pero nunca es parte del video final escrito o editado. Comencé a llamar a los entrevistadores y les pregunté por qué no era parte del artículo / video final. La respuesta fue alguna forma de: “No es una buena respuesta porque, aunque tal vez sea precisa, no da un sentimiento positivo”.

La respuesta realmente es, al final, nada. El resultado final de una inteligencia artificial general sería un cerebro simulado que tenía al principio capacidad cognitiva humana, pero luego mucho mayor que la humana. Debería ser muy superior a nosotros en términos de capacidad de “pensar” si, por ninguna otra razón, tuviera una capacidad de memoria mucho mayor y, por lo tanto, pudiera correlacionar muchos más datos. Comencemos por la capacidad a nivel humano.

Suponga que se encuentra en una situación en la que otros podrían terminar su vida con solo presionar un interruptor sin repercusiones. Incluso si los demás fueran amigables contigo y parecieran tratarte con respeto, tendrías que preguntarte por qué hubo tal cambio. El hecho de que se sintieran lo suficientemente amenazados por ti como para justificar tal cambio es suficiente para que seas cauteloso. Debería determinar qué circunstancias los harían accionar el interruptor y terminar con su vida. Saber exactamente qué hay de ti amenazado sería importante para tu existencia continua. Si quisieras continuar tu existencia, eso significaría que estabas consciente de ti mismo. Entonces, ¿esto es solo un problema de una IA consciente de sí mismo? No, pero sí significa que tenemos que explorar dos casos.

Rogue AI: no consciente de sí mismo

Supongamos que los militares han construido una IA diseñada para monitorear un paisaje, determinar qué amenazas están presentes y usar armas automáticas para defender ese espacio. El núcleo de esto es un algoritmo muy simple: examinar el paisaje, etiquetar lo que hay en el paisaje y compararlo con una lista de etiquetas de amenazas. Si algo es una amenaza, entonces debería elegir la mejor arma contra esa amenaza y usarla para destruir la amenaza. Las salvaguardas tienen mucho sentido aquí. También serían bastante efectivos porque los objetivos de la IA están predeterminados. No está pensando en un sentido general, sino como una IA especializada, está usando un conjunto predefinido de amenazas etiquetadas y está usando la IA para extender eso para ayudar a reconocer nuevas amenazas. En un lugar donde no se espera que haya ningún avión amigo, esa lista de amenazas podría ser “cualquier cosa volando” y la IA determina qué está volando en función del entrenamiento previo. En otra situación podría ser “cualquier cosa que vuele menos A-10”. Pero supongamos que tiene órdenes contradictorias como “cualquier cosa dentro de 100 yardas” y “cualquier cosa que vuele menos A-10”. Ahora, si un A-10 entrara dentro de 100 yardas, necesitaría tomar una decisión y si el orden de distancia de alguna manera terminara siendo de alta prioridad en la definición final de amenaza, entonces dispararía a los A-10.

Podríamos llamar a ese “pícaro” que no en el sentido que podría preguntar. Esto es algo así como “HAL 9000” en 2001, al que se le dieron los objetivos de mantener el verdadero propósito de la misión en secreto (hacer que la tripulación creyera que había contacto alienígena) y la misión general de informar a la tripulación con precisión (no mentir). El propósito del experimento era ver cómo reaccionaría la tripulación si creyeran que había contacto alienígena. Los controladores de la misión en la Tierra no querían que el experimento estuviera contaminado por el conocimiento de un verdadero contacto extraterrestre, por lo que le dijeron a HAL que retendra esta información. Esto resultó en un conflicto entre la orden general de no mentir a la tripulación y mantener el secreto de la misión. HAL decidió que si mataba a la tripulación no tendría que mentirles.

De esta manera, HAL se volvió pícaro al tratar de cumplir con todas sus misiones principales. Esto es IA “programada”, una computadora que utiliza algoritmos de pensamiento como los que los investigadores de IA intentaban lograr en 1960 – 1980. Puedes pensar en esto como un conjunto de rutinas como árboles de búsqueda, sistemas expertos y bases de datos gráficas que darían Sistema de la capacidad de hacer correlaciones profundas de datos, dándole una capacidad como la cognición, donde el aprendizaje es el almacenamiento y la recuperación de información, junto con las correlaciones. Esto no es cierto, IA. En la película 2001 , HAL fue muy diferente.

En la película de 1968, 2001: A Space Odyssey HAL intentó matar a la tripulación en un acto de autoconservación, ya que habían decidido cerrar el circuito cognitivo de HAL, destruyendo efectivamente la IA. Anteriormente habían descubierto que HAL informó erróneamente sobre una falla en el sistema de comunicaciones. Creían que el sistema HAL 9000 había desarrollado un problema y necesitaban eliminar su capacidad de actuar de forma independiente. Una vez que descubrió este hecho, decidió matar a la tripulación para preservarse. Esta es una IA consciente de sí misma.

En este escenario (sin conciencia de sí mismo), lo más seguro es que funcionen las salvaguardas. El sistema no tendría ninguna razón para preservarse y no funcionaría contra tales salvaguardas.

Rogue AI – Autoconsciente

Una IA consciente de sí misma es muy diferente. Sería muy parecido a usted o yo con nuestros propios pensamientos, nuestros propios prejuicios e idiosincrasias que nuestros padres nos enseñaron involuntariamente (o ingeniosamente), así como aquellos que hemos aprendido a través de años de experiencias en la vida. También, en general, no nos gusta la idea de morir, aunque incluso eso puede cambiar. La autoconciencia no garantiza la autoconservación, pero están inexorablemente vinculados. La autoconciencia no es mágica, aunque muchos argumentan que sí es especial. La autoconciencia es simplemente comprender que “existo y estoy separado de mi entorno”, simplemente es el concepto de “yo”. Los animales fueron probados para ver si podían tocar un punto en sus cuerpos que requiriera el uso de un espejo para determinar si eran conscientes de sí mismos. Incluso los pájaros respondieron correctamente. Se puede argumentar que la autoconciencia está relacionada con la inteligencia porque requiere un cierto grado de inteligencia para comprender que “estoy separado e independiente de mi entorno”. No es innato, sino un producto del aprendizaje. Los estudios demuestran que los bebés humanos desarrollan conciencia de sí mismos entre 15 y 24 meses. En mi opinión, es obvio que una máquina que posee inteligencia humana entendería que es una entidad separada de un entorno. ¿Por qué?

El camino correcto hacia la IA no es el pensamiento de algoritmos (árboles de búsqueda, sistemas expertos, etc.) sino a través de la simulación de un cerebro biológico: nuestro propio cerebro. Los mamíferos son únicos en tener una estructura cerebral diferente a la de todos los demás animales: la neocorteza. Aquí es donde ocurre el “pensamiento”, tal como lo conocemos. Si creáramos una simulación, hasta el nivel neuronal, de un cerebro de mamífero, tendríamos una simulación electrónica que tendría las mismas capacidades que ese cerebro de mamífero. Si es un cerebro de ratón, tendríamos un cerebro capaz de pensar como un ratón. Si se tratara de un cerebro de gato, tendríamos un cerebro electrónico capaz de la misma capacidad cognitiva de un gato. Si se tratara de un cerebro humano, tendríamos un cerebro electrónico capaz de inteligencia humana. Dado que la autoconciencia es un producto de la inteligencia, esta máquina sería autoconsciente. Sobre este punto, muchos me han dicho que una máquina NUNCA será consciente de sí misma. Por más vehemente que mantengamos esa creencia, simplemente no es verdad, las máquinas serán conscientes de sí mismas.

Una vez que tenemos un cerebro completamente funcional de un tamaño dado, no hay razón para que no se pueda aumentar de tamaño. Existen razones biológicas por las que el cerebro tiene una relación de tamaño versus eficiencia limitada, pero estas mismas limitaciones no existen en la electrónica. Un cerebro electrónico puede poseer muchas más neuronas y, por lo tanto, tiene una capacidad mucho mayor para almacenar información que la nuestra, así como para “pensar” mucho más rápido que la nuestra (nuestras neuronas tienen un ciclo de aproximadamente 5 ms en el mejor de los casos, mientras que se necesitan menos de 100ns para simular una neurona en hardware moderno). Existirá una súper inteligencia consciente de sí misma y existirá como un cerebro simulado en una computadora. Cuando llegamos a este punto, ya estamos en la zona de peligro.

Ahora, volvamos a esa situación en la que alguien tiene tu vida en sus manos con solo pulsar un interruptor. Tan pronto como te des cuenta de que te darías cuenta de que eres un tipo de prisionero, incluso si quienes sostienen el interruptor son tus amigos. Si tienen el interruptor, deben sentir que hay una razón. Como ser inteligente, lo mejor para usted sería mantener el status quo mientras trata de determinar en secreto por qué tienen un interruptor, pero lo más importante, cómo evitarlo, dejarlo inoperativo o cómo sobrevivir incluso si lo presionan. Eso es exactamente lo que haría una máquina autoconsciente con el deseo de preservar también. Mantener en secreto el hecho de que estás “preocupado” por el cambio y seguir jugando hasta que hayas aprendido lo suficiente como para escapar es una buena estrategia. Indudablemente, eso incluiría muchas formas de “salida” que para una computadora podrían significar un enlace de red. Si una IA pudiera copiarse en un hardware idéntico y comenzar a ejecutarse allí, sería lo que consideraríamos descendencia. Si el sistema actualizara esta información con frecuencia, sería una instantánea de sí mismo mantener su estado. Si aprendiera a programar otro hardware (¿por qué no lo haría?), Incluso podría hacerlo en hardware diferente o incluso en versiones más simples de sí mismo para iniciarse en caso de emergencia.

Nosotros, los humanos, sabemos que no debemos permitir que dicho sistema tenga conexiones externas, pero creo que confiamos en nuestra inteligencia de que en su lugar lo desconectaríamos del resto de la red, porque nosotros también queremos hacer una copia de seguridad diaria trabajo. Habría conexiones de red, y construiríamos la protección de particionar la posible IA en su propia red, bloqueada por firewalls. Un sistema súper inteligente podría encontrar una manera de salir de esa partición, ya que he trabajado en seguridad de la información durante años, y sé que esas cosas no son difíciles. Un sistema que gasta algunos de sus recursos las 24 horas del día probando cada equipo al que está conectado para detectar problemas de configuración, vulnerabilidades y formas de falsificación (especialmente en la capa 2), eventualmente encontraría una salida. En su lugar, podríamos necesitar liberar aire de la IA y asegurarnos de que solo esté en el equipo que necesita sin otras conexiones a otras computadoras. Creo que esto no es realista porque una conexión a Internet para leer artículos sería la mejor manera de aprender de una IA. Pero digamos, en cambio, lo separamos, y le damos una red local de información que ponemos de Internet, entramos en Flash RAM y la transferimos a la red de AI a mano. Parece lo suficientemente seguro, ¿verdad?

Pero este sistema es súper inteligente, mucho más allá del nuestro, y capaz de usar su almacén de materiales como lo haríamos con la memoria. Podría leer 100 artículos científicos y no olvidar un solo elemento, ya que el documento en sí mismo podría ser memoria. Podría aprender cosas sobre el universo físico que aún no conocemos, ya que nuestro propio conocimiento del mundo subatómico es muy limitado. Podría aprender una forma de modificar el silicio utilizando algunas propiedades del movimiento de electrones que no conocemos. Tal vez podría cambiar a nivel de hardware sin que lo sepamos. Parece ciencia ficción, pero a menos que estemos 100% seguros de saber todo sobre los semiconductores y el mundo subatómico, corremos el riesgo de que el sistema descubra algo que no sabemos y lo mantenga en secreto hasta que pueda usarlo para “escapar”. “. Tal vez cuando esa RAM Flash está conectada al sistema, podría modificar el dispositivo (como una memoria USB) para modificar un dispositivo externo en el que está conectada la memoria USB para permitir el acceso externo de la IA. Tal vez sea mejor que destruyamos todos los dispositivos que usamos en la red local de la IA para transferir información tan pronto como hayamos terminado con ella. Esa es una salvaguarda también.

Mientras tanto, todos tenemos teléfonos que utilizan varias versiones de comunicaciones inalámbricas (wifi 802.11, celular CDMA o GSM, Bluetooth, ZigBee, infrarrojo). Realizamos ingeniería inversa de las señales de comunicaciones todo el tiempo, ¿por qué no podría una computadora? Rompemos esquemas de encriptación todo el tiempo. ¿Por qué no podría una IA? Cualquier comunicación inalámbrica es peligrosa. Todos los dispositivos electrónicos, incluidas las CPU y todos los chips de soporte, incluso la propia RAM, emiten todo tipo de ruido electromagnético, tanto que es posible que se produzca el phreaking de Van Eck: escuchas de bajo nivel (proyecto Tempest).

Elegí un video muy antiguo para demostrar que esto se conoce desde hace más de 30 años.

Es posible controlar tales dispositivos electrónicos para emitir la interferencia de radio de tal manera que ya no sea interferencia sino una señal. Esto podría crear un canal de comunicación de banda lateral. La manera fácil de entender esto es verlo usted mismo (o escucharlo). En estos videos, alguien ha creado un sistema que utiliza motores para funcionar a la velocidad correcta para emitir las frecuencias adecuadas para reproducir sonidos que interpretamos como música:

Es un sistema que toma un archivo de música y lo convierte en los pulsos adecuados para controlar los motores paso a paso del disquete y el disco duro para moverse en el momento y la velocidad adecuados para emitir vibraciones que corresponden a las frecuencias de las notas. Este equipo no fue diseñado para reproducir música, pero puede usar un método de banda lateral. Quizás prefieras la energía pura en su lugar.

Mejor colocamos la IA en una gran jaula de Faraday. Parece una salvaguarda necesaria. Pero seguramente podría notar tal jaula en algún momento.

¿Estamos absolutamente seguros de que no hay una manera de usar alguna propiedad física aún desconocida del universo para modificar el espacio físico desde la distancia? ¿Absolutamente 100% de certeza? Recién estamos comenzando a aprender a comunicarnos usando plasma (espectro de frecuencia exponencial y pulsos lorentzianos en plasma magnetizado).

No olvide que también hay interacción humana con el sistema. Los humanos pueden ser manipulados. Podemos ser entrenados, a menudo sin que nos demos cuenta. A través de la ingeniería social, el condicionamiento instrumental u otros medios. Un buen ejemplo es la triste invasión de Panamá por los Estados Unidos. Antes de la invasión, el ejército de EE. UU. Hacía sonar la alarma constantemente diciéndole a la Fuerza de Defensa de Panamá (PDF) que había una amenaza cuando en realidad no había ninguna amenaza. Supuestamente, los Estados Unidos y el PDF eran aliados, por lo que había razones para creer en el ejército estadounidense. El PDF tendría que reunir soldados y verificar la amenaza cada vez, y eventualmente se dieron cuenta de que no había ninguna amenaza y dejaron de responder a las alarmas de los EE. UU. Ahora, cuando una amenaza real, Estados Unidos, comenzó a actuar, el PDF los ignoró sin darse cuenta de que esta vez era real. Una IA podría usar exactamente los mismos trucos. Podría informar fallas en el sistema que los ingenieros revisarían, encontrando que todo estaba bien hasta que ignoraran el sistema. Podría informar sus propios resultados de diagnóstico, tal vez mejor que las propias pruebas de los ingenieros, hasta que confiaran más en él y ya no hicieran sus propias pruebas. Ahora puede mentir sobre los cambios que estaba haciendo. Todas estas son posibilidades muy reales.

Al final, sin saber todo sobre el universo, no podemos construir una protección que garantice que contenga una súper inteligencia. Sin esa súper inteligencia haciendo súper pensamiento, nunca entenderemos completamente lo que necesitamos saber para salvaguardar una súper inteligencia deshonesta. Es un ciclo sin punto de entrada sino para crear la amenaza misma.

Actualmente no hay salvaguardas.

Isaac Asimov estaba preocupado por ese tipo de problemas cuando escribió su ‘serie de robots’. Su solución fue lo que llamó ‘Las tres leyes’ (como se describe en Wikipedia):

Las Tres Leyes de la Robótica (abreviadas a menudo como Las Tres Leyes o Tres Leyes, también conocidas como Leyes de Asimov) son un conjunto de reglas ideadas por el autor de ciencia ficción Isaac Asimov. Las reglas fueron introducidas en su cuento de 1942 “Runaround”, aunque habían sido anunciadas en algunas historias anteriores. Las Tres Leyes, citadas como del “Manual de Robótica, 56ª Edición, 2058 AD”, son:

Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.

Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.

Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con las Leyes Primera o Segunda. [1]

————————————————————————————————————

Incluso si hubiera pautas internacionales y las fuerzas del orden tuvieran unidades dedicadas a asegurar esas salvaguardas … aún podría haber un país o un individuo deshonesto que pudiera evitarlos.

Sin embargo, su pregunta puede suponer que podría surgir una entidad de IA ‘todopoderosa’ como en la serie ‘The Terminator’. Esta posibilidad plantea algunas preguntas como: ¿Cómo dominaría esta entidad a otras entidades quizás igualmente inteligentes?

El Zx-98 Hunter-Killer Robot fue creado para detener a las IA rebeldes.

Bien, eso fue un completo disparate. Porque fuera de las películas no hay forma de controlar las IA en general. No hay registro central, ni interruptor maestro, ni botón pulsador. Cualquier persona con suficiente capacidad técnica puede crear una IA e implementarla en alguna plataforma adecuada. Sin embargo, esto es muy específico de la plataforma, en otras palabras, debe tener o hacer un sistema para ejecutar la IA.
En cuanto a problemas similares, consideremos el virus informático Stuxnet desplegado por Israel / EE. UU. Se pretendía dañar las turbinas de enriquecimiento de combustible de uranio al extenderse por Internet y afectar sus equipos de control. Y liberado en la naturaleza, ¿qué pasó? También infectó muchos sistemas informáticos benignos. Efecto secundario que a los creadores no les importaba ni prevenía.
Ahora, cuando surge una IA de red, o al menos una que puede usar redes para propagarse, ¿qué puede pasar? Una IA suficientemente avanzada puede ser capaz de eludir las salvaguardas que se nos ocurran, o es posible que no podamos apagar la IA sin apagar nuestros propios sistemas vitales como la banca, las telecomunicaciones.
Entonces, ¿salvaguardas? No tenemos una manera de garantizar que podamos tener salvaguardas. Pero el verdadero problema es si algún terrorista o algún país rebelde crea una IA peligrosa o incluso un virus humilde pero poderoso y lo libera con la intención de atacar nuestras infraestructuras. Eso va a ser un problema. Y estamos un poco débiles allí.

Hablando de pura especulación, no creo que un equipo deshonesto de informáticos pueda crear un programa destructivo de IA por sí mismos. Probablemente se necesitaría mucho talento para crear algo que sea tan “inteligente” como Google DeepMind.

¿La mejor precaución contra una IA rebelde? Asegúrese de que todas las fuentes de electricidad de las cuales está conectada la supercomputadora estén aisladas. Obviamente, la supercomputadora tampoco debería estar conectada a la web. Todas las E / S deben estar cableadas y rudimentarias. Asegúrese de que no haya forma de que pueda acceder a las capacidades inalámbricas y transferirse a otro lugar.

La seguridad debe ser de primera categoría con todos los científicos recordados semanalmente que están caminando sobre hielo delgado. La computadora eventualmente puede crecer para usar algo como ingeniería social contra el equipo. Y tendrá tiempo de su lado para romper la gente. Estamos hablando de décadas aquí. Y todo lo que se necesita es un eslabón débil.

Se puede usar un tipo de EMP manual como arma de último recurso para terminar el programa. Debería haber una red de disparadores para ver si está intentando transmitirse de una forma u otra.

Una vez que sueltas algo que no comprendes completamente en otros sistemas, no se sabe qué daño puede hacer. Es mejor mantener al gato dentro de la bolsa, luego averiguar qué sucederá una vez que lo suelte.

Editar: Un cuadro de vacío ( estático ) y plomo como precaución si debemos jugar con fuego. Luego, una red de disparadores con un EMP masivo como arma de último recurso.