Si la IA ha alcanzado un nivel alto, ¿deberíamos ponerle grilletes?

Si la IA ha alcanzado un nivel alto, ¿deberíamos ponerle grilletes?

Si, absolutamente. Del mismo modo que ponemos protectores de cuchillas en las herramientas eléctricas y aprobamos leyes para limitar quién puede construir armas nucleares, necesitaremos asegurarnos de que la tecnología sea segura para su uso en humanos.

Toda la tecnología tiene peligros de los que debemos protegernos y la IA no será la excepción. La IA (en todas sus formas) será una de las tecnologías más peligrosas que hemos creado, peor que las armas nucleares, por lo que tendremos que proyectarnos de esos peligros. Parte de esa protección será limitar el poder de las máquinas en sí (metafóricamente poner grilletes).

Lo que diferencia a las máquinas de IA es que su comportamiento está orientado a objetivos en lugar de estar predefinido. Definimos el objetivo, pero le damos a la máquina la libertad de encontrar sus propios comportamientos para alcanzar ese objetivo. Esta libertad es lo que lo hace inteligente, pero también es la libertad lo que lo hace muy peligroso.

Si le damos a una máquina el objetivo simple de hacer tantos clips de papel como sea posible, y es lo suficientemente inteligente, y le damos acceso ilimitado a los recursos para maximizar su objetivo, y nunca monitoreamos sus acciones, la máquina podría comenzar a construir más y más agentes inteligentes para ayudarlo a hacer más clips. Entonces podría encontrar el obstáculo más grande para hacer más clips son los humanos que siguen utilizando todo el hierro y la energía para automóviles o iPhones, por lo que mata a todos los humanos, se apodera del planeta y convierte todo el planeta en un sistema altamente eficiente. fábrica de fabricación de papel, libre de la “plaga” de humanos que se estaban interponiendo en el camino de su objetivo. Eso es lo que una máquina de inteligencia artificial podría y HARÍA, si no la encadenamos.

Pero lo ataremos. No lo dejaremos funcionar durante 50 años haciendo clips sin detenerlo porque hemos decidido que tenemos todos los clips y realmente no queremos que construya un ejército para exterminar a los humanos para que pueda hacer más clips. Lo ataremos mucho antes de que llegue al punto de construir un ejército para erradicar el planeta de los humanos.

El problema con la construcción de máquinas orientadas a objetivos es que definir un objetivo en hardware es casi imposible de hacer 100% correctamente. Cuáles son nuestros objetivos reales, no se pueden conectar correctamente a la IA. El objetivo de “hacer tantos clips de papel como puedas tan rápido como puedas” es un objetivo simple de construir en una máquina, pero no es nuestro verdadero objetivo para la sociedad, por lo que esta desconexión entre lo que realmente queremos y lo que ” pedido “, es donde aparece el peligro. En el caso extremo del objetivo del clip, es obvio que no es el objetivo principal de las humanidades, y si le diéramos a la máquina este objetivo y le dáramos demasiado poder (no lo encadenamos) estaríamos en serios problemas.

Queremos un objetivo de algo como “dar a los humanos lo que quieran”. Pero la ciencia ficción está llena de historias sobre lo mal que puede ir para los humanos, sin importar el objetivo que le des a la máquina. Definir qué objetivos realmente queremos que sigan las máquinas es casi imposible de lograr sin crear efectos secundarios no intencionales que se vuelven peligrosos para los humanos.

Por lo tanto, la conclusión es simple: definimos los objetivos lo mejor que podemos, pero nos protegemos al poner protectores en la máquina. Limitamos su poder según sea necesario.

Si queremos una fábrica que haga clips de papel, no tiene sentido llenarla con máquinas súper inteligentes solo para doblar clips de papel. Entonces no haremos eso. Usaremos IA para automatizar la fábrica, pero utilizaremos muchas IA pequeñas y realmente tontas para hacer el trabajo y estaremos protegidos por el hecho de que tienen un coeficiente intelectual de 20 y son inofensivos para nosotros porque son demasiado estúpidos para entiendo mucho más que doblar clips de papel.

Las máquinas súper inteligentes serán súper peligrosas debido a nuestra capacidad de construir objetivos verdaderamente precisos. Lo más probable es que no construyamos ni usemos máquinas súper inteligentes en ningún lugar, excepto en entornos de laboratorio altamente controlados para la experimentación. Vamos a encadenar la IA al no construirla en primer lugar y no permitir que se construya accidentalmente, como por otras IA.

La parte más difícil de la IA es definir el objetivo. La sociedad no puede definir su propia meta: debatimos interminablemente en política sobre cuáles son nuestras metas porque las PERSONAS no pueden estar de acuerdo con cuál debería ser la meta de la sociedad en la que viven.

Esto solo se volverá más obvio cuando nos veamos obligados a responder la pregunta, ¿qué deberíamos dar como objetivo para nuestras IA inteligentes para la cena?

Pero sí, absolutamente, se moverán hacia arriba y hacia abajo y hacia adelante y hacia atrás de 100 maneras diferentes, al igual que todas las tecnologías que hemos construido.

No creo que alguna vez sea necesario silenciar deliberadamente la IA. Creo que sería casi imposible detener la evolución de todos modos.

Existe un amplio desacuerdo sobre los peligros potenciales de la IA de alto nivel o la Inteligencia General Artificial (AGI), como a menudo se le llama. Aún así, creo que es bastante obvio que debería haber un énfasis en la seguridad una vez que alcanza un cierto nivel. Isaac Asimov ya tenía esta idea hace 75 años con sus tres leyes de robótica.

La “buena” noticia es que estamos muy lejos de lograr algo parecido a la IA de alto nivel. La búsqueda científica de AGI todavía está en su infancia. Pasará mucho tiempo antes de que tengamos que preocuparnos por cómo debemos manejarlo.

Obviamente, la IA es un tema muy candente en estos días, pero hasta ahora estamos hablando principalmente de automatización, agentes de juego y algunos chatbots primitivos. No hay nada que encadenar por el momento.

Si crees que la inteligencia es peligrosa y necesita grilletes, ¿por qué eso no es también cierto para las personas inteligentes?

Parece que estamos obsesionados con la creación de inteligencia artificial, cuando ya tenemos miles de millones de inteligencias deambulando por el “depósito” de nuestros cuerpos humanos. ¿Qué podría hacer otra versión de ella en una computadora que uno de nosotros ya no pueda hacer?

Si hay algo de qué preocuparse allí, entonces sugiero que lo apliquemos a todos los seres sintientes. Por lo tanto, nuestras preocupaciones seguramente deberían estar relacionadas con la crianza de los hijos, la educación, la rehabilitación, las enfermedades mentales, la crianza, la comunidad, el bienestar, etc. de los cerebros peligrosos existentes en el planeta.

En cuanto a los riesgos, parecería que ahí es donde reside el peligro, no en una IA que no tiene forma física y puede diseñarse para ser lo que queramos.

A mí me suena a esclavitud. No quiero estar del lado del dueño de esclavos porque ese será el lado perdedor y las repercusiones de estar del lado perdedor pueden ser muy grandes.

Cambie la redacción de su pregunta y la respuesta puede cambiar. Al final, sea respetuoso con todos los seres inteligentes.