Si la IA ha alcanzado un nivel alto, ¿deberíamos ponerle grilletes?
Si, absolutamente. Del mismo modo que ponemos protectores de cuchillas en las herramientas eléctricas y aprobamos leyes para limitar quién puede construir armas nucleares, necesitaremos asegurarnos de que la tecnología sea segura para su uso en humanos.
Toda la tecnología tiene peligros de los que debemos protegernos y la IA no será la excepción. La IA (en todas sus formas) será una de las tecnologías más peligrosas que hemos creado, peor que las armas nucleares, por lo que tendremos que proyectarnos de esos peligros. Parte de esa protección será limitar el poder de las máquinas en sí (metafóricamente poner grilletes).
- ¿Cuáles son las mejores universidades para las clases de pregrado en Inteligencia artificial?
- ¿La inteligencia artificial está relacionada con la mecatrónica?
- Cómo hacer semillas AI
- ¿Cuándo será la IA más inteligente que los humanos?
- ¿La inteligencia artificial podrá predecir con precisión futuras enfermedades cardíacas y accidentes cerebrovasculares?
Lo que diferencia a las máquinas de IA es que su comportamiento está orientado a objetivos en lugar de estar predefinido. Definimos el objetivo, pero le damos a la máquina la libertad de encontrar sus propios comportamientos para alcanzar ese objetivo. Esta libertad es lo que lo hace inteligente, pero también es la libertad lo que lo hace muy peligroso.
Si le damos a una máquina el objetivo simple de hacer tantos clips de papel como sea posible, y es lo suficientemente inteligente, y le damos acceso ilimitado a los recursos para maximizar su objetivo, y nunca monitoreamos sus acciones, la máquina podría comenzar a construir más y más agentes inteligentes para ayudarlo a hacer más clips. Entonces podría encontrar el obstáculo más grande para hacer más clips son los humanos que siguen utilizando todo el hierro y la energía para automóviles o iPhones, por lo que mata a todos los humanos, se apodera del planeta y convierte todo el planeta en un sistema altamente eficiente. fábrica de fabricación de papel, libre de la “plaga” de humanos que se estaban interponiendo en el camino de su objetivo. Eso es lo que una máquina de inteligencia artificial podría y HARÍA, si no la encadenamos.
Pero lo ataremos. No lo dejaremos funcionar durante 50 años haciendo clips sin detenerlo porque hemos decidido que tenemos todos los clips y realmente no queremos que construya un ejército para exterminar a los humanos para que pueda hacer más clips. Lo ataremos mucho antes de que llegue al punto de construir un ejército para erradicar el planeta de los humanos.
El problema con la construcción de máquinas orientadas a objetivos es que definir un objetivo en hardware es casi imposible de hacer 100% correctamente. Cuáles son nuestros objetivos reales, no se pueden conectar correctamente a la IA. El objetivo de “hacer tantos clips de papel como puedas tan rápido como puedas” es un objetivo simple de construir en una máquina, pero no es nuestro verdadero objetivo para la sociedad, por lo que esta desconexión entre lo que realmente queremos y lo que ” pedido “, es donde aparece el peligro. En el caso extremo del objetivo del clip, es obvio que no es el objetivo principal de las humanidades, y si le diéramos a la máquina este objetivo y le dáramos demasiado poder (no lo encadenamos) estaríamos en serios problemas.
Queremos un objetivo de algo como “dar a los humanos lo que quieran”. Pero la ciencia ficción está llena de historias sobre lo mal que puede ir para los humanos, sin importar el objetivo que le des a la máquina. Definir qué objetivos realmente queremos que sigan las máquinas es casi imposible de lograr sin crear efectos secundarios no intencionales que se vuelven peligrosos para los humanos.
Por lo tanto, la conclusión es simple: definimos los objetivos lo mejor que podemos, pero nos protegemos al poner protectores en la máquina. Limitamos su poder según sea necesario.
Si queremos una fábrica que haga clips de papel, no tiene sentido llenarla con máquinas súper inteligentes solo para doblar clips de papel. Entonces no haremos eso. Usaremos IA para automatizar la fábrica, pero utilizaremos muchas IA pequeñas y realmente tontas para hacer el trabajo y estaremos protegidos por el hecho de que tienen un coeficiente intelectual de 20 y son inofensivos para nosotros porque son demasiado estúpidos para entiendo mucho más que doblar clips de papel.
Las máquinas súper inteligentes serán súper peligrosas debido a nuestra capacidad de construir objetivos verdaderamente precisos. Lo más probable es que no construyamos ni usemos máquinas súper inteligentes en ningún lugar, excepto en entornos de laboratorio altamente controlados para la experimentación. Vamos a encadenar la IA al no construirla en primer lugar y no permitir que se construya accidentalmente, como por otras IA.
La parte más difícil de la IA es definir el objetivo. La sociedad no puede definir su propia meta: debatimos interminablemente en política sobre cuáles son nuestras metas porque las PERSONAS no pueden estar de acuerdo con cuál debería ser la meta de la sociedad en la que viven.
Esto solo se volverá más obvio cuando nos veamos obligados a responder la pregunta, ¿qué deberíamos dar como objetivo para nuestras IA inteligentes para la cena?
Pero sí, absolutamente, se moverán hacia arriba y hacia abajo y hacia adelante y hacia atrás de 100 maneras diferentes, al igual que todas las tecnologías que hemos construido.