Parece prematuro preocuparse por limitar las IA, cuando todavía no podemos hacer que Siri entienda una consulta que usa un pronombre que se refiere a la consulta anterior.
Pero en algún momento tendremos una IA que podría hacer cosas peligrosas. Y sería sensato establecer protocolos y protecciones antes de comenzar a encontrar los problemas.
El problema es que todas las medidas propuestas para que una IA sea segura no son particularmente convincentes.
- ¿Por qué una trampa interrumpe tanto el borde como el nivel activado?
- ¿Cuáles son las nuevas tecnologías en informática para sumergirse?
- ¿Quién es el Einstein de la informática?
- ¿Cómo resumiría las ideas centrales del aprendizaje automático y el aprendizaje profundo?
- ¿Puede un modelo de aprendizaje automático utilizar múltiples algoritmos como la regresión logística, las redes neuronales y los árboles de decisión al mismo tiempo?
Cualquiera que sea la medida de salvaguardia propuesta, existe una solución alternativa.
Nuestro objetivo debe ser obtener la utilidad, pero sin crear el riesgo.
Mi sugerencia sería que se puedan desarrollar aspectos (sistemas) que sean independientemente útiles. Sistemas visuales Sistemas de lenguaje natural. Teoría de sistemas de construcción. A propósito elementos hamstrung que proporcionan utilidad.
Pero nunca se debe permitir que estos componentes se conecten. Y debería ser un requisito que estén diseñados como incompatibles.
Pero vigilar esto será difícil.