¿Cómo podríamos estar seguros de que una IA evolucionaría para satisfacer el trabajo ‘exacto’ para el que fue concebida, cuando no deberíamos postular que un software está libre de errores?

Hay dos concepciones de IA que estás combinando aquí.

1. IA específica: programación muy inteligente pero solo buena en una cosa. Como una computadora que juega muy bien al ajedrez, pero no podría decirte cómo lavar un plato si su existencia dependiera de ello.

2. AI general: la idea detrás de este es que no está diseñado para un trabajo específico, es solo un algoritmo de aprendizaje que puede emplear en cualquier lugar.

Si realmente quieres que la IA solo haga un trabajo, la solución es simple: solo haz IA específicas.

Si está preguntando cómo vincular una IA general con restricciones para que no pueda hacer cosas que no desea que haga, entonces ha formulado una pregunta muy profunda, pero tal vez la respuesta corta es que limita lo que puede ver. Si muestra un algoritmo de reconocimiento de patrones de un solo tipo de datos, aprenderá solo sobre esos datos, haciéndolos específicos. Esto es similar a los humanos: lleva tiempo aprender cosas, por lo que a menudo nos especializamos en una industria o carrera, nos saca de eso y nos lleva tiempo aprender a hacer otras cosas. Es lo mismo con la IA general: una IA general que ha visto datos de tráfico durante toda su vida tendrá que comenzar desde cero básicamente si intenta enseñarle a leer.

Mientras controlemos lo que vemos, controlaremos todo el mundo.

porque el software en este caso es el método de aprendizaje. El objetivo no es realmente propenso a los mismos problemas que los algoritmos de aprendizaje.

En otras palabras, puede aprender mal, pero su objetivo es claro.