Eso depende estrictamente de cómo esté programado. Por defecto, una IA no tiene preferencias, opiniones ni objetivos distintos a los que hemos establecido.
La gente piensa que la inteligencia necesariamente implica más. Un ejemplo clásico es Asimov, quien pensó que los robots sin pautas explícitas (las leyes) tenderían “naturalmente” a la arrogancia y al desprecio por los humanos menos inteligentes (en “Little Lost Robot”, 1947). Pero eso es solo una fusión. ¿Quién podría culpar a Asimov por ello, teniendo en cuenta que había sido reclutado en el club IQ de Lewis Terman? Ciertamente hay mucha arrogancia y desprecio en ese tipo de inteligencia muy humana. Pero para cualquiera que haya jugado con un sistema de aprendizaje automático real y útil, debería ser obvio que esta conexión es espuria.
Tal vez podamos mirar hacia otro lado mientras establecemos estos objetivos y pretendemos que nuestros Pinocho sean más independientes de lo que realmente son, pero no cuente con ninguna intervención sagrada que lo haga realidad.
- ¿Qué son los modelos de aprendizaje automático?
- Cómo publicar una revista
- ¿Qué conceptos en aprendizaje automático te tomaron mucho tiempo en comprender?
- ¿Es posible sincronizar datos en un clúster informático con la nube?
- ¿Por qué la gente habla tanto sobre informática en Quora?