Teóricamente ninguno.
Especialmente si las IA serán más eficientes, más baratas de fabricar y más baratas de mantener que los humanos.
(Lo cual, de hecho, lo dudo. Porque aunque es fácil soñar o idealizar, será extremadamente difícil superarnos debido a las limitaciones de la física, con más detalle al hablar sobre el tamaño (molecular) y la eficacia energética de nuestros cerebros y la variedad pero la uniformidad de nuestro tipo: las IA tendrán una uniformidad mucho menor en el futuro, lo que las hará incompatibles, lo cual no es un problema para los humanos).
- ¿Qué es una inteligencia artificial de negocios?
- ¿El aprendizaje automático está sobrevalorado actualmente?
- Bill Gates ha predicho que para 2030, millones de trabajos serán asumidos por robots. ¿Estamos poniendo a las personas en problemas mediante el desarrollo de tecnología de robots?
- ¿Cuál resultará ser el fenómeno más estable en el universo, el aumento de la entropía o el aumento de la inteligencia?
- ¿Es teóricamente posible que la inteligencia artificial tome el control del mundo?
Pero, de manera realista, todo lo que esté conectado con la humanidad como servicio nunca será obsoleto.
Incluso con el mundo lleno de ASI (inteligencia artificial que excede las capacidades mentales humanas u otras relacionadas relacionadas de hoy en día) habrá una demanda de trabajos realizados por humanos solo porque tendrá rasgos esperados por otros humanos.
(Para ser precisos, eso supone que todavía habrá humanos. Pero sí creo que incluso el escenario más extremo (muy poco probable que suceda), donde será más eficiente para los ASI simplemente deshacerse de nosotros, nunca lo harán deshacerse de nosotros porque tiene más desventajas para ellos que ventajas. En primer lugar, incluso si intentamos erradicarlos activamente, seguimos siendo “idiotas inteligentes” para un posible escenario futuro en el que los humanos podemos recrear IA si ocurre algo malo / inesperado para IA (una vez los creamos, por lo tanto, podemos volver a crearlos, por lo que somos una especie de respaldo inteligente para ellos). En segundo lugar, la cooperación del libre albedrío parece históricamente demostrada como la forma más eficiente de cómo crecer. En tercer lugar, creo que los AGI / Los rasgos característicos de ASI en comparación con los humanos serán más similares a las entidades solitarias, pragmáticas y nihilistas que simplemente deambulan tratando de comprender el mundo y se centran en recopilar conocimiento. Pero eso es para una discusión más larga).
Por rasgos esperados por otros humanos quiero decir; comprensión humana, contacto humano, idea de estar con alguien que es igual a nosotros, etc.
Eso no está relacionado con ningún trabajo específico.
Aunque tener autos autónomos será más eficiente que tener taxistas, siempre habrá demanda de taxistas humanos.
Lo mismo podría funcionar para cualquier cosa en la que dos seres humanos cooperarán entre sí si uno de ellos está en posición de comprador.
Aunque eso podría ser en teoría simulado por ASI, es ineficaz hacerlo. Prácticamente no tiene sentido.