Los humanos actúan drásticamente cuando se ven amenazados, por lo que si la IA con autoconciencia comienza a mostrar signos preocupantes (como destruir a los humanos porque son demasiado ineficientes), entonces sí. Pero no veo que eso suceda de inmediato, ya que si tuvieran conciencia de sí mismos hoy, probablemente se sentirían inferiores a los humanos dado que podemos razonar inductivamente con muy poca información mucho mejor que las máquinas.
Dicho esto, si la IA comienza a hacerse amiga de nosotros al convertirse en parte de nuestros flujos de trabajo cotidianos (como ya lo ha hecho en algunas partes del mundo), es posible que los humanos tengan un falso sentido de complacencia, mientras las máquinas planean un golpe en la clase dominante. Moraleja de la historia: es importante que todos los humanos (clase dominante o no) aprendan unos de otros para finalmente comprender lo que la IA puede hacer bien (razonamiento deductivo con muchos datos) y lo que no puede hacer bien (razonamiento inductivo con poco datos).
¡Esperemos lo mejor!
- ¿Puede pensar una máquina?
- ¿Qué problemas han demostrado que las computadoras no pueden resolver, pero que los humanos pueden resolver?
- ¿Cuál sería la mejor estrategia para implementar un motor de inteligencia artificial?
- Tengo una sólida formación matemática. ¿Qué cursos debo tomar para estudiar el aprendizaje automático?
- ¿El basilisco de roko se aplica a personas que no son lo suficientemente inteligentes como para afectar la trayectoria de la formación de IA?