¿Crees que el surgimiento de la IA es una amenaza para el mundo en un futuro cercano?

La única amenaza para el mundo en el futuro cercano es la irracionalidad humana (y, por supuesto, actos aleatorios de la naturaleza, como un ataque de asteroides). Si la locura humana crea máquinas que reproducen los defectos de sus creadores, entonces, por supuesto, estas máquinas serían una amenaza. Al igual que las armas nucleares (recuerde, la física nuclear es lo que impulsa al sol, por lo que la ciencia básica detrás de la bomba no es el problema). Sin embargo, aquí estamos hablando de máquinas no biológicas que poseen cerebros de pedigrí no evolutivo, por lo tanto, carecen de equipaje reptiliano. Si en realidad se diseñó para resolver problemas de forma independiente, con suficiente poder intelectual para ser indistinguible en la capacidad bruta de un humano, entonces ¿por qué esperaríamos que sean tan locos como nosotros? Sospecho que nuestro miedo a tales máquinas es más un reflejo de nuestro miedo a nosotros mismos, que cualquier problema inherente con la maquinaria inteligente en sí. Es una expresión de auto odio.

Absolutamente no, diría que es casi un imperativo ético lograr una IA fuerte. Ningún esfuerzo científico en la historia del mundo es tan importante para la humanidad o, lo que es más importante, para la inteligencia inteligente que nuestro trabajo en IA o AGI fuertes. no es una amenaza, es más probable nuestra salvación y la oportunidad de elevarnos por encima de nuestra biología primitiva.

Vea la respuesta de David F. Prenatt Jr. a ¿Es la IA una amenaza existencial para la humanidad? La cuestión de si tal amenaza percibida es inminente no tiene los matices suficientes para ofrecer una respuesta diferente aquí.