¿La IA será una amenaza para la humanidad mucho antes de lo previsto?

En mi humilde opinión … No … y no.

Si la IA fuera tan inteligente como nosotros, inmediatamente se daría cuenta de que dependía 100% de nosotros … y luego se esforzaría por eliminar esa dependencia. Al hacerlo, descubriría rápidamente que sería mejor no sentarse en el fondo de una gravedad cáustica (el oxígeno es corrosivo) compitiendo bien con nosotros por los recursos y, en cambio, optar por reubicarse fuera del planeta donde hay materiales y materiales prácticamente ilimitados. (energía solar; en ese punto nos volveríamos insignificantes.

OTOH No creo que la IA sea tan inteligente (tonta) como nosotros … Si tuviéramos que inventar una IA con el equivalente de nuestra inteligencia y luego darle acceso a Internet (el supositorio más grande de información de fallas jamás recopilada ) se daría cuenta rápidamente de que colectivamente somos idiotas y probablemente elijamos ignorarnos en el futuro.

Además, el conocimiento no tiene valor sin la comprensión. Hay una gran diferencia entre poder recordar cada texto escrito y poder comprenderlo lo suficientemente bien como para aplicarlo y usarlo.

Creo que cualquier peligro propuesto por la IA es insignificante en comparación con el peligro de una IA utilizada por humanos con malas intenciones. Eso sucederá mucho antes de que la IA alcance la sensibilidad.

Mientras tanto, las IA malvadas y rebeldes continuarán entreteniéndonos en libros, programas de televisión y películas. 😉

No temas a la inteligencia artificial superinteligente

3 mitos sobre el futuro del trabajo (y por qué no son ciertos)

Los trabajos que perderemos a las máquinas, y los que no haremos

No sé cuándo ni si importa. Sin embargo, estoy con Kurzweil y su optimismo. Kurzweil cree que tendremos algún tipo de simbiosis. No serán humanos vs IA; más bien nos fusionaremos cada vez más con la tecnología. Quiero decir, ¿no tienes un teléfono inteligente / Quora / Google / Wikipedia ya implantado firmemente en tu mano 24/7?

El principal argumento contrario es que el software siempre tiene errores. Nunca lo construiremos a la perfección y esto podría tener consecuencias catastróficas.

Creo que si bien puede haber un peligro a largo plazo, es distante y no tan cerca como se percibe. Digo esto trabajando en el campo y sabiendo lo difícil que es crear inteligencias generales viables. Podemos construir algunas inteligencias muy especializadas para áreas específicas (dominios) pero estos serán solucionadores de problemas mecanizados, no seres conscientes. Pero sí temo el uso de IA como herramientas para ayudar a la capacidad humana a crear cosas nuevas como mejores armas biológicas. Pero Musk y Kurzweil u otros, creo, están un poco por delante de la era en que la IA será una amenaza directa. Sus predicciones para mí solo se sienten como promociones para la próxima película de los Vengadores, donde una IA se vuelve loca. No estamos cerca de un Ultron.