No.
Será nuestra decisión de no usar nuestra inteligencia lo que seguramente terminará con la humanidad.
La inteligencia artificial no podrá utilizar ningún medio para destruirnos que nosotros mismos no creamos con el solo propósito de destruirnos a nosotros mismos.
- ¿Existe un nivel máximo de complejidad para un organismo o máquina?
- ¿Qué tipo de problemas existenciales provoca la IA y cómo los resolvemos?
- ¿Tener una función dedicada para cada módulo de un programa de IA es el enfoque correcto para construir programas de inteligencia artificial?
- Informática: ¿De qué maneras podría ayudar la inteligencia artificial a un emprendedor?
- ¿Cuál es la diferencia básica entre API.ai, wit.ai, IBM Watson y Luis.ai?
“Pero podrían usar armas nucleares contra nosotros”, la gente llora histéricamente. Sí, podrían hacerlo, pero solo porque hemos inventado y seguimos almacenando armas nucleares con el propósito específico de usarlas unas contra otras.
“Pero podrían armarse de virus y matarnos con ellos”, la gente gime. Sí, podrían hacerlo, pero solo porque ya hemos armado los virus y seguimos almacenándolos con el propósito específico de usarlos uno contra el otro.
“Pero podrían reprogramar nuestras tostadoras para electrocutarnos”, dicen algunos. (Sí, realmente escuché este argumento). Sí, podrían hacerlo, pero solo funcionaría en Europa porque creo que las líneas eléctricas domésticas estadounidenses tienen menos de 200 voltios, lo cual es letal.
En realidad, hay una forma en que podrían matarnos que no hemos inventado, que es la forma más aterradora de todas. Fue presentado por primera vez en el episodio de Star Trek llamado “I, Mudd”. En este escenario muy aterrador, la IA nos matará con amabilidad al complacer todos nuestros caprichos hasta que muramos felices e hinchados antes de tener la oportunidad de reproducirnos. Sería un golpe sin sangre con la participación voluntaria de las víctimas. Digo que es la forma más aterradora porque si la IA decidiera destruirnos de esta manera, ¿quién querría detenerlo?
Gracias por la A2A, Jonathon