Esta pregunta contiene varios supuestos injustificados que la hacen casi sin sentido.
Primero, supone que la inteligencia artificial deletrea el destino de la raza humana. ¿Por qué? ¿Es esto porque la raza humana parece tener la intención de destruir el planeta y el interrogador está asumiendo que esta tendencia a destruir otras formas de vida es una cualidad innata de la sensibilidad? ¡Qué pensamiento tan horrible!
En segundo lugar, supone que la inteligencia artificial es posible. Sin embargo, nadie ha demostrado que esto sea cierto. Tampoco nadie ha construido una prueba de que debe ser cierto.
- ¿Cómo funciona The Grid?
- ¿Cómo puedo hacer un clasificador de texto con inteligencia artificial?
- ¿Qué tan débil puede ser la IA antes de que no sea IA?
- Cómo conectarme con otras personas para trabajar en IA, ML y PNL para ampliar aún más mis habilidades
- ¿La IA causará desempleo generalizado?
Tercero, supone que crearíamos algo más poderoso que nosotros sin crear salvaguardas como interruptores o un código moral.
Cuarto, se supone que el razonamiento religioso no es inherente a la sensibilidad y que los seres artificialmente inteligentes que creamos no estarían moralmente obligados a hacer lo que dijimos dado que estaríamos en el lugar de Dios desde su perspectiva. No es que respalde esta opinión en lo más mínimo, pero la mayoría de los estadounidenses lo hacen claramente, afirmando que la voluntad del creador de uno es la epítome de la justicia. Desde este punto de vista, es más probable que la gran mayoría de los artísticamente inteligentes (IA) nos adoren y masacren a los disidentes entre ellos.
Quinto, supone que no podríamos ganar en un conflicto con la IA. Pero no ofrece ninguna razón para sospechar que esto es probable.
Sexto, se supone que se permitiría que ocurra la IA. Sin embargo, las suposiciones implícitas del interrogador son que la IA es inherentemente peligrosa. Asumiendo que permitiremos que se invente tecnología peligrosa y que no se regule de manera irrazonable.
Séptimo, parece suponer que la inteligencia artificial requiere emociones, ya que extinguirnos parece plantear un motivo de miedo por parte de la IA. Sin embargo, esto parece una afirmación muy dudosa. La alternativa, que la razón exige que se extinga, apenas parece sencilla. Si lo fuera, ¿por qué es necesaria la existencia de la IA para llegar a esa conclusión? ¿Por qué no reconocemos la necesidad lógica de extinguirnos nosotros mismos y simplemente terminarlo ahora, sin recurrir a una guerra de robots?
Octavo, supone que podemos predecir el momento de las innovaciones tecnológicas masivas. Sin embargo, una rápida lectura de las portadas de Popular Science a lo largo de las décadas deja en claro que no tenemos la capacidad de hacerlo, de lo contrario, los teléfonos de video, los autos voladores y los mayordomos robóticos ya se habrían convertido en algo común.
Noveno, relacionado con el anterior, pero distinto de él, es la suposición de que existe un motivo razonable para que la humanidad invente algo no solo más inteligente y más beligerante que nosotros, sino también capaz de explotar tales tendencias. Pero la IA no tiene nada que ver con las dos cualidades posteriores. Más particularmente, no soy consciente de que, como sociedad, queremos construir una sociedad de seres con IA que tengan acceso a las herramientas necesarias para ponernos de rodillas. Y dudo que algo menos de lo que una sociedad de ellos pueda hacer o que tal sociedad de ellos pueda ser creada contra la voluntad de la sociedad humana.
Estoy de acuerdo en que la discusión de los temas descritos anteriormente es importante, y que no es imposible que podamos inventar IA que pueda representar una amenaza para nosotros, pero dada la popularidad de esta tesis, no es razonable suponer que la historia se desarrollará en una manera que parece implicar nuestra ceguera a todo lo anterior.
La mejor analogía es reflexionar sobre la invención de las armas nucleares. Estos llegaron a ser inventados y posteriormente representaron una amenaza existencial real para nosotros. Pero la amenaza aún ha resultado en Armagedon y, lo que es más importante, no fue precedida por décadas de preocupación populista sobre la sabiduría de permitir la creación de armas nucleares.
Vivimos en una sociedad que teme genéticamente a la gente de ingeniería. Como consecuencia, vivimos en un mundo donde la ingeniería genética de las personas está regulada y es esencialmente inexistente.
Entonces, ¿por qué ponerse histérico y preguntar cuándo comenzará el robot holocausto de la humanidad?
Quizás la mejor perspectiva es ver esta potencialidad de nuestra extinción violenta como una oportunidad para explorar una visión de una humanidad más evolucionada. Una humanidad donde la idea de que la existencia de otros seres sintientes no evoca automáticamente la cuestión de la aniquilación como consecuencia natural de una conclusión inevitable.
Después de todo, estoy bastante seguro de que lo que está sucediendo aquí es “proyección”, lo que hace que la necesidad de preocuparse por nuestro futuro sea nuestra “culpa”. Cuando nos preocupamos por la idea de que podríamos crear la IA en nuestra imagen y luego quejarnos de que son temibles, parecemos imbéciles, ¿no? Y, cuando nos preocupamos de que lo primero que puedan hacer las máquinas hiperracionales todopoderosas es matarnos, ¡estamos esencialmente argumentando que somos una aboninación!
Entonces, dado que muchos compran esta línea de razonamiento, ¡hagamos algo sobre ellos y sobre nosotros mismos!