¿Los beneficios de la inteligencia artificial realmente superan el riesgo de extinción o subyugación humana?

Hasta ahora, sí, dado que los riesgos de ambos son mucho más pequeños de lo que muchas personas suponen. Debe evaluar más que solo la gravedad del peor de los casos al intentar evaluar el peligro. También debe tener en cuenta la probabilidad de que el peor de los casos ocurra realmente.

El mejor ejemplo que puedo dar es el Gran Colisionador de Hadrones. Es posible que recuerden cuando se puso en línea por primera vez que un sorprendente número de personas protestaban en voz alta porque existía una posibilidad realmente minúscula de que creara un micro agujero negro que se comería el planeta. Argumentaron que los científicos estaban jugando a ser dioses, tratando de matarnos a todos, y también poniéndose histéricos al respecto.

Y luego el LHC se encendió, realizó sus experimentos y no hizo daño a nadie. Tal como los expertos dijeron que lo haría.

Antes de eso, había una preocupación de que la fisión nuclear pudiera desencadenar una reacción en cadena que quemaría todo el oxígeno en la atmósfera. Los expertos reconocieron que era posible, pero estudiaron el problema y concluyeron que las probabilidades eran muy bajas. Entonces continuaron y dividieron el átomo y he aquí: los expertos tenían razón y no todos morimos.

Como ejemplo contrario, durante los años sesenta probamos con éxito diseños para aviones y cohetes propulsados ​​por energía nuclear. Estos vehículos habrían hecho que los viajes espaciales a gran escala fueran económicamente viables a precios realmente bajos y nos hubieran permitido construir aviones con un rendimiento mejor que incluso nuestros diseños modernos. Incluso podríamos haberlos adaptado a otros vehículos, creando un mundo en el que no teníamos que preocuparnos por el gas nunca más.

Los expertos observaron esos diseños y vieron que la adopción generalizada de esos diseños aumentaría la probabilidad de contaminación radioactiva generalizada a casi el 100%. Y entonces abandonamos una gran cantidad de tecnologías baratas y extremadamente útiles y nunca hemos mirado atrás.

Hasta ahora, la mayoría de los expertos han concluido que el riesgo de que creemos un ser con nuestra investigación actual que nos extinga o nos subyugue es tan pequeño como para ser esencialmente 0. Y siempre hemos tenido razón. Seguimos teniendo razón cada vez que usas Google y no intenta matarte.

Entonces, dime, ¿crees que los beneficios que ya obtuvimos han valido la pena aceptar un riesgo tan pequeño? Y si eso cambia en el futuro, ¿realmente cree que no nos detendremos antes de que suceda, tal como lo hicimos con otras amenazas existenciales en el pasado?

Lo haces sonar como una decisión racional. Como si queremos LCD o LED. Pero la inteligencia artificial no es una decisión que debe ser considerada y dirigida por el debate comunitario.

El movimiento hacia la IA es una obsesión por las especies, una compulsión masiva. Sabemos que estamos muriendo e inventamos un mito de Dios para apoyar la esperanza de la inmortalidad. Luego cambiamos de la creencia de Dios a la creencia científica, y todavía nos deja vacíos y anhelando alguna alternativa a la muerte.

Los seres humanos necesitan crearse a su propia imagen. La corona de la creación autosuficiente alimentada por energía solar, un poco más baja que los ángeles. No elegiremos la IA. Es inevitable.

A menos que esa especie, el TOC se destruya en el proceso.