¿El riesgo? No
La evaluación de riesgos? si
Siempre existe el riesgo de que alguna parte de nuestra tecnología nos mate. Este era el riesgo con las armas nucleares (y aún lo es). Este es en gran medida el riesgo actual con armas biológicas que a nadie parece importarle. Es el riesgo actual de modificación genética. Será el riesgo de la nanotecnología y también será el riesgo con la IA.
Entonces sí. La IA podría matarnos.
Pero, ¿qué tan probable y plausible es ese riesgo? De Verdad? ¿Cuánto más peligroso podría ser la IA que (por ejemplo) cruzar la carretera?
Ahora, ¿quién está evaluando este riesgo? En el caso de Stephen Hawkings, alguien que sabe mucho sobre física y aparentemente nada sobre inteligencia e inteligencia artificial. El profesor Hawkings es obviamente inteligente: ¿está tratando de destruir el mundo? Si elige usar su inteligencia para aumentar el conocimiento presumiblemente en beneficio de la humanidad, ¿qué evidencia tiene él de que otra entidad de igual inteligencia lo usaría para destruir a la humanidad? ¿Cómo es una respuesta inteligente que la inteligencia puede producir dos resultados opuestos y conflictivos para el mismo estímulo dado?
El problema con la comprensión de los riesgos de la IA proviene de dos áreas:
- No entendemos qué es la inteligencia y la razón por la que no entendemos qué es porque tenemos esta capacidad molesta y peligrosa de elegir no pensar inteligentemente. El problema es que aún nos consideramos inteligentes incluso cuando cometemos actos de estupidez. Incluso con otros a nuestro alrededor que nos dicen que somos estúpidos, aún persistiremos en pensar que somos inteligentes. Incluso usaremos nuestra inteligencia para “probar” lo acertados que somos sin comprobar cuán estúpido es nuestro punto de partida. Hacemos evaluaciones sobre la inteligencia basadas en nuestras acciones estúpidas y esas evaluaciones son estúpidas. Es por eso que tememos a la IA porque creemos que será tan estúpida como nosotros.
- Nuestro miedo se basa en la idea de limitación. Cada vez que un recurso es limitado, rápidamente volvemos a nuestra naturaleza animal y nos mataremos felices para poseerlo. Esto es cierto si el recurso es comida o Furbies. Ahora puedo ver cómo eso podría tener una ventaja para la supervivencia en tiempos de privación extrema, excepto cuando se usa para cosas que no tienen nada que ver con la supervivencia, como Black Friday Bargains. Ahora hemos matado a cualquier otra versión inteligente del género Homo en el pasado, presumiblemente porque sentimos que eran competidores por los recursos. Y debido a que pensamos que somos inteligentes (ver arriba), hemos evaluado ese comportamiento como inteligente y ahora tememos que la mayor inteligencia de la IA llegue a la misma solución “inteligente” y nos mate. Pero el problema de la limitación es que es un mito. En 1930, la población mundial era de poco más de 2 mil millones y había personas hambrientas viviendo en la pobreza. Si el problema de la limitación fuera cierto, entonces podríamos haber declarado legítimamente que la razón por la cual las personas se estaban muriendo de hambre y pobres era porque habíamos alcanzado los límites de los recursos de la Tierra. Eso significaría que cualquier aumento en la población aumentaría el número de pobres y hambrientos. Sin embargo, ahora hemos superado los 7 mil millones y solo 1,25 mil millones están por debajo de la línea de pobreza. Eso significa que encontramos suficientes recursos para alimentar y alojar a otros 4 mil millones de personas. ¿Cómo lo hicimos? Ahora la gente dice que 7 mil millones es el límite y ya no podemos apoyarlo. Tal vez o tal vez estaremos diciendo lo mismo cuando la población de la Tierra sea de 10 mil millones.
Pero hagamos una pregunta incómoda, ¿de acuerdo? ¿Sería malo que la humanidad fuera destruida? Después de todo, nuestra administración de este planeta ha sido espantosa. Tal vez el temor de que una IA nos termine como la bestia rabiosa que somos está perfectamente fundado. Quizás esa sea la elección inteligente. La solución es convertirse en algo que valga la pena salvar. Levántate por encima de nuestros patéticos impulsos de los animales y pon una “e” en el extremo del ser humano. En otras palabras, si es una decisión inteligente erradicarnos, entonces no tenemos a nadie a quien culpar sino a nosotros mismos.
Ahora, recordemos que si la IA elige destruirnos, no perderá su tiempo y recursos haciendo ejércitos de robots. Simplemente desatará las pesadillas nucleares, químicas y biológicas que ya hemos creado. Y si la IA no elige destruirnos, aún tendremos la capacidad de destruirnos de todos modos.
Así que ya nos paramos al borde del precipicio y miramos al vacío. Entonces, tal vez la IA nos empuje o tal vez simplemente saltemos. O tal vez la IA será un salvavidas que nos ayudará a retroceder antes de unirnos a los dinosaurios. Eso depende de nosotros no AI
Gracias por el A2A, Stan