¿Las preocupaciones relacionadas con la inteligencia sobrehumana que Nick Bostrom aborda en su libro ‘Superinteligencia’ son relevantes o descabelladas?

Creo que Bostrom aborda cuestiones interesantes en su libro, pero finalmente creo que el futuro demostrará que está equivocado en sus puntos principales.

¿Viene el Terminator?

Nick Bostrom es filósofo, no informático. Su especialidad es el riesgo existencial. Él es bastante influyente, porque su libro fue leído por Stephen Hawking, Bill Gates y Elon Musk, y pudo convencerlos a todos de tomar en serio el riesgo de la IA.

Como Bostrom, ninguno de ellos es conocido por su trabajo en IA. Son solo intelectuales públicos que expresan preocupación general. Por alguna razón, los medios parecen adorarlos, y sus preocupaciones se han tomado para definir el tema del riesgo de IA, a pesar de su falta de calificaciones relevantes más allá de haber leído el libro de Bostrom.

Las personas tienen un sesgo hacia la sobreponderación de evidencia negativa y un interés en el drama y el conflicto. Y el tema real de la IA es demasiado complicado para que lo entiendan y demasiado aburrido para que lo sigan. Por este sesgo, creo que los medios le prestan demasiada atención a Bostrom y sus seguidores. Es mucho más divertido discutir los escenarios de Terminator que el progreso aburrido y real de la IA.

Estimación promedio de riesgo

En una encuesta realizada a expertos en 2008, la probabilidad promedio estimada de extinción humana debido a la IA en el próximo siglo se ubicó en 5%. Se estimó que los riesgos generales de extinción de todas las fuentes suman el 19%. (fuente: http://www.fhi.ox.ac.uk/gcr-repo…).

Ese documento fue coautor de Bostrom y dirige el Instituto del Futuro de la Humanidad que lo publicó. Su principal preocupación son los riesgos existenciales, por lo que me imagino que clasificarían esos riesgos por encima de la persona promedio.

Bostrom argumentaría que incluso si están sobreestimando el peligro por un factor de 10, hay mucho que ganar de un estudio de riesgo existencial. Desde una perspectiva utilitaria, el resultado del fin del mundo es tan enormemente negativo que incluso pequeñas reducciones en el riesgo tendrían un efecto valioso.

Yo diría que este es exactamente el tipo de pensamiento que da lugar a la hipocondría. Dada la idea de que cada tos o resfriado podría conducir a una enfermedad grave o la muerte, por supuesto, esta posibilidad debe investigarse constantemente. Y nadie puede probar que el riesgo del 5% o incluso el riesgo del 0,5% es objetivo, por lo que realmente estamos discutiendo sobre sentimientos, no hechos.

Otros filósofos

Otros filósofos tienen todo tipo de opiniones sobre la IA. Algunos piensan que una IA fuerte no es posible. Otros piensan que incluso si es posible, puede llevar cientos de años o más darse cuenta de ello.

Esta es una gran cantidad de desacuerdo. De lo cual, concluiría que Bostrom representa principalmente su propia opinión, y no ningún tipo de consenso.

Tesis de ortogonalidad

Bostrom argumenta que no debemos pensar en máquinas como las personas. En cambio, debemos reconocer que un alto nivel de inteligencia es compatible con cualquier tipo de objetivo, es decir, las máquinas inteligentes no necesariamente actúan como personas.

Suena arbitrario y poco convincente. El hecho de que algo no sea humano no significa que no tenga una naturaleza distinta y objetivos propios limitados. Y Bostrom no nos ha dicho nada sobre esos objetivos, solo que podrían ser cualquier cosa, hasta donde él sabe.

Las máquinas de escritorio actuales tampoco actúan como personas. Pero se comportan de manera consistente exactamente como han sido programados para hacerlo. ¿Quién puede decir que la IA futura, que aún no hemos construido, no hará lo mismo?

Tesis de convergencia instrumental

Aquí Bostrom presenta algunas ideas sobre la motivación de la máquina. Él piensa que las máquinas convergerán, o estarán de acuerdo, en diferentes instrumentos o medios para lograr sus objetivos, independientemente de cuáles sean esos objetivos.

Sus medios hipotéticos incluyen:

  • autoconservación: una IA tiene que sobrevivir para lograr sus objetivos
  • integridad del contenido objetivo: una IA que se resiste a cambiar sus objetivos tiene más probabilidades de alcanzarlos
  • mejora cognitiva: a una IA le gustaría ser más inteligente para ayudarla a alcanzar sus objetivos
  • perfección tecnológica: una IA querría tener los mejores algoritmos para lograr sus objetivos
  • adquisición de recursos: una IA necesita recursos para hacer cosas para alcanzar sus objetivos.

Estos son ciertamente medios razonables. De hecho, podrían aplicarse a personas, animales, máquinas o casi cualquier cosa.

Pero aunque lo hagan, una persona o máquina no causa tanto daño por sí misma. Simplemente no son tan poderosos.

Creo que tampoco es razonable suponer que una IA tendría suficientes superpoderes para destruir el mundo por sí misma. Es más probable que la IA futura se desarrolle como el software actual, en millones o miles de millones de entidades separadas, cada una con un rol bien definido.

Dado que la IA individual tendría que perseguir sus objetivos en el contexto de una sociedad llena de humanos e IA, sería un actor individual limitado, no más capaz de destruir el mundo que los individuos actuales, en términos relativos.

Conclusión

Creo que el libro de Bostrom es un bosquejo de cómo la IA podría ser peligrosa, no realmente una prueba de cómo será peligroso. En mi opinión, su definición de inteligencia es demasiado abierta y conceptual, y carece de realismo ya que no se deriva de ninguna observación de ninguna superinteligencia real.

Tengo más confianza en el futuro de la raza humana, y su capacidad de construir máquinas seguras y superinteligentes a través de un estudio cuidadoso, que en Bostrom y su libro.

Mi opinión es que la creación de algo superinteligente es mucho más difícil de lo que la gente entiende, y no va a suceder pronto. El conocimiento y la comprensión, y la comprensión del mundo, no son simples problemas de lógica geométrica binaria. Son cosas muy, muy difíciles de hacer, con muchos razonamientos complicados e imprecisos requeridos. Esto no solo es complicado, sino que a menudo lleva bastante tiempo aclarar las cosas en la identificación de datos, la recopilación y el razonamiento. Por lo tanto, no será tan simple, fácil y rápido como la gente piensa, crear algo muy inteligente que pueda manejar muchos problemas difíciles o dominarnos.

Podría ser capaz de ilustrar. ¿Crees que podríamos crear alguna superinteligencia que pueda encontrar una cura para el cáncer en un abrir y cerrar de ojos? ¿Qué tal uno que nos pueda guiar a un mundo libre de guerra? (Oh, dices: Ultron! Uh no, eso fue ficción de cómics).

Entonces, en resumen, Bostrom está quizás demasiado entusiasmado con lo posible que sea. Sin embargo, desarrollaremos algunos asistentes muy inteligentes para los humanos, y estos se implementarán en el transcurso de los próximos diez años, y más adelante también.