¿La inteligencia artificial se convertirá en una amenaza para algunos (o todos) los humanos? Dado que una computadora no tiene sentimientos, metas o deseos, ¿cómo?

La IA no es peligrosa hoy, pero la IA futura será diferente de varias maneras.

Esto es:

  1. La IA de hoy tiene menos inteligencia que un pez, y no tiene ninguna estructura que permita la emoción o la conciencia hasta donde sabemos. No representa ninguna amenaza.
  2. En 1 a 5 décadas, es probable que la IA comience a representar una amenaza seria porque probablemente superará la inteligencia humana. Sin embargo, esto solo será cierto si no logramos resolver el problema de control.
  3. La IA superinteligente sin el control adecuado será peligrosa, independientemente de cuánto pueda sentir, y de si forma representaciones conscientes de los objetivos. Piénselo: ¿una lavadora requiere sensaciones para lavar la ropa? ¿Se necesita sentir un dron automatizado para disparar misiles?
  4. La IA futura probablemente eventualmente tenga algún tipo de emoción y sensibilidad. Pero al igual que con los humanos, esto puede ser casi incidental a las operaciones físicas y mentales realizadas por la IA. En otras palabras, es probable que la sensibilidad acompañe el pensamiento y la acción en lugar de causarlo.

¿La IA se convertirá en una amenaza?

Con todos los trabajos de ciencia ficción que nos advierten de las trampas, espero que tengamos que prever para evitar la posibilidad.

¿Si es así, cómo?

“Sin sentimientos, metas o deseos” es otra forma en que una IA podría convertirse en una amenaza para algunos. Los humanos no siempre actúan racionalmente. A menudo actuamos por instinto o emoción. Tal IA tomaría decisiones basadas solo en la probabilidad de resultado. ¿Qué decisiones afectarían positivamente a la mayoría de las personas?

Por ejemplo, si asignamos una IA para garantizar nuestra seguridad colectiva; podría elegir limitar nuestras libertades. Cualquiera que vea comportamientos contrarios a ese objetivo podría verse eliminado “por el bien de la sociedad”.

Esta premisa ha sido un tema en muchas obras de ciencia ficción; incluyendo iRobot.

imagen de la película iRobot

Todo lo que “VIKI” quería hacer era mantener a la humanidad segura cuando se desató el infierno.

Por supuesto, dar a una IA sentimientos, metas y deseos tendría consecuencias igualmente desastrosas si esas metas alguna vez se desviaran de las nuestras.

Referencia a la película “Terminator”

Digo que no le demos a ninguna entidad ese tipo de poder sobre nosotros.

Tienen objetivos, pero probablemente no en el sentido de que estás pensando. Los algoritmos exitosos en IA han sido algoritmos que optimizan una función objetivo (u objetivo) particular. Entonces, el problema surge si los “objetivos” no se corresponden lo suficiente con los objetivos de los humanos: