¿De dónde saca la gente la idea de que la IA (si alguna vez existiera a ese nivel) nos va a matar?

Un problema con la IA es que cada vez más los humanos no pueden entender cómo la IA toma sus decisiones. Y este problema ya está aquí, a pesar de que estamos muy lejos de AGI (inteligencia general artificial), y mucho menos de la conciencia artificial.

El sistema de inteligencia artificial no tiene que ser humanamente inteligente, simplemente se le debe dar un problema y recursos para resolverlo a través de algoritmos genéticos y ajustando los datos.

Lo que comenzó a surgir con una frecuencia cada vez mayor: los sistemas informáticos pueden ajustar ecuaciones a conjuntos de datos, pero luego resulta que las ecuaciones, aunque son maravillosamente precisas y predictivas, no tienen sentido intuitivo para los humanos que las usan.

No todos lo ven como un “problema”: si un algoritmo genético es mejor que cualquier humano para diagnosticar el cáncer (que ya es el caso con algunos tipos de cáncer), pocos médicos e incluso menos pacientes se preocuparán por la opacidad del algoritmo interno. trabajando. Pero a medida que estos algoritmos ocupan más dominios, las personas se quedarán cada vez más atrás.

Esa sería la última ironía de la tecnología: si tenemos una demostración convincente de que los cerebros humanos simplemente no pueden entender la forma en que funciona el universo en algunos niveles prácticos. Tal como un algoritmo genético que diseña una unidad FTL en funcionamiento. Y lo que es peor, podemos construir sistemas que pueden derivar más de lo que podemos entender, pero estos sistemas no son en sí mismos inteligentes de una manera lo suficientemente humana como para explicarnos sus resultados.

Ninguno de los anteriores conduce a que “la IA nos va a matar”, pero sugiere que si la IA alguna vez decide matarnos, podemos ser completamente incapaces de comprender sus razones. No será “usted es un peligro para el planeta debido a la quema de combustibles fósiles”, más como “usted es [intraducible] a lo [intraducible] debido a [intraducible]”.

Miedo.

Los humanos temen lo que no entienden. Irónicamente, es una ventaja evolutiva para nosotros pensar y sentir de esta manera. Así sobrevivieron nuestros antepasados ​​para que lleguemos aquí. Sería tonto no mencionarlo, la IA nos matará a algunos de nosotros. Un automóvil autónomo funcionará mal, un algoritmo de comercio enviará una caída del mercado que hará que alguien no encuentre su próxima comida, un diagnóstico médico será incorrecto y alguien con una enfermedad tratable pero mortal se irá sin diagnosticar.

Estos casos extremos no son necesariamente su punto, pero el problema que crean estas situaciones es que genera más sesgo. Específicamente, sesgo en torno a la disponibilidad heurística. Si no está familiarizado, lea más aquí. Las películas, los libros y los programas de televisión también han alimentado nuestro sesgo heurístico de disponibilidad.

Además, durante la mayor parte de la existencia de la humanidad, nos hemos matado sin remordimientos. Recientemente hemos comenzado a avanzar hacia la paz mundial, y es seguro decir que ni siquiera estamos cerca de lograrlo.

Una IA construida por una especie que asesina regularmente a su propia especie, parece una IA que probablemente mataría a su creador. ¿Somos capaces de escapar de nuestro propio comportamiento?

Yo diría que tenemos más probabilidades de ser exterminados por un humano en control de una IA que por una IA sensible. Por esa razón, creo que es justo tenerle miedo a la IA, suponiendo que haya un humano que la esté construyendo.

Hay una luz al final del túnel.

Hemos existido en entornos como este en el pasado. Podemos crear un equilibrio de seguridad. Creo que el enfoque de OpenAI es el correcto. ¿Cómo les damos a todos el mismo acceso para crear la misma seguridad en todo el mundo con las IA? Si podemos hacerlo, creo que podemos crear un equilibrio de seguridad.

Te animo a que mires a tus compañeros y escuches sus preocupaciones, construyas un futuro mejor para todos nosotros.

Se reduce a dos preocupaciones principales:

  • Primero, que lo que creamos nos destruirá, a través de la obediencia sin sentido, porque no lo instruimos correctamente. Esto puede ocurrir como resultado de nuestra propia arrogancia, o accidentalmente programamos un error fatal en la máquina que se ejecuta.
  • Segundo, que las máquinas, a través de sus propias deducciones, decidirán que matarnos es la mejor solución. Vale la pena señalar que sus razones para hacerlo no son necesariamente maliciosas, aunque las mejores historias de ciencia ficción se refieren a robots malvados.

Es posible que en un futuro no previsible, las máquinas avancen más allá de nuestra capacidad de control o comprensión. La Singularidad es el punto hipotético en el que la inteligencia de la máquina excede la nuestra, y probablemente será seguida por una Explosión de Inteligencia (donde una máquina se mejorará a sí misma indefinidamente, a la velocidad de cálculo). Una máquina que se mejora por sí misma podría idear en minutos lo que le llevaría a los humanos décadas, catapultándose a la divinidad intelectual a los pocos días de ser encendida.
¿Por cuánto tiempo sería controlable una máquina de este tipo, dado que podría superarnos sin esfuerzo? Eso no quiere decir que decidirá matarnos … sino que no tenemos absolutamente ninguna idea de lo que hará una máquina así.

Sin embargo, la idea de que las máquinas nos maten directamente es quizás una reacción exagerada. Si bien las máquinas pueden causarnos daños (por ejemplo, al hacerse cargo de la fuerza laboral y obligar a muchas personas a quedar desempleadas), la idea de que las máquinas nos destruirían es, al menos en el futuro previsible, algo en el reino de la fantasía.