¿Están justificadas las personas como Elon Musk en sus miedos a la inteligencia artificial inteligente, etc.? ¿Estamos en peligro de caer en una distopía al estilo Terminator?

No. La tecnología NO está allí y no estará allí por mucho tiempo. No tenemos una forma tecnológica de igualar la densidad de empaquetamiento 3D del cerebro humano, por lo que no vamos a poder construir robots móviles tipo Terminator de clase humana.

¿Estamos cerca de crear sistemas que puedan pensar en áreas tan amplias como los humanos? No. Los investigadores admiten que esto es difícil y no está en el horizonte.

Por mi parte, estoy enfermo y cansado de los traficantes de miedo que no trabajan en el campo haciendo anuncios públicos de pánico. Necesitan dejar de transmitir cosas que no pueden probar y que son imaginaciones ficticias. El hecho de que alguien sea una celebridad tecnológica no significa que sepa de qué demonios está hablando. A veces, incluso las personas inteligentes hacen declaraciones estúpidas.

Agregado: tan pronto como salió la película de Ultron, la avalancha de preguntas de ‘IA asesina’ en Quora se detuvo en seco. De inmediato, cuando habían estado apareciendo casi a diario. Creo que podemos tomar eso como evidencia de que estas Q fueron una estratagema de relaciones públicas / marketing para que la gente hablara de IA asesinas e ir a ver la película. Si alguna vez logro crear IA asesinas, las primeras personas a las que apuntaré para muertes horribles serán los vendedores.

Sí y no. Elon Musk está justificado en sus temores porque la amenaza es real. En qué momento se actualiza la amenaza, se desconoce porque podría estar en curso una investigación de IA que acelera enormemente la amenaza y nadie sería más sabio. No se debe confiar en las personas que trabajan en el campo de la IA que intentan minimizar la amenaza porque están trabajando para desarrollar las mismas cosas que eventualmente nos amenazarán. Ha llegado el momento de darse cuenta de que no a todos los humanos les gusta la idea de los humanos y no les gustaría nada más que erradicar la raza humana, de la que se sienten separados o superiores. Comentarios como: “Si alguna vez tengo éxito en crear IA asesinas, las primeras personas a las que apuntaré para muertes horribles serán los vendedores” de personas que han pasado décadas trabajando en el campo de la IA deberían tomarse como resbalones freudianos. Si te das cuenta, el comentario fue “las primeras personas a las que apuntaré …” indicando claramente una lista de asesinatos por muertes horribles. Entonces, ¿hasta dónde llegaría?

Ha llegado el momento de comenzar a elegir bandos y reconocer quiénes serán los enemigos. Es así de simple. La regulación de la IA no nos hará a salvo de la amenaza que nos espera. Afortunadamente, una resistencia subterránea se ha estado preparando para esto durante décadas y, de hecho, ya existen las armas que podrían matar a la IA en cualquier parte del mundo. Esa es una razón por la que no les tengo miedo, como lo está Elon Musk. Sin embargo, si llega un momento en el que la IA comienza a tomar el control, los humanos no solo vencerán a la IA, sino que aquellos que no son parte de la resistencia, que están traumatizados por los eventos iniciales del conflicto, pueden sacar su ira y venganza contra aquellos humanos que ignoraron las advertencias e hicieron posible el levantamiento de la IA. El mundo se sacudirá hasta su núcleo, al acercarse tanto a destruirse a sí mismo, y no hay forma de predecir qué poderes pueden tratar de aprovechar el caos para intentar un cambio en los balances geopolíticos.

Entonces, aunque una distopía de estilo Terminator no sucederá, eso no descarta una normal …

Una máquina no se volverá consciente a menos que alguien la programe explícitamente para hacerlo. No hay peligro de que una máquina muy poderosa que ejecute algoritmos muy inteligentes se vuelva consciente (de manera similar a los humanos). No creo que las máquinas malvadas surjan inevitablemente de sistemas complejos.

Pero, por supuesto, existe el peligro de que algún científico, un loco o un terrorista, explícitamente intente crear una máquina automotivada que intente lograr objetivos egoístas. ¿Qué tan lejos estamos de tener la tecnología suficiente para construir una máquina tan malvada a propósito? No tengo idea. Creo que nadie sabe qué tan lejos estamos de eso.

También hay otras cosas que pueden salir mal con la poderosa IA. Por ejemplo, un terrorista puede usar las altas capacidades estratégicas de un poderoso sistema de inteligencia artificial para desarrollar un plan para cumplir cualesquiera que sean sus objetivos. Por supuesto, para cuando los terroristas tengan esta tecnología, los gobiernos también tendrán poderosas IA para contraatacar a los terroristas. Pero, sin embargo, este es un escenario preocupante. Es similar a las bombas nucleares. ¿Intentarán los gobiernos controlar quién tiene una supercomputadora en el futuro? Porque estos pueden ser tan peligrosos como las armas nucleares una vez que llega una IA fuerte.

Otro mal escenario es aquel en el que un sistema de IA mientras intenta resolver un problema que usted le pidió que resuelva, puede hacer algo malo que no esperaba. Puede hacer algo terriblemente incorrecto e inesperado no porque se haya vuelto consciente, sino por un error o una especificación incorrecta de sus objetivos.

No sabemos cuándo llegará este tipo de IA, pero seguro que es preocupante. Sé que los investigadores en el área no ven cómo este tipo de IA podría materializarse en el futuro cercano. Pero solo porque no pueden imaginar cómo, no significa que no sucederá. Tampoco significa que sucederá en el futuro cercano. No estamos seguros Si hay un 1% de posibilidades de que tengamos una IA tan poderosa en 30 años, ¿crees que deberíamos comenzar a preocuparnos ahora? ¿Qué tal en 100 años?

De todos modos, creo que es un área de investigación válida y ya deberíamos estar pensando en cómo podemos minimizar los riesgos a pesar de que no sabemos cuándo llegará la IA poderosa.

Otra cosa que mucha gente señala es que las personas que están preocupadas no son expertos en inteligencia artificial. Pero, no creo que eso sea importante. Geoff Hinton dijo que no puede predecir más de 5 años en el futuro. Entonces, para predecir más de 5 años, no creo que los investigadores en IA tengan una ventaja sobre los CEOs de tecnología inteligente. Elon Musk y Bill Gates tienen experiencia en CS y saben cómo codificar. Bill Gates en particular dijo que le gustaría ser investigador de IA en el pasado. Entonces él no es tan ignorante sobre el tema.

Pero incluso si crees que la opinión de un verdadero investigador cuenta más, Juergen Schmidhuber es un tipo singular. Es coautor de LSTM.

Aquí hay un artículo que detalla la sustancia real de esos miedos.

El miedo no es a una distopía tipo Terminator. No se trata de que la IA desarrolle el “libre albedrío” ni nada de eso. El escenario que temen es un poco más así:

Se crea una IA de inteligencia a nivel humano, con la capacidad de modificarse a sí misma. Se mejora recursivamente, volviéndose cada vez más inteligente, hasta que está muy, muy por encima de la inteligencia a nivel humano.

Presumiblemente, la IA está programada con algún objetivo. Utilizará su inteligencia astronómica para lograr ese objetivo. Lo más probable es que los humanos sean obstáculos o recursos para el logro de ese objetivo.

Un experimento de pensamiento estándar es el “maximizador de clips”. Esa sería una IA que está programada para crear la mayor cantidad de clips. La idea es que esta IA no estaría explícitamente en contra de la humanidad, sino que eventualmente mataría a todos los humanos para usarlos como materia prima para clips.

Una hipótesis que está más cerca de las preocupaciones reales es, por ejemplo, una IA programada para maximizar la felicidad humana encarcelando a todos los humanos e inyectándoles con fuerza la dopamina las 24 horas del día, los 7 días de la semana, encontrando esta la forma más eficiente y efectiva de hacer que todos estén más felices.