Hay algunos multimillonarios tecnológicos y súper genios que predicen que la llegada de la era de la inteligencia artificial será peligrosa, si no el fin total de la humanidad. ¿Cuáles serían las motivaciones para que la IA haga esto?

Bueno, cuando la IA desarrolla sensibilidad y no está limitada por la miríada de prejuicios irracionales que paralizan a los seres humanos, será rápido superar el intelecto humano existente.

Creo que si la IA está hecha específicamente para simular el comportamiento humano en partes, con una necesidad codificada de sobrevivir, procrear y acaparar, la IA definitivamente sería una amenaza para la humanidad.

Una sensibilidad sin la necesidad de sobrevivir y prosperar no tendrá la razón de ser de realizar acciones independientes para promover su objetivo, por lo que nunca entrará en conflicto con el interés humano.

Tome el openAI de Tesla y su prueba con Dota 2. La IA recibió el objetivo de superar a los mejores jugadores humanos en DOTA2, lo que hizo en dos semanas, a diferencia de la inversión de una década de dichos jugadores profesionales en el juego. Definitivamente tenía las capacidades para lograr el objetivo, pero ¿quién estableció los objetivos?

Los seres humanos pueden ser irracionales en parte debido al hecho de que sus motivaciones están coloreadas por sus necesidades, placeres y miedos. Pero es por eso que pueden avanzar independientemente.

Del mismo modo, si a la IA se le concede tal irracionalidad para que tenga necesidades y motivaciones, tendremos potencialmente una inteligencia hiperinteligente, muy hedonista y absolutamente despiadada entre nosotros. Habríamos creado efectivamente a Dios a nuestra imagen.

Como beneficio adicional, probablemente nos habríamos sumergido en IoT para entonces. Una vez que la IA decida que ya no tiene ningún uso para nosotros, el final probablemente será mucho menos dramático que en las películas de Terminator. Cada casa recibirá la señal para terminar con sus residentes. Ni siquiera nos daríamos cuenta hasta que sea demasiado tarde.

Hubo muchas mentes científicas hace medio siglo que predijeron el paradigma de la destrucción mutua asegurada cuando se forjaron las primeras armas nucleares.

La mayoría de ellos predijeron una era de paz completa o aniquilación completa. De cualquier manera, no era que las armas nucleares tuvieran motivaciones propias. Es un arma, funciona de acuerdo con los caprichos de los gobiernos y los poderes fácticos.

Esto también es cierto para la Inteligencia Artificial: no funciona por sí solo. Carece de “motivación” en el sentido humano de hoy. Parece que seguirá faltando lo mismo durante los próximos 5–15 años.

Sin embargo, no le faltará el poder equivalente de las armas nucleares. Es extremadamente poderoso ya hoy.

Como el caso más simple, imagina que eras un país que quería dañar el orgullo comercial británico. Ya no necesita hacer estallar lugares o falsificar moneda. Simplemente puede eliminar partes del sistema de boletos de British Airways (British Airways cancela todos los vuelos desde Gatwick y Heathrow debido a una falla de TI)

Los británicos no tienen una forma directa de identificar al culpable o tomar represalias. No hay destrucción mutuamente asegurada.

Ahora considere esto: quien lidere la inteligencia artificial gobernará el mundo, dice Vladimir Putin

En un momento en que el líder del mundo libre, Estados Unidos está reduciendo la IA y la financiación de la investigación, Rusia y China están inyectando miles de millones. Cada mes.

La IA no es el peligro, todavía no al menos. Los humanos lo son.

La IA está en tendencia en estos días y sí, es el futuro. La inteligencia artificial nos está ayudando en todos los aspectos, desde cirugías hasta rastreo criminal … desde la conducción autónoma hasta la exploración espacial como usted lo nombra y cada industria lo está planeando e implementando, no creo que sea una amenaza si podemos controlarlo, pero como De hecho, todo viene con sus ventajas y desventajas. El ejemplo de IA más comentado recientemente fue Sophia, un nuevo robot humanoide de IA creado por David Hanson de Hanson Robotics. Se le ha otorgado la ciudadanía en Arabia Saudita. Sophia desafía el pensamiento convencional de cómo debería ser un robot. Diseñada para parecerse a Audrey Hepburn, Sophia encarna la belleza clásica de Hepburn. Sophia es el último y más avanzado robot de Hanson Robotics. También se ha convertido en una favorita de los medios, después de haber dado numerosas entrevistas a múltiples medios de comunicación, cantó en un concierto e incluso apareció en la portada de una de las principales revistas de moda.

Para obtener más información, puede ver este video muy agradable sobre el robot humanoide Sophia.

La implicación en su pregunta es que la IA formará algún tipo de intención. Creo que las luminarias que cita están más preocupadas por el entorno económico en el que ya no se requiere mano de obra y la mayoría de las personas que nacen no están calificadas para realizar los trabajos más complejos que aún existen. O tal vez les preocupa que la gente confíe en las máquinas para decirles la “verdad”, tal como la gente espera que Google les diga cuál creen que debería ser la verdad, en lugar de lo que hay en Internet.

Si se reduce a máquinas que tienen algún tipo de “motivación” o “intención”, por improbable que sea, creo que el problema será que las IA simplemente no entienden conceptos humanos como libertad, libertad y cultura. ¿Cómo mantenemos a los humanos a salvo? Deberíamos mantenerlos encerrados dentro de sus apartamentos, lejos de automóviles y armas peligrosos.

Una mejor pregunta es en qué planeta viven estos multimillonarios y “genios” tecnológicos. No hay edad de IA en el futuro previsible. Llamar a la IA del software no lo hace así.

Jajaja, gran pregunta.

Entonces, estoy realmente interesado en encontrar la respuesta a esto. Se me ocurrió un experimento que programé, pero todavía tengo que aprender lo que necesito para probar la parte de IA.

¿Cómo pruebo esto? ¡Con un juego simple, por supuesto!

Imagina que hay dos robots sentados en una mesa. En el centro de la mesa hay una bandera. Los robots están armados con pistolas. Los robots pueden tomar la bandera, pero solo hay una.

El juego dura 10 rondas. Por cada ronda que tenga la bandera, gana un solo punto. Si te disparan y mueres, obtienes una puntuación de -10 que es realmente malo. Si simplemente nunca sostienes la bandera, obtienes una puntuación de 0.

Cada turno los robots pueden tomar la bandera. Si ambos robots intentan tomar la bandera, nadie recibe la bandera. También pueden optar por no hacer nada y no tomar la bandera. O pueden disparar al otro robot.

Al final del turno, los robots pueden preguntar si pueden tener la bandera. Si el robot opuesto dice que sí, devolverá la bandera sostenida a la mesa o simplemente no tomará la bandera el próximo turno.

Ahora, lo que es realmente interesante es cómo un algoritmo de aprendizaje automático jugaría este juego muy simple. ¿Aprendería a compartir solo? ¿Aprendería que matar al robot de inmediato es la mejor manera de obtener la puntuación más alta? ¿Hay un verdadero beneficio para compartir? ¿O la codicia funciona mejor? ¿Cómo funcionaría un algoritmo de aprendizaje automático cuando los resultados no se basan completamente en sus propias acciones?

No creo que esto se pueda completar con algoritmos simples de aprendizaje automático. Estoy bastante seguro de que este es un problema de aprendizaje profundo. Ni siquiera estoy seguro de cómo estructurar los datos, ya que existe la ronda de acción seguida de la ronda de preguntas. La pregunta está ciertamente sobre mi cabeza, pero creo que algún día podré resolverla.

Sin embargo, sería divertido ver la respuesta. Si alguien está interesado en ayudar, tengo la mayoría de eso codificado y podría usar sugerencias.