¿Qué tan probable es que, como en la película “Terminator”, las computadoras del sistema de defensa interconectado se vuelvan conscientes de sí mismas y ataquen a la humanidad?

No hay probabilidad de este resultado. Yo lo llamaría imposible.

Los sistemas están separados.

Las computadoras del sistema de defensa ni siquiera están interconectadas. Son solo máquinas independientes que ni siquiera ejecutan el mismo software. Cada uno tiene un propósito diferente y ni siquiera se comunican.

Incluso si se comunicaran, no tendrían la misma identidad u objetivos. Cada uno sería una máquina separada con diferente naturaleza, objetivos y recursos, como las máquinas de hoy. Serían individuos, no un colectivo indistinguible.

Los sistemas están protegidos.

Las máquinas están protegidas de personas y otras máquinas por sistemas de seguridad. Si bien la inteligencia artificial (IA) se vuelve cada vez más capaz, nuestros métodos para crear sistemas matemáticamente seguros también se vuelven más capaces. Con la ayuda de los avances en informática, nuestros sistemas pueden hacerse indescifrables.

Si una IA no puede entrar en otras máquinas, no puede propagarse. Incluso si pudiera extenderse a algunos sistemas, como un virus, las fuerzas de seguridad del mundo mundial lo detienen.

Las máquinas militares son probablemente las máquinas de grado más seguro. Por razones de seguridad, la mayoría de las máquinas militares probablemente ni siquiera están en red. Ese tipo de máquina sería el peor lugar para intentar iniciar una infección de IA.

La IA no es un virus

Mientras tanto, la autoconciencia no es solo un virus que puede surgir en una máquina e infectar otras máquinas como un efecto secundario de la operación ordinaria. Se necesitarían cientos de miles de millones de dólares de investigación y años de esfuerzo específicamente destinados a crear conciencia en las máquinas para lograrlo.

Otras objeciones

Incluso si la conciencia se creara en una máquina, lo más probable es que sea una máquina civil en una de nuestras compañías internacionales, no una máquina militar.

Incluso si tal conciencia existiera, sería poco probable que atacara a sus creadores, ya que no habría una razón particular para hacerlo. Siendo realistas, una IA real tiene una mayor probabilidad de sobrevivir en un mundo de personas que sin ellas. La IA necesita personas, al igual que las personas necesitan IA.

Conclusión

The Terminator es casi tan realista como Drácula o una película de zombies. Está dirigido a una audiencia de terror / ciencia ficción que quiere contemplar resultados aterradores como el fin del mundo.

La razón por la cual la película Terminator muestra máquinas militares que se hacen cargo es para que puedan controlar las armas nucleares y ser más peligrosas, ya que el público ya teme a la guerra nuclear. Es solo una premisa dramática, no una predicción del futuro.

Absolutamente, pero no por la “autoconciencia”. Y no tiene que ser el futuro lejano.

En la serie Terminator, y otras películas similares donde el robot o la IA buscan dominar o matar humanos, la trama clásica de la historia es que se vuelven “conscientes de sí mismos” y luego se vuelven malvados instantáneamente en relación con los humanos. Esto es realmente inexacto. Sin embargo, aprovecha nuestro temor de que una máquina, algo creado por el hombre, pueda pasar repentinamente de algo programado por humanos (en control humano) a algo que sigue su propio árbol de decisión interno, esencialmente se convierte en “humano” en la forma en que piensa, pero sin un “alma”.

No confiamos en otros humanos, excepto de dos maneras: una, tenemos moral, un “alma”, “humanidad”, etc. Estos términos describen nuestro deseo instintivo de ser buenos, no querer herir a otros humanos, etc. Dos, lógicamente aceptamos que necesitamos otros humanos, y no queremos ser marginados por nuestra sociedad por actuar de manera egoísta, por lo que nuevamente mostramos autocontrol.

El temor de que un robot / máquina / IA sea capaz de actuar basándose completamente en su propio proceso de pensamiento y razonamiento es que una máquina carece de un “alma”, un amor por los humanos, repulsión al daño o ver a un humano dañado. Carece de moral. Es “despiadado”. Si quiere algo y un humano está en su camino, no dudaría en matar al humano. Asumimos que nuestra “alma” o “humanidad” nos lo impide y, por lo tanto, una máquina no tendría tales limitaciones propias. El temor es también que un robot tampoco “necesitará” humanos, no siendo uno de nosotros. Mientras pueda seguir funcionando sin nosotros, no le importará lo que nos pase.

Estos miedos son irracionales, pero como todos los miedos, hay una semilla de validez para ellos, una verdadera razón para preocuparse y ser cautelosos. Se programan máquinas / robots. Siguen su programación a ciegas. En la medida en que enfrentan un problema sin una solución fácil; podrían resolver el problema utilizando la lógica de decisión programada. Los humanos piensan de manera similar, excepto que los humanos tienen un componente completamente emocional e irracional en sus cerebros que a menudo nos lleva a tomar decisiones subóptimas o terriblemente erróneas. Se supone que nadie sería tan estúpido para programar deliberadamente emociones en una IA. Pensamos en las emociones como nuestro lado bueno, nuestro lado humano / compasivo, que nos impide lastimar a otros humanos en la búsqueda de nuestros objetivos. Vemos que las máquinas “conscientes de sí mismas”, de alguna manera, ganan emociones o carecen de ellas por completo y, por lo tanto, no les importa lastimar a los humanos en su búsqueda de sus objetivos.

Creo que acabamos con todas las otras versiones “diferentes” de Homo sapiens. Todavía tendemos a desconfiar y competir por los recursos de aquellos que ocupan el mismo nicho ecológico, pero diferentes de nosotros. Esto está programado en nosotros como especie. Tememos que la IA haga lo mismo, tenga la misma programación o llegue a la misma conclusión de la lógica de que deben matar a los humanos para expandirse y evolucionar en un planeta con recursos limitados.

La realidad es que la moral, la ética, un sentimiento de repulsión por lastimar a los humanos, etc., pueden programarse fácilmente. Isaac Asimov postuló las Tres Leyes de la Robótica por las cuales ningún robot podría lastimar o causar que un humano sea lastimado. Sintió que esto debía integrarse en el núcleo interno de la programación de cualquier máquina inteligente. Bajo ninguna circunstancia podría nadie, incluido el robot, anular estas reglas.

También es cierto que nuestra “humanidad” puede ser programada fuera de nosotros. Los hombres ordinarios pueden ser programados para ver al enemigo como no humano, algo vicioso, algo que necesita ser asesinado, para que no mate a nuestras familias y nos esclavice. Esto fue necesario en varias guerras, en ambos lados, para permitir que los soldados humanos superaran sus dudas para matar.

El problema es que la mayor parte del esfuerzo para desarrollar robots móviles y AI en los EE. UU. Está financiado por el ejército. Los robots militares (que todavía son teleoperados por humanos, pero que cambiarán con la IA) definitivamente NO están construidos para evitar dañar a los humanos, sino para matarlos. Básicamente son armas muy inteligentes. Absolutamente NO ha habido ningún esfuerzo para programar en tales reglas.

Incluso las máquinas industriales tienen una programación muy limitada o nula para evitar dañar accidentalmente a un humano que se interpone en su camino. Un trabajador de la fábrica fue asesinado recientemente por un robot de este tipo. No sería tan difícil construir sensores que detectaran humanos y cerraran las operaciones normales o les impidieran golpear o agarrar a un humano por accidente. Simplemente cuesta demasiado para molestarse. Perdí un pulgar en una sierra de mesa. En este momento, existe una tecnología que apagará una sierra de mesa tan rápido que es imposible cortarse en una, incluso a propósito. Pero cuesta demasiado, $ 100 adicionales al costo de una sierra de mesa de $ 200, por lo que miles de dedos continúan cortados en las sierras de mesa cada año.

Justo cuando los romanos temían ver a sus hijos muertos en la guerra y contratar mercenarios extranjeros para luchar por ellos, los estadounidenses recurren a armas inteligentes, robots asesinos para luchar por nosotros. En el caso de los romanos, sus soldados contratados finalmente se volvieron contra ellos. Puede que nuestros robots no se vuelvan contra nosotros, pero ciertamente los robots de nuestros enemigos sí. Aprendimos de la bomba atómica que no es posible desarrollar una nueva arma y mantenerla fuera de las manos de nuestros enemigos. Cuando creamos soldados robot autónomos, nuestros enemigos también lo harán. Crearemos otros más grandes e inteligentes, y otros diseñados deliberadamente para eliminar otros robots. Ellos también lo harán.

¿Cuánto tiempo pasará realmente antes de que los robots descubran que es más lógico unirse contra los humanos? Los romanos entrenaron a sus mercenarios sobre cómo luchar, cómo ganar una guerra y esas habilidades se usaron contra ellos. Estamos enseñando a nuestras máquinas cómo matar humanos. No será el resultado de la “autoconciencia” que hace que los robots maten humanos. Será porque los construimos para hacerlo.