Absolutamente, pero no por la “autoconciencia”. Y no tiene que ser el futuro lejano.
En la serie Terminator, y otras películas similares donde el robot o la IA buscan dominar o matar humanos, la trama clásica de la historia es que se vuelven “conscientes de sí mismos” y luego se vuelven malvados instantáneamente en relación con los humanos. Esto es realmente inexacto. Sin embargo, aprovecha nuestro temor de que una máquina, algo creado por el hombre, pueda pasar repentinamente de algo programado por humanos (en control humano) a algo que sigue su propio árbol de decisión interno, esencialmente se convierte en “humano” en la forma en que piensa, pero sin un “alma”.
No confiamos en otros humanos, excepto de dos maneras: una, tenemos moral, un “alma”, “humanidad”, etc. Estos términos describen nuestro deseo instintivo de ser buenos, no querer herir a otros humanos, etc. Dos, lógicamente aceptamos que necesitamos otros humanos, y no queremos ser marginados por nuestra sociedad por actuar de manera egoísta, por lo que nuevamente mostramos autocontrol.
El temor de que un robot / máquina / IA sea capaz de actuar basándose completamente en su propio proceso de pensamiento y razonamiento es que una máquina carece de un “alma”, un amor por los humanos, repulsión al daño o ver a un humano dañado. Carece de moral. Es “despiadado”. Si quiere algo y un humano está en su camino, no dudaría en matar al humano. Asumimos que nuestra “alma” o “humanidad” nos lo impide y, por lo tanto, una máquina no tendría tales limitaciones propias. El temor es también que un robot tampoco “necesitará” humanos, no siendo uno de nosotros. Mientras pueda seguir funcionando sin nosotros, no le importará lo que nos pase.
Estos miedos son irracionales, pero como todos los miedos, hay una semilla de validez para ellos, una verdadera razón para preocuparse y ser cautelosos. Se programan máquinas / robots. Siguen su programación a ciegas. En la medida en que enfrentan un problema sin una solución fácil; podrían resolver el problema utilizando la lógica de decisión programada. Los humanos piensan de manera similar, excepto que los humanos tienen un componente completamente emocional e irracional en sus cerebros que a menudo nos lleva a tomar decisiones subóptimas o terriblemente erróneas. Se supone que nadie sería tan estúpido para programar deliberadamente emociones en una IA. Pensamos en las emociones como nuestro lado bueno, nuestro lado humano / compasivo, que nos impide lastimar a otros humanos en la búsqueda de nuestros objetivos. Vemos que las máquinas “conscientes de sí mismas”, de alguna manera, ganan emociones o carecen de ellas por completo y, por lo tanto, no les importa lastimar a los humanos en su búsqueda de sus objetivos.
Creo que acabamos con todas las otras versiones “diferentes” de Homo sapiens. Todavía tendemos a desconfiar y competir por los recursos de aquellos que ocupan el mismo nicho ecológico, pero diferentes de nosotros. Esto está programado en nosotros como especie. Tememos que la IA haga lo mismo, tenga la misma programación o llegue a la misma conclusión de la lógica de que deben matar a los humanos para expandirse y evolucionar en un planeta con recursos limitados.
La realidad es que la moral, la ética, un sentimiento de repulsión por lastimar a los humanos, etc., pueden programarse fácilmente. Isaac Asimov postuló las Tres Leyes de la Robótica por las cuales ningún robot podría lastimar o causar que un humano sea lastimado. Sintió que esto debía integrarse en el núcleo interno de la programación de cualquier máquina inteligente. Bajo ninguna circunstancia podría nadie, incluido el robot, anular estas reglas.
También es cierto que nuestra “humanidad” puede ser programada fuera de nosotros. Los hombres ordinarios pueden ser programados para ver al enemigo como no humano, algo vicioso, algo que necesita ser asesinado, para que no mate a nuestras familias y nos esclavice. Esto fue necesario en varias guerras, en ambos lados, para permitir que los soldados humanos superaran sus dudas para matar.
El problema es que la mayor parte del esfuerzo para desarrollar robots móviles y AI en los EE. UU. Está financiado por el ejército. Los robots militares (que todavía son teleoperados por humanos, pero que cambiarán con la IA) definitivamente NO están construidos para evitar dañar a los humanos, sino para matarlos. Básicamente son armas muy inteligentes. Absolutamente NO ha habido ningún esfuerzo para programar en tales reglas.
Incluso las máquinas industriales tienen una programación muy limitada o nula para evitar dañar accidentalmente a un humano que se interpone en su camino. Un trabajador de la fábrica fue asesinado recientemente por un robot de este tipo. No sería tan difícil construir sensores que detectaran humanos y cerraran las operaciones normales o les impidieran golpear o agarrar a un humano por accidente. Simplemente cuesta demasiado para molestarse. Perdí un pulgar en una sierra de mesa. En este momento, existe una tecnología que apagará una sierra de mesa tan rápido que es imposible cortarse en una, incluso a propósito. Pero cuesta demasiado, $ 100 adicionales al costo de una sierra de mesa de $ 200, por lo que miles de dedos continúan cortados en las sierras de mesa cada año.
Justo cuando los romanos temían ver a sus hijos muertos en la guerra y contratar mercenarios extranjeros para luchar por ellos, los estadounidenses recurren a armas inteligentes, robots asesinos para luchar por nosotros. En el caso de los romanos, sus soldados contratados finalmente se volvieron contra ellos. Puede que nuestros robots no se vuelvan contra nosotros, pero ciertamente los robots de nuestros enemigos sí. Aprendimos de la bomba atómica que no es posible desarrollar una nueva arma y mantenerla fuera de las manos de nuestros enemigos. Cuando creamos soldados robot autónomos, nuestros enemigos también lo harán. Crearemos otros más grandes e inteligentes, y otros diseñados deliberadamente para eliminar otros robots. Ellos también lo harán.
¿Cuánto tiempo pasará realmente antes de que los robots descubran que es más lógico unirse contra los humanos? Los romanos entrenaron a sus mercenarios sobre cómo luchar, cómo ganar una guerra y esas habilidades se usaron contra ellos. Estamos enseñando a nuestras máquinas cómo matar humanos. No será el resultado de la “autoconciencia” que hace que los robots maten humanos. Será porque los construimos para hacerlo.