¿Es la inteligencia artificial para la batalla algo bueno o malo?

Lo bueno y lo malo es difícil de evaluar, pero aquí hay algunos puntos que pueden presentar algunos problemas críticos que plantea la IA (o más exactamente, la delegación de procesos de decisión a no humanos).

Estás en guerra y envías tu dron armado al campo. El papel del dron es identificar y, si es necesario, eliminar la amenaza (mientras “por supuesto” sigue las reglas de la cruz roja). El robot identifica una amenaza y bueno … la elimina. Resulta que la “amenaza” era un niño de 8 años jugando con un juguete kalashnikov. Error justo: es humano (y el algoritmo de reconocimiento humano de aprendizaje automático no produjo un falso positivo esta vez … sí), estaba apuntando con un arma al dron (quiero decir que realmente parecía un kalashnikov) y usando niños como soldado. aunque despreciable y en contra de las convenciones, no es algo inaudito. Y cuando la IA preguntó “¿qué tan malvados son nuestros oponentes?” Naturalmente respondimos “por más malvados que puedan ser los hombres”, por lo que puede haber influido en la decisión del niño como una amenaza, pero bueno, no sé cosas de computadora. El robot actuó diligentemente y no es un error sino una característica.

Ahora, si hubiera un error, como la última vez que disparó a un niño de 4 años con un palo, eso sería un problema. ¿Pero de quién sería el problema? ¿Es el problema del desarrollador? (duh: quiero decir, si el software no funciona, es culpa del desarrollador, ¿verdad? e incluso cuando el comportamiento y el rendimiento del programa dependen en gran medida de lo que ha visto el robot … oh, el estúpido desarrollador se va a quejar de que no entrenamos al robot bastante bien y echarnos la culpa a nosotros). ¿Es culpa del “operador”? Quiero decir, ¿el tipo decidió enviar esta máquina de muerte sin supervisión aunque el desarrollador dijo que aún no estaba lista? Pero, ¿cómo puede saber cuándo está listo? nunca tuvimos este problema con los humanos si no están listos para la guerra y hacen algo estúpido, la culpa es de ellos … pero una máquina, ¿cómo puedo saber si se puede culpar? hey tal vez es la idea? sí, culpemos a la pieza de metal y cambiemos el funcionamiento de todos los sistemas legales al considerar a una máquina como responsable.

Y esta última oración hace que el problema desaparezca. O lo hace? A menos que esta IA implemente alguna forma de sentimiento, lo que probablemente no hace lo menos que quieras de un soldado / arma es tener esas cosas desordenadas (ni hay nada remotamente cercano en AI a la complejidad del sentimiento humano), es Es difícil decir que tomó esta decisión por odio (un sentimiento) o miedo (un sentimiento de nuevo) … La IA simplemente tomó los datos, procesó la información, (con suerte) equilibró cada decisión contra (lo que puede entender) de las convenciones internacionales y ejecutó la decisión. Por supuesto, esta máquina está utilizando un software tan complejo que un error podría haberse deslizado o confundirse (la percepción es algo difícil y un soldado lastima erróneamente a un civil porque no entendió la situación) y mientras conocemos la máquina tomé una decisión fría / imparcial, la decisión puede ser problemática de todos modos para nosotros, que somos un poco más sesgados (quiero decir, un niño puede ser humano pero es tan lindo … un poco sesgado, ¿no?).

Luego viene el otro problema también: piense en la guerra donde un lado está usando máquinas complejas basadas en IA y el otro está demandando herramientas más clásicas (es decir, soldados). ¿Crees que sería una situación justa o una masacre? Un lado significa reducir la defensa del otro es destruir máquinas: la mayor pérdida es el dinero … algo importante en la guerra, pero en realidad no es un gran problema, excepto para los contribuyentes. Las pérdidas del otro lado afectarán a su familia, amigos, y no hay que olvidar que su vida será mucho menos interesante ahora que están muertos.
Lo que está en juego es mucho más alto para el lado “humano” que cuando ambos lados juegan de forma relativamente equitativa. Y esto puede plantear la pregunta “¿el tipo con IA fue a la guerra o simplemente jugó? ¿Y si este último se da cuenta de que asesinó a miles de humanos?” La IA puede haber reflexionado sobre la decisión, pero ¿la persona que los envió se dio cuenta de las consecuencias? ¿Poder ir a la guerra sin responsabilidad directa (como enviar a tus propios compatriotas) es algo que puede desensibilizarte del impacto de la guerra?

Luego viene la pregunta más pragmática sobre la IA y su aceptación social. ¿Realmente crees que tener la primera IA totalmente autónoma que sea básicamente un arma ayudaría de alguna forma a su aceptación social? o dicho de otro modo, si una IA en una etapa temprana se arruina, ¿prefiere que tenga la capacidad de limpiarlo (porque está armado) o simplemente la capacidad de estropear su batido (porque reemplazó al cocinero mal pagado en McDonald)? Elija uno: Sé que el batido de leche de mal sabor es malo, pero no es como si nunca hubiéramos tenido uno y todavía sobrevivimos, ¿verdad?

Un poco de reflexión sobre este tema, de una serie original del episodio de Star Trek:

Una muestra de Armagedón

TOS – S01E24 – Una muestra de Armagedón

¿Es realmente más civilizado que las máquinas luchen en las guerras, cuando finalmente las guerras solo pueden ser resueltas por la gente?

La respuesta debe darse con mucho detalle. Aqui tienes:
¿AI ES IGUAL A LA DESTRUCCIÓN? El | MAL IMPACTO EN LA HUMANIDAD