¿Hay alguna justificación para crear una torreta automatizada con capacidades como la de este video?

Defensa de los centros de población civil.

Este es el sistema de defensa antimisiles de Iron Dome:

Se utiliza principalmente para detectar y eliminar automáticamente las amenazas de cohetes entrantes y ataques de mortero que tienen lugar en Israel por las fuerzas de Hamas. Los ataques de fuego indiscriminados indirectos se volvieron tan comunes y tan mortales para la gente de la región, que las Fuerzas de Defensa de Israel invirtieron miles de millones. Estos sistemas se implementaron para proteger los pueblos y ciudades más vulnerables a ellos.

Sí, obviamente también se usan para proteger los activos militares, y no, estas no son torretas automáticas que disparan proyectiles semiautomáticos o automáticos como lo que haya en tu video. Sin embargo, estos responden a la pregunta de cómo justificamos la tecnología que, a primera vista, es injustificable.

En el caso de Iron Dome tenemos un sistema de armas 100% automatizado. Eso significa que no hay supervisión humana, que yo sepa. Pero con toda honestidad, no podría haberlo. Las armas que se utilizan contra las ciudades se mueven demasiado rápido y son demasiado pequeñas para que los observadores humanos las perciban. En segundo lugar, incluso con la ayuda de algún tipo de sistema de detección automática, no hay tiempo para que un humano reaccione a la amenaza, incluso en situaciones ideales. Dicho esto, la única solución es eliminar el elemento humano y cambiar a un sistema totalmente automatizado si desea salvar vidas.

Entonces la defensa es tu respuesta.

Chris Everett hizo un gran trabajo al mostrar esto, así que realmente mi respuesta es solo una elaboración suya. El quid de su argumento parece centrarse en el aspecto automatizado y si esto es moral. Creo que he demostrado que, moralmente, es justificable.

Por supuesto, también estás pensando que esta tecnología solo será letal. Te sorprendería lo rápido que la gente dejará de hacer negocios desagradables una vez que se les moleste, en lugar de simplemente matarlos. Cuando consideramos la munición no letal, este tipo de cosas comienzan a abrir puertas por todas partes. Veo un futuro masivo para esto en los campos de prevención del delito y control de disturbios. Aquí hay un video que hace mi punto bastante bien:

Se pueden disparar balas de goma, gases lacrimógenos, bolas de pintura, elementos de disuasión sónicos e incluso bocanadas de aire para disuadir a los roedores de sistemas como este y los del futuro.


¡Gracias por leer!

Para obtener más respuestas como esta, consulte On War de Jon Davis y siga mi blog The War Elephant para obtener más contenido nuevo. Todo lo que escribo es una investigación completamente independiente y está respaldado por promesas de seguidores y seguidores. Considere mostrar su apoyo directamente visitando mi página de soporte de Patreon aquí: Jon Davis en Patreon: Ayuda para escribir novelas, artículos y ensayos militares.

¿Una pistola totalmente automatizada con seguimiento automático sobre dos ejes?

Malas noticias para usted, que en realidad se creó en 1973 y se implementó por primera vez en 1980.

Se utiliza principalmente para derribar misiles, proyectiles de mortero, etc.

No hay un componente moral en la tecnología. Pero en este caso, esta tecnología es casi puramente una aplicación defensiva. Se utiliza para proteger barcos o unidades terrestres del fuego entrante. De hecho, la única forma de usarlo como arma ofensiva sería ponerlo en modo manual.

Argumentos que se usarán para drones autónomos de decisión de matar

  1. Reducción de bajas en el lado que las tiene. – Las democracias modernas son cada vez más recelosas de tener a sus ciudadanos en riesgo en las guerras porque verlos morir en la televisión o YouTube generalmente es muy impopular. Poder participar en la fuerza en un campo de batalla remoto con menos o ninguna gente del lado de los portadores de los drones es muy convincente política y emocionalmente. La gran mayoría de los líderes militares odian la muerte de quienes están bajo su mando porque son humanos. Los envían a la batalla y a la muerte por lo que creen que es un bien mayor, pero lo evitarían si pudieran.
  2. Minimizar el costo de la batalla : el costo de una vida humana individual aumenta rápidamente, incluso en la era de 7-9 mil millones de personas en la faz de la tierra. Entrenar a los soldados para que sean efectivos en la guerra asimétrica con armas modernas y sistemas de comunicación al mismo tiempo que no destruye el objetivo de ganar corazones para reducir la rebelión posterior no es barato. Ser honorable con sus heridas, muerte o captura cuesta mucho dinero. Proteger las bolsas de carne débiles agrega volumen y costo significativos. Los drones de decisión de matar producidos en masa podrían ser fácilmente más baratos que los humanos.
  3. Especialización : es mucho más fácil crear un dron letal que pueda caber a través de una tubería de 8 “o volar con alas de menos de 2 metros o viajar bajo el agua de lo que es hacer que un ser humano haga esas cosas.
  4. Mayor capacidad de supervivencia : los drones pueden hacerse mucho más robustos físicamente con mucha más facilidad y sobrevivir en entornos mucho más hostiles (calor, frío, impacto, toxinas, falta de oxígeno, llamas) que un ser humano. Hacer que un humano sobreviva al fuego de un rifle mientras también es capaz de moverse es mucho más difícil de lo que es para un dron.
  5. Dividendos de guerra : hay mucho dinero en las carreras armamentistas. Hay muchos trabajos civiles en casa en fábricas de municiones de varios tipos. Se realizan muchos grupos de presión para garantizar que el dinero y los trabajos continúen fluyendo. San Diego, en este momento, es el epicentro de la tecnología estadounidense de drones aéreos y está recibiendo aumentos económicos debido a ello.
  6. Números : los países ricos con poblaciones pequeñas tienen ejércitos que tienen un miedo específico: países muy poblados que envían un millón de soldados contra ellos. Los enjambres de esa magnitud son difíciles de movilizar, obviamente, y sus cadenas de suministro son interrumpibles, pero son muy difíciles de detener. Un millón de guerreros flexibles y autoadaptables es un escenario de pesadilla. Pero si puedes producir un millón de drones más difíciles de matar, más letales y con decisiones de matar bastante baratas en las fábricas de producción en masa, entonces, de repente, el juego de números se ve muy diferente.
  7. Escisiones civiles : hay una tonelada de procesamiento visual especializado, mapeo espacial, motores de decisión multifactoriales que tienen que trabajar en tiempo real para adquirir un objetivo en situaciones complejas y luego evaluar la hostilidad y la permisibilidad como objetivo. Activar el interruptor es fácil. Todas esas tecnologías especializadas y arcanas se vuelven aplicables a drones de búsqueda y rescate, vehículos autónomos, tecnologías de prevención del delito, tecnologías de detección de terrorismo, etc. El potencial de las tecnologías que pueden tomar la difícil decisión de elegir con precisión a quién matar puede se aplicará en un gran número de aplicaciones que ayudan a las personas a vivir, pero como muchas cosas como Internet, el gobierno es el que tiene el dinero para gastar en desarrollarlo.

Argumentos que se usarán contra drones autónomos con decisión de matar

  1. Guerra honorable : en esto, la creencia de que hay honor en participar en la violencia sobre conflictos que típicamente limitan los recursos potencialmente consideraría que el uso de drones es deshonroso, pero ha sido cierto con cada avance en la tecnología marcial que algunas personas no les gustará La innovación. A menudo están del lado perdedor.
  2. Miedo al mal funcionamiento o la subversión : si una máquina decide a quién matar, ¿qué evitará que un pirata informático cambie su algoritmo de objetivo o lo subvierta de alguna manera para que ataque a tropas amigas o civiles? ¿O qué pasa si solo hay un error en el código?
  3. Miedo a Skynet : algunas personas se opondrán a los drones autónomos con decisión de matar por miedo a evolucionar para luchar contra todos los humanos, no solo contra los enemigos designados.
  4. Minas terrestres combinadas con soldados japoneses : la gente argumentará que algunos de estos dispositivos continuarán operativos después de que las hostilidades hayan cesado o las lealtades hayan cambiado, y se involucrarán en acciones letales en curso. Teniendo en cuenta los requisitos de energía, esto es menos probable que con las minas terrestres pasivas, pero seguirá siendo una preocupación.
  5. Responsabilidad humana : desde esta perspectiva, es moral, ético o legalmente requerido que un ser humano tome la decisión de comprometer un objetivo específico. Eliminar a un ser humano de la decisión de apuntar empuja esa decisión un paso más allá de la muerte de un ser humano, lo que tiene ramificaciones potenciales. En la actualidad, las trampas explosivas y las minas terrestres actúan pasivamente de esta manera hoy en día, y como resultado se desaniman fuertemente por las convenciones internacionales.
  6. Flexibilidad humana : un soldado puede recoger una pistola, una venda o una pala. Un soldado puede caminar, correr, conducir un camión o trepar a un árbol. Un soldado puede escalar paredes escarpadas, correr por pendientes empinadas, saltar entre huecos y caminar sobre rocas con relativa facilidad. En medio de un compromiso, un soldado individual puede cambiar las misiones a algo completamente diferente, suponiendo que el material necesario esté disponible. Los humanos pueden improvisar herramientas. No hay una manera fácil de construir drones tan flexibles. (La pregunta es cuál es el motor de guerra de propósito especial: los drones de propósito especial utilizados para la mayoría de las funciones básicas, o los humanos de propósitos múltiples utilizados solo cuando es necesario).

Para una lectura de ficción divertida que juega con muchos de estos argumentos a favor y en contra, lee Kill Decision de Daniel Suárez.
Amazon.com: Kill Decision eBook: Daniel Suarez: Tienda Kindle

¿Cuál es la diferencia moral entre presionar un botón y encender el CIWS y dejar que active las amenazas entrantes o que reconozca una amenaza, categorice y lance un misil para enfrentarla?

En cualquier caso, una vez que he tomado la decisión de presionar el botón, la autonomía incorporada en el arma se hace cargo para concluir el combate. ¿Es el argumento semántico el grado de autonomía o la autonomía misma?

Tenga en cuenta que los sistemas como CIWS están diseñados para una amenaza específica. Un ser humano remando en una canoa no lo activará. CIWS está diseñado para hacer frente a las amenazas aéreas que se mueven a gran velocidad hacia él. Si bien no conocemos los detalles exactos del diseño, la mayoría de los sistemas como este utilizan información del sensor como firmas de radar, medición de velocidad (como el radar Doppler), infrarrojos y similares para determinar si esta visión sintética del mundo coincide o no con una amenaza perfil. Entonces, y solo entonces, se activa el sistema.

Lo mismo se aplica a cualquier buscador de misiles. Especialmente en los misiles Sidewinder y AIM-120 AMRAAM que son armas robóticas puras de “dispara y olvida”. El Sidewinder, una vez lanzado, es totalmente autónomo. No requiere ni recibe ninguna entrada adicional del avión que lo lanzó. El AIM-120 tiene un modo controlado y uno terminal. Puede recibir información de orientación de la aeronave que dispara a través del enlace de datos y, en el momento apropiado, puede solicitarse o entrará en la fase terminal a medida que se acerca al objetivo y cambia a su buscador interno. Es totalmente autónomo como Sidewinder. Hay una razón por la cual el apodo del AIM-120 es “Slammer”. Los informes anecdóticos comparan el uso de un AIM-120 en combate con las “focas bebé”.

Los torpedos submarinos funcionan de la misma manera que AIM-120. Lo he hecho por décadas. Guiado a la vecindad del objetivo que recibe actualizaciones del barco de lanzamiento y luego se suelta para atacar por sí solo.

Los misiles de crucero son lo último en autonomía. Un misil de ataque terrestre Tomahawk es literalmente un avión robótico que vuela y ataca por sí solo. Puede ser guiado por radar, GPS y / o televisión / guía de imagen. Y se puede lanzar desde cientos de millas de distancia. Volarán el curso que han sido programados hasta que alcancen su objetivo (u objetivos, pueden atacar múltiples en algunas configuraciones) y luego buscarán el objetivo y se matarán contra él.

Tenga en cuenta que en un momento el Tomahawk y su primo, el AGM-86, estaban equipados con ojivas nucleares. Entonces, tenía estos aviones robóticos totalmente autónomos capaces de salir y destruir ciudades y países enteros con solo presionar un botón.

Justificamos estos sistemas porque preferimos enviar robots en lugar de personas en nuestro lugar. Esa es la parte aterradora de esta aplicación de tecnología: la habilidad de hacer la guerra sin arriesgar el capital humano en comparación con un enemigo. El hecho de que la guerra ponga en peligro a las poblaciones de ambas naciones es un gran impedimento para hacerlo a gran escala. Con la tecnología, ese equilibrio puede cambiar. Los aviones autónomos y los aviones no tripulados no son una idea nueva. Han estado en uso desde finales de la década de 1960.

Pero los sistemas terrestres autónomos o con drones están al alcance. Y con eso, ya no tienes que enviar tropas para mantener el terreno ocupado. Solo las botas en el suelo pueden defenderlo. Pero, ¿qué sucede cuando envío sistemas suficientemente avanzados que pueden mantenerse en lugar de la carne humana? De repente, las fuerzas enemigas se encuentran en desventaja. Pueden morir desalojando a los invasores tecnológicos, pero mientras las líneas de producción funcionan, el otro lado puede enviar más. ¿Cuál es más fácil de reemplazar? ¿Un soldado entrenado o un avión no tripulado bajo el control de un soldado en un sillón a medio mundo de distancia?

De repente, la expresión de Robert E. Lee ” Está bien que la guerra sea tan terrible, de lo contrario deberíamos encariñarnos demasiado de ella”. toma un giro completamente diferente. Cuando la guerra solo se vuelve terrible para un lado del conflicto, la disposición a participar en un conflicto por razones menores aumenta exponencialmente. Hemos visto esto con la “diplomacia de misiles de crucero” de la década de 1990 y las redadas de la década de 1980. ¿Imagínese si se pueden combatir conflictos completos con países enteros sin poner en peligro a las personas o los recursos de un lado y diezmar al otro?

Ese es el peligro social de tales tecnologías. Y tiene profundas implicaciones para las interacciones en el escenario nacional en tiempos de conflicto.

No necesita ser un experto en robótica para responder esta pregunta 🙁
Como parte del problema moral que surge esta pregunta, hay algunos problemas pragmáticos que deben considerarse:

1) ¿Podemos tener un sistema robótico lo suficientemente confiable como para distinguir objetivos reales de uno “inocente”? Incluso si el sistema de reconocimiento de visión tuviera una tasa de éxito del 99,9% (para su información, esto es probablemente más de lo que puede garantizar el estado actual de la técnica), significa que 1 de cada 1000 personas muere accidentalmente. No es aceptable en mi opinión.

2) En caso de accidente, ¿quién será considerado responsable de la pérdida humana? ¿El robot constructor? Tengo la sensación de que este tipo de asesinos autónomos podría convertirse en una excusa para lavarse las manos en caso de muerte de personas civiles.

Davide

EDITAR:

¿Es un robot más culpable que una bomba? Como una bomba es una máquina que es activada por un humano y no tiene “voluntad”, el robot también es solo una máquina que actúa de acuerdo con la forma en que fue programada.
Cuando decimos que el robot toma una “decisión”, queremos decir que está ejecutando un software que alguien más escribió.

¿No estás buscando respuestas morales? Los problemas morales pueden muy bien ser el mayor problema con los robots asesinos totalmente autónomos. Un arma que dispara cualquier cosa que se mueva matará a combatientes y civiles inocentes por igual. Es una violación de la moral y de la Convención de Ginebra, que prohíbe explícitamente * el asesinato indiscriminado de civiles *. La convención de Ginebra también requiere que sus militares tomen como prisioneros a cualquiera que se rinda, y si su robot “dispara a cualquier cosa que se mueva” los dispara, esa es otra violación de las leyes internacionales de guerra.

Cumpliendo estrictamente con la justificación práctica, esto es algo que el ejército de los EE. UU. Parece estar investigando y promoviendo mucho, sin embargo, desde mi perspectiva limitada, parece un medio muy costoso y potencialmente problemático para resolver un número extremadamente limitado de situaciones.

Baso esta evaluación en parte en conocimientos previos, en parte en lo que he visto de tales robots autónomos en programas documentales de televisión, y en parte en evidencia de primera mano de un conocido, un ex mayor de SAS, que ha tenido experiencia real con ellos en la guerra escenarios de juegos, cuando se descubrió que un solo disparo de un francotirador podría desactivar fácilmente un robot así mucho antes de que lo detectara, algo aparentemente silenciado por los defensores del robot.

Tengo que preguntarme si esa tecnología militar, aunque también tiene muchas aplicaciones civiles, no es un caso de investigación y desarrollo por sí mismo, y una “justificación” para continuar vertiendo miles de millones de dólares en la máquina de guerra.

Supongo que alguien podría haber hecho el mismo argumento cuando se inventó el arco y la flecha: ya no necesitamos que alguien golpee al otro chico en la cabeza con un palo. Simplemente tire de la cuerda, apunte y el resto sucede automáticamente.

Siempre hay una decisión moral y un actor moral, aunque es posible que deba rastrearlo más. Por ejemplo, la persona que activa el interruptor de encendido.

¿por qué arriesgarías a las buenas personas de tu nación a luchar y morir por su país cuando pueden estar en casa bebiendo un refresco y atacando a las personas con un robot controlado? ¿Por qué no serían una buena idea (siempre y cuando estén controlados)? Son controlados por personas para que tengan la misma sensibilidad aún más sin el pánico de estar allí.

La gente ha estado haciendo tecnología de asesinatos durante 100,000 años y la “justificación” es siempre la misma.

Puede preguntar si esta tecnología es tan inmoral y peligrosa como para ser inaceptable. Tal vez. Pero en el alcance total de las máquinas de matar “permisibles”, esto no parece ser lo peor.

Podría ser útil