Las máquinas autónomas capaces de ejercer fuerza letal son cada vez más frecuentes en la guerra moderna, a pesar de las numerosas preocupaciones éticas. 


Abren las puertas traseras de la camioneta y el sonido de los drones cuadricópteros crecen. Activan un interruptor y los zánganos surgen como murciélagos de una cueva. En unos segundos, pasamos a un aula universitaria. Los robots asesinos inundan a través de ventanas y conductos de ventilación. Los estudiantes gritan de terror, atrapados dentro, mientras los drones atacan con fuerza letal.

¿Hay algo que podamos hacer para detener el avance de los robots asesinos? El video es desolador. Dos hombres amenazadores están parados junto a una camioneta blanca en un campo, sosteniendo controles remotos.

La lección que la película, Slaughterbots, está tratando de impartir es clara: diminutos robots asesinos son, ya sea aquí o un pequeño avance tecnológico de distancia. Los terroristas podrían desplegarlos fácilmente. Y las defensas existentes son débiles o inexistentes. Algunos expertos militares argumentaron que Slaughterbots, que fue creado por el Future of Life Institute, una organización que investiga amenazas existenciales a la humanidad, sensacionalizó un problema grave, avivando el miedo donde se requería una reflexión tranquila. 

Pero cuando se trata del futuro de la guerra, la línea entre la ciencia ficción y el hecho industrial suele ser borrosa. La fuerza aérea de Estados Unidos ha predicho un futuro en el que “los equipos Swat enviarán insectos mecánicos equipados con cámaras de video para deslizarse dentro de un edificio durante un enfrentamiento con rehenes”.

Un “colaborativo de microsistemas” ya ha lanzado Octoroach, un “robot extremadamente pequeño con una cámara y un transmisor de radio que puede cubrir hasta 100 metros en el suelo”. Es sólo una de las muchas armas “biomiméticas“, o imitadores de la naturaleza, que están en el horizonte.

Quién sabe cuántas otras criaturas nocivas son ahora modelos para los teóricos militares de vanguardia. Una novela reciente de PW Singer y August Cole, ambientada en un futuro cercano en el que Estados Unidos está en guerra con China y Rusia, presentó una visión caleidoscópica de drones autónomos, láseres y satélites secuestrados. El libro no puede descartarse como una fantasía tecno-militar: incluye cientos de notas a pie de página que documentan el desarrollo de cada pieza de hardware y software que describe.

Los avances en el modelado de máquinas de matar robóticas no son menos inquietantes. Una historia de ciencia ficción rusa de los años 60, Cangrejos en la isla, describía una especie de Juegos del hambre para la IA, en los que los robots luchaban entre sí por los recursos. Los perdedores serían eliminados y los ganadores aparecerían, hasta que algunos evolucionaran para convertirse en las mejores máquinas de matar. 

Cuando un científico informático líder mencionó un escenario similar a la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (Darpa), llamándolo un “Parque Jurásico robot”, un líder allí lo llamó “factible”. No hace falta mucha reflexión para darse cuenta de que tal experimento tiene el potencial de salirse de control. 

El gasto es el principal impedimento para que una gran potencia experimente con máquinas tan potencialmente destructivas. El modelado de software puede eliminar incluso esa barrera, permitiendo que las simulaciones virtuales probadas en batalla inspiren futuras inversiones militares.

En el pasado, los estados nacionales se han unido para prohibir nuevas armas particularmente espantosas o aterradoras. A mediados del siglo XX, las convenciones internacionales prohibieron las armas biológicas y químicas. La comunidad de naciones también ha prohibido el uso de tecnología de láser cegador. Una sólida red de ONG ha instado con éxito a la ONU a convocar a los estados miembros para acordar una prohibición similar de robots asesinos y otras armas que pueden actuar por sí mismas, sin control humano directo, para destruir un objetivo (también conocido como sistemas de armas autónomas letales m, o leyes). Y si bien ha habido un debate sobre la definición de dicha tecnología, todos podemos imaginar algunos tipos de armas particularmente aterradoras que todos los estados deberían acordar nunca fabricar o desplegar. Un dron que calienta gradualmente a los soldados enemigos hasta la muerte violaría las convenciones internacionales contra la tortura; las armas sónicas diseñadas para dañar la audición o el equilibrio de un enemigo deberían merecer un tratamiento similar. Un país que diseñó y utilizó tales armas debería ser exiliado de la comunidad internacional.

En abstracto, probablemente podamos estar de acuerdo en que el ostracismo – y un castigo más severo – también es merecido para los diseñadores y usuarios de robots asesinos. La sola idea de una máquina suelta para matar es escalofriante. Y, sin embargo, algunos de los ejércitos más grandes del mundo parecen estar avanzando hacia el desarrollo de tales armas, siguiendo una lógica de disuasión: temen ser aplastados por la IA de sus rivales si no pueden desatar una fuerza igualmente potente. La clave para resolver una carrera armamentista tan intratable puede estar menos en los tratados globales que en un replanteamiento cauteloso de para qué se puede usar la IA marcial. Mientras “la guerra llega a casa”, El despliegue de fuerza de grado militar dentro de países como Estados Unidos y China es una severa advertencia para sus ciudadanos: cualquier tecnología de control y destrucción que permita que su gobierno compre para usar en el extranjero ahora puede ser usada en su contra en el futuro.


¿Son los robots asesinos tan horribles como las armas biológicas? No necesariamente, argumentan algunos teóricos militares e informáticos del establishment. Según Michael Schmitt, del Colegio de Guerra Naval de EE. UU., los robots militares podrían vigilar los cielos para asegurarse de que una matanza como la de Saddam Hussein de kurdos y árabes de los pantanos no pudiera volver a ocurrir. Ronald Arkin del Instituto de Tecnología de Georgia cree que los sistemas de armas autónomos pueden “reducir la inhumanidad del hombre hacia el hombre a través de la tecnología”, ya que un robot no estará sujeto a ataques de ira, sadismo o crueldad demasiado humanos. Ha propuesto sacar a los humanos del círculo de decisiones sobre la focalización, mientras codifica las limitaciones éticas en robots. Arkin también ha desarrollado una clasificación de objetivos para proteger sitios como hospitales y escuelas.

En teoría, una preferencia por la violencia mecánica controlada en lugar de la violencia humana impredecible podría parecer razonable. Las masacres que tienen lugar durante la guerra a menudo parecen tener su origen en una emoción irracional. Sin embargo, a menudo nos reservamos nuestra más profunda condena no por la violencia realizada en el calor de la pasión, sino por el asesino premeditado que planeó fríamente su ataque. La historia de la guerra ofrece muchos ejemplos de masacres planificadas con más cuidado. Y seguramente cualquier sistema de armas robóticas probablemente esté diseñado con algún tipo de función de anulación, que sería controlada por operadores humanos, sujetos a todas las pasiones e irracionalidad humanas normales.

Un soldado francés lanza un dron en el norte de Burkina Faso.
 Un soldado francés lanza un dron en el norte de Burkina Faso. Fotografía: Michele Cattani / AFP / Getty

Cualquier intento de codificar la ley y la ética en robots asesinos plantea enormes dificultades prácticas. El profesor de informática Noel Sharkey ha argumentado que es imposible programar un robot guerrero con reacciones a la infinita variedad de situaciones que podrían surgir en el fragor del conflicto. Al igual que un automóvil autónomo desvalido por la nieve que interfiere con sus sensores, un sistema de armas autónomo en la niebla de la guerra es peligroso.

La mayoría de los soldados testificarían que la experiencia diaria de la guerra son largos períodos de aburrimiento interrumpidos por repentinos y aterradores episodios de desorden. Estandarizar los relatos de tales incidentes, con el fin de orientar las armas robóticas, podría ser imposible. El aprendizaje automático ha funcionado mejor donde hay un conjunto de datos masivo con ejemplos claramente entendidos de lo bueno y lo malo, lo correcto y lo incorrecto. Por ejemplo, las compañías de tarjetas de crédito han mejorado los mecanismos de detección de fraudes con análisis constantes de cientos de millones de transacciones, donde los falsos negativos y los falsos positivos se etiquetan fácilmente con una precisión de casi el 100%. ¿Sería posible “datafiar” las experiencias de los soldados en Irak?, decidir si disparar a enemigos ambiguos? Incluso si lo fuera, ¿qué tan relevante sería ese conjunto de datos para las ocupaciones de, digamos, Sudán o Yemen (dos de las muchas naciones con algún tipo de presencia militar estadounidense)?

Dadas estas dificultades, es difícil evitar la conclusión de que la idea de máquinas de matar robóticas éticas no es realista y es muy probable que sustente fantasías peligrosas de guerras de botones y matanzas sin culpa.


El derecho internacional humanitario, que rige los conflictos armados, plantea aún más desafíos a los desarrolladores de armas autónomas. Un principio ético clave de la guerra ha sido el de la discriminación: exigir a los atacantes que distingan entre combatientes y civiles. Pero la guerra de guerrillas o insurgentes se ha vuelto cada vez más común en las últimas décadas, y los combatientes en tales situaciones rara vez usan uniformes, por lo que es más difícil distinguirlos de los civiles. Dadas las dificultades que enfrentan los soldados humanos a este respecto, es fácil ver el riesgo aún mayor que representan los sistemas de armas robóticas.

Los defensores de tales armas insisten en que los poderes de discriminación de las máquinas solo están mejorando. Incluso si esto es así, es un gran salto de lógica suponer que los comandantes usarán estos avances tecnológicos para desarrollar principios justos de discriminación en el fragor y la confusión de la guerra. Como ha escrito el pensador francés Grégoire Chamayou, la categoría de “combatiente” (un objetivo legítimo) ya ha tendido a “diluirse de tal manera que se extiende a cualquier forma de pertenencia, colaboración o presunta simpatía por algún militante organización”.

El principio de distinguir entre combatientes y civiles es solo una de las muchas leyes internacionales que rigen la guerra. También existe la regla de que las operaciones militares deben ser “proporcionales”: se debe lograr un equilibrio entre el daño potencial a los civiles y la ventaja militar que podría resultar de la acción. La fuerza aérea estadounidense ha descrito la cuestión de la proporcionalidad como “una determinación intrínsecamente subjetiva que se resolverá caso por caso”. No importa qué tan bien la tecnología controle, detecte y neutralice las amenazas, no hay evidencia de que pueda participar en el tipo de razonamiento sutil y flexible esencial para la aplicación de leyes o normas, incluso levemente ambiguas.https://www.theguardian.com/email/form/plaintone/the-long-readReciba las lecturas largas premiadas de The Guardian directamente a usted todos los sábados por la mañana.

Incluso si asumiéramos que los avances tecnológicos podrían reducir el uso de fuerza letal en la guerra, ¿sería siempre algo bueno? Al examinar la creciente influencia de los principios de derechos humanos en los conflictos, el historiador Samuel Moyn observa una paradoja: la guerra se ha vuelto a la vez “más humana y más difícil de terminar”. Para los invasores, los robots evitan a los políticos la preocupación de que las bajas aviven la oposición en casa. Un puño de hierro en el guante de terciopelo de la tecnología avanzada, los drones pueden imponer la vigilancia suficiente para pacificar a los ocupados, evitando el tipo de derramamiento de sangre devastador que provocaría una revolución o una intervención internacional.

En esta visión robotizada de “dominación humana”, la guerra se parecería cada vez más a una acción policial extraterritorial. Los enemigos serían reemplazados por personas sospechosas sujetas a detención mecanizada en lugar de a la fuerza letal. Por muy salvavidas que pueda ser, sugiere Moyn, el enorme diferencial de poder en el corazón de las ocupaciones tecnológicas no es una base adecuada para un orden internacional legítimo.

Chamayou también es escéptico. En su perspicaz libro Drone Theory , recuerda a los lectores la masacre de 10.000 sudaneses en 1898 por una fuerza anglo-egipcia armada con ametralladoras, que a su vez solo sufrió 48 bajas. Chamayou califica al dron como “el arma de la violencia poscolonial amnésica”. También arroja dudas sobre si los avances en robótica darían como resultado el tipo de precisión que prometen los fanáticos de los robots asesinos. Los civiles son asesinados de forma rutinaria por drones militares piloteados por humanos. Eliminar esa posibilidad puede implicar un futuro igualmente sombrío en el que los sistemas informáticos lleven a cabo una vigilancia tan intensa de las poblaciones en cuestión que puedan evaluar la amenaza que representa cada persona dentro de ella (y liquidarlos o evitarlos en consecuencia).

Los defensores de los drones dicen que el arma es clave para una guerra más discriminatoria y humana. Pero para Chamayou, “al descartar la posibilidad de combate, el dron destruye la posibilidad misma de cualquier diferenciación clara entre combatientes y no combatientes”. La afirmación de Chamayou puede parecer una hipérbole, pero considere la situación sobre el terreno en Yemen o en el interior de Pakistán: ¿Existe realmente alguna resistencia seria que los “militantes” puedan sostener contra una corriente de cientos o miles de vehículos aéreos no tripulados que patrullan sus cielos? Un entorno tan controlado equivale a una fusión inquietante de guerra y vigilancia, despojada de las restricciones y salvaguardias que se han establecido para al menos intentar hacer responsables a estos campos.


H¿Cómo deberían responder los líderes mundiales a la perspectiva de estas nuevas y peligrosas tecnologías de armas? Una opción es tratar de unirse para prohibir por completo ciertos métodos de matar. Para comprender si esos acuerdos internacionales de control de armas podrían funcionar o no, vale la pena mirar al pasado. La mina terrestre antipersonal, diseñada para matar o mutilar a cualquiera que la pisara o se acercara, fue una de las primeras armas automatizadas. Aterrorizó a los combatientes de la Primera Guerra Mundial. Barato y fácil de distribuir, las minas continuaron utilizándose en conflictos menores en todo el mundo. Para 1994, los soldados habían colocado 100 millones de minas terrestres en 62 países.

Las minas continuaron devastando e intimidando a la población durante años después de que cesaron las hostilidades. Las víctimas de las minas comúnmente perdieron al menos una pierna, a veces dos, y sufrieron laceraciones colaterales, infecciones y traumatismos. En 1994, 1 de cada 236 camboyanos había perdido al menos una extremidad a causa de las detonaciones de las minas.

Soldados estadounidenses junto a un robot detector de minas terrestres en Afganistán.
 Soldados estadounidenses junto a un robot detector de minas terrestres en Afganistán. Fotografía: Wally Santana / AP

A mediados de la década de los noventa, había un creciente consenso internacional sobre la prohibición de las minas terrestres. La Campaña Internacional para la Prohibición de las Minas Terrestres presionó a los gobiernos de todo el mundo para que las condenaran. La mina terrestre no es tan letal como muchas otras armas pero, a diferencia de otras aplicaciones de fuerza, podría mutilar y matar a los no combatientes mucho después de que termina la batalla. En 1997, cuando la campaña para prohibir las minas terrestres ganó el premio Nobel de la paz, decenas de países firmaron un tratado internacional, con fuerza vinculante, comprometiéndose a no fabricar, almacenar o desplegar tales minas.

Estados Unidos objetó, y hasta el día de hoy no ha firmado la convención de armas contra las minas terrestres. En el momento de las negociaciones, los negociadores de EE. UU. Y el Reino Unido insistieron en que la solución real al problema de las minas terrestres era asegurar que las minas futuras se apagaran automáticamente después de un período de tiempo fijo o que tuvieran algunas capacidades de control remoto. Eso significaría que un dispositivo podría apagarse de forma remota una vez que cesen las hostilidades. Por supuesto, también podría volver a encenderse.

El solucionismo tecnológico de Estados Unidos encontró pocos seguidores. En 1998, decenas de países habían firmado el tratado de prohibición de las minas. Más países se unieron cada año desde 1998 hasta 2010, incluidas las principales potencias como China. Si bien la administración Obama tomó algunas medidas importantes para limitar las minas, el secretario de defensa de Trump las ha revertido . Este cambio radical es solo una faceta de un nacionalismo belicoso que probablemente acelerará la automatización de la guerra.


YOEn lugar de prohibir los robots asesinos, el establecimiento militar estadounidense prefiere la regulación. Las preocupaciones sobre el mal funcionamiento, los fallos técnicos u otras consecuencias no deseadas del armamento automatizado han dado lugar a un discurso mesurado de reforma en torno a la robótica militar. Por ejemplo, el PW Singer de la New America Foundation permitiría que un robot hiciera “uso autónomo solo de armas no letales”. Entonces, un dron autónomo podría patrullar un desierto y, por ejemplo, aturdir a un combatiente o envolverlo en una red, pero la “decisión de matar” quedaría en manos de los humanos. Bajo esta regla, incluso si el combatiente intentó destruir el dron, el dron no podría destruirlo.

Tales reglas ayudarían a la transición de la guerra al mantenimiento de la paz y, finalmente, a una forma de vigilancia. El tiempo entre las decisiones de captura y muerte podría permitir el debido proceso necesario para evaluar la culpa y establecer un castigo. Singer también enfatiza la importancia de la rendición de cuentas, argumentando que “si un programador hace volar una aldea entera por error, debe ser procesado penalmente”.

Mientras que algunos teóricos militares quieren codificar robots con ética algorítmica, Singer se basa sabiamente en nuestra experiencia de siglos con la regulación de personas Para garantizar la responsabilidad por el despliegue de “algoritmos de guerra”, los militares deberían asegurarse de que los robots y los agentes algorítmicos sean rastreables e identificados con sus creadores. En el contexto nacional, los académicos han propuesto una “placa de matrícula para drones”, para vincular cualquier acción imprudente o negligente con el propietario o controlador del dron. Tiene sentido que una regla similar, algo así como “Un robot siempre debe indicar la identidad de su creador, controlador o propietario”, debería servir como regla fundamental de guerra y su violación castigada con sanciones severas.

Sin embargo, ¿qué probabilidades hay de que los programadores de robots asesinos sean realmente castigados? En 2015, el ejército estadounidense bombardeó un hospital en Afganistán y mató a 22 personasIncluso cuando estaba ocurriendo el bombardeo, el personal del hospital llamó frenéticamente a sus contactos en el ejército estadounidense para rogarle que se detuviera. Los seres humanos han sido directamente responsables de los ataques con aviones no tripulados en hospitales, escuelas, bodas y otros objetivos inapropiados, sin consecuencias proporcionales. La “niebla de la guerra” excusa todo tipo de negligencia. No parece probable que los sistemas legales nacionales o internacionales impongan más responsabilidad a los programadores que causan una carnicería similar.


WEaponry siempre ha sido un gran negocio, y una carrera armamentista de IA promete ganancias a los conocedores de la tecnología y políticamente bien conectados. El asesoramiento contra las carreras armamentistas puede parecer completamente irreal. Después de todo, las naciones están invirtiendo recursos masivos en aplicaciones militares de IA, y muchos ciudadanos no lo saben o no les importa. Sin embargo, esa actitud inactiva puede cambiar con el tiempo, a medida que aumenta el uso doméstico de la vigilancia de la IA, y esa tecnología se identifica cada vez más con oscuros aparatos de control, en lugar de poderes locales democráticamente responsables.

La IA militar y de vigilancia no se usa solo, ni siquiera principalmente, en enemigos extranjeros. Se ha reutilizado para identificar y luchar contra los enemigos internos. Si bien nada parecido a los ataques del 11 de septiembre ha surgido durante casi dos décadas en los EE. UU., las fuerzas de seguridad nacional han utilizado silenciosamente herramientas antiterroristas contra delincuentes, fraudes de seguros e incluso manifestantes. En China, el gobierno ha promocionado la amenaza del “terrorismo musulmán” para reunir a un porcentaje considerable de sus uigures en campos de reeducación e intimidar a otros con constantes inspecciones telefónicas y perfiles de riesgo. Nadie debería sorprenderse si algunos equipos chinos alimentan un aparato de inteligencia nacional de EE. UU., mientras que el gobierno chino coopta enormes empresas de tecnología de EE. UU.

Un robot policial que hace cumplir las reglas del coronavirus en Shenzhen, China, en marzo de 2020.
 Un robot policial que hace cumplir las reglas del coronavirus en Shenzhen, China, en marzo. Fotografía: Alex Plavevski / EPA

El avance del uso de la IA en el ejército, la policía, las prisiones y los servicios de seguridad es menos una rivalidad entre las grandes potencias que un lucrativo proyecto global de las élites corporativas y gubernamentales para mantener el control sobre las poblaciones inquietas en el país y en el extranjero. Una vez desplegados en batallas y ocupaciones distantes, los métodos militares tienden a encontrar un camino de regreso al frente interno. Primero se despliegan contra minorías impopulares o relativamente impotentes, y luego se extienden a otros grupos. Los funcionarios del Departamento de Seguridad Nacional de EE. UU. han dotado a los departamentos de policía locales con tanques y armaduras. Los alguaciles estarán aún más entusiasmados con la evaluación de amenazas y objetivos basados en inteligencia artificial. Pero es importante recordar que hay muchas formas de resolver los problemas sociales. No todos requieren una vigilancia constante junto con la amenaza mecanizada de la fuerza.

De hecho, esta puede ser la forma menos eficaz de garantizar la seguridad, ya sea a nivel nacional o internacional. Los drones han permitido a los EE. UU. mantener una presencia en varias zonas ocupadas durante mucho más tiempo del que hubiera persistido un ejército. La presencia constante de un vigilante robótico, capaz de alertar a los soldados de cualquier comportamiento amenazante, es una forma de opresión. Las fuerzas de defensa estadounidenses pueden insistir en que las amenazas de partes de Irak y Pakistán son lo suficientemente amenazantes como para justificar una vigilancia constante, pero ignoran las formas en que tales acciones autoritarias pueden provocar la misma ira que se supone que debe sofocar.

En la actualidad, el complejo militar-industrial nos está acelerando hacia el desarrollo de enjambres de drones que operan independientemente de los humanos, aparentemente porque solo las máquinas serán lo suficientemente rápidas para anticipar las contraestrategias del enemigo. Esta es una profecía autocumplida, que tiende a estimular el desarrollo de la misma tecnología por parte del enemigo que supuestamente justifica la militarización de los algoritmos. Para salir de este ciclo autodestructivo, debemos cuestionar todo el discurso reformista de impartir ética a los robots militares. En lugar de mejoras marginales de un camino hacia la competencia en la capacidad de lucha, necesitamos un camino diferente: hacia la cooperación y la paz, por frágil y difícil que sea su logro.

En su libro “cómo todo se convirtió en guerra y las fuerzas armadas se convirtieron en todo”, la exfuncionaria del Pentágono Rosa Brooks describe una creciente comprensión entre los expertos estadounidenses en defensa de que el desarrollo, la gobernanza y la ayuda humanitaria son tan importantes para la seguridad como la proyección de la fuerza, si no más. Un mundo con más recursos reales tiene menos motivos para emprender guerras de suma cero. También estará mejor equipado para luchar contra enemigos naturales, como los nuevos coronavirus. Si Estados Unidos hubiera invertido una fracción de su gasto militar en capacidades de salud pública, es casi seguro que hubiera evitado decenas de miles de muertes en 2020.

Para que prevalezca esta mentalidad más expansiva y humana, sus defensores deben ganar una batalla de ideas en sus propios países sobre el papel adecuado del gobierno y las paradojas de la seguridad. Deben desviar los objetivos políticos de la dominación en el extranjero hacia la satisfacción de las necesidades humanas en casa. Al observar el crecimiento del estado de seguridad nacional de EE. UU., lo que él considera el “imperio depredador”, el autor Ian GR Shaw pregunta:

Últimas Entradas:

“¿No vemos el ascenso del control sobre la compasión, la seguridad sobre el apoyo, el capital sobre el cuidado y la guerra sobre el bienestar? “Detener ese ascenso debería ser el objetivo principal de la política contemporánea de inteligencia artificial y robótica.


FUENTE: https://www.theguardian.com/news/2020/oct/15/dangerous-rise-of-military-ai-drone-swarm-autonomous-weapons

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios .