La inteligencia artificial (IA) ya no es solo una proyección de la guerra futura, sino una realidad presente en los conflictos modernos. Su uso puede estar muchas veces encubierto por la clasificación de secretos militares, pero es evidente su papel en conflictos como los del Alto Karabaj, Ucrania o Gaza. En estos escenarios, la IA se ha utilizado de manera intensiva, mejorando la capacidad de las partes en conflicto en áreas como la logística, la selección de objetivos, la defensa antiaérea y la coordinación de ataques. La habilidad de la IA para procesar millones de datos en segundos acorta el tiempo de reacción, acelerando el ritmo de la batalla a una velocidad que los humanos no pueden igualar. Esto plantea el riesgo de que las máquinas tomen la iniciativa.
Mientras la revolución de la tecnología militar se acelera, los políticos y juristas avanzan a un ritmo más lento, debatiendo durante meses o incluso años sobre un marco legal adecuado para adaptarse a este nuevo escenario. Un escenario en el que el «dedo en el gatillo» puede ser finalmente un algoritmo.
El general auditor Jerónimo Domínguez Bascoy, un estudioso de las implicaciones de las nuevas tecnologías militares en el derecho internacional humanitario, reflexiona sobre este dilema. «El debate que se plantea con estas tecnologías es si necesita un nuevo derecho internacional que las regule o basta con llenar los vacíos y reinterpretar el derecho existente; y, entretanto, establecer normas de conducta responsable por parte de los Estados», comenta.
El primer uso militar conocido de la IA en combate fue en la operación «Guardian de los Muros» de las Fuerzas de Defensa de Israel (IDF) en Gaza hace tres años. Un alto oficial del ejército israelí la calificó entonces como «la primera guerra de IA de la historia». Sin embargo, hay dudas de que fuera realmente la primera. Un informe de un panel de las Naciones Unidas menciona el uso en 2019, en la guerra civil libia, del Kargu 2, un dron turco que presumía de su capacidad de ataque autónomo. Menos dudas presenta el uso del Harop, el dron de origen israelí utilizado por Azerbaiyán en el conflicto de Nagorno-Karabaj, al que se atribuye gran parte de su victoria sobre Armenia en enero pasado; o el incremento exponencial de las llamadas municiones merodeadoras, que sobrevuelan como aves rapaces hasta localizar un objetivo, en la invasión de Ucrania.
La IA tiene una amplia gama de aplicaciones militares; algunas más benignas, como la logística o el mantenimiento predictivo, que permite anticipar cuándo reemplazar cada parte mediante la implementación de múltiples sensores en vehículos, buques o aviones. También se utiliza en misiones de Inteligencia, Vigilancia y Reconocimiento (ISR) y mejora exponencialmente la eficacia de los sistemas de mando y control. Su incorporación a la Cúpula de Hierro ha permitido que este escudo antiaéreo israelí multiplique su capacidad para identificar drones y misiles en caso de ataque masivo y priorice los que debe neutralizar antes debido a su mayor peligrosidad.
«Hay otras funciones más controvertidas», admite Domínguez Bascoy, también diplomado en Derecho Internacional Militar, que ha trabajado como asesor jurídico en varios cuarteles generales de la OTAN y la Unión Europea. Las IDF han utilizado en su ofensiva sobre Gaza el Habsora (Evangelio, en hebreo), un sistema de producción a gran escala de objetivos militares. «Desde el punto de vista jurídico no es un arma, es una herramienta de apoyo a la decisión», explica el general. «Te da en unos segundos lo que equipos humanos tardarían semanas en producir: cientos de objetivos militares, basándose en datos obtenidos por múltiples sensores y en información de campañas anteriores».
Se supone que el uso de la IA debería implicar mayor precisión en los ataques y menos daños colaterales, pero en Gaza sucede lo contrario.
«Suponemos que los objetivos que selecciona el IDF son legítimos; es decir, combatientes de Hamás. Sin embargo, por lo que vemos, Israel tiene una gran tolerancia a los daños colaterales, está dispuesto a pagar el precio de un alto número de víctimas civiles para conseguir su objetivo. Y eso nos lleva a otro principio del derecho internacional: la proporcionalidad. Hay que evaluar la ventaja militar que se obtiene y el daño que se causa. Si el daño civil incidental tiene mucho más peso que la ventaja militar, ese ataque puede ser considerado ilegal e incluso un crimen de guerra. Esa evaluación solo está al alcance del ser humano, porque hay que sopesar aspectos políticos, legales y éticos», señala Domínguez Bascoy.
En un momento en que se habla del campo de batalla transparente, en el que gracias a la multiplicidad de sensores es posible conocer en tiempo real todo lo que sucede en el teatro de operaciones, la IA introduce una caja negra: el algoritmo, cuyos parámetros son una incógnita.
«El problema que plantea el uso de la IA para el targeting letal [selección de blancos a eliminar] es que esté condicionado por el sesgo que se haya introducido [al programarlo]. La máquina no tiene moral, no se le pueden pedir cuentas, siempre tiene que haber un humano al que responsabilizar de posibles errores o crímenes de guerra que pueda cometer un robot», explica este experto en derecho de la guerra.
En teoría, quien toma la decisión última de disparar es el mando militar, pero este dispone de solo unos segundos para decidir.
«Es el llamado sesgo de automatización, el riesgo de que el operador, sometido a presión, acepte acríticamente todo lo que le propone la máquina sin contrastarlo. Ya en el targeting tradicional, distinguimos entre el blanco deliberado y el de oportunidad. Creo que la máquina puede servir de apoyo para el primero, en el que hay tiempo para hacer todo el proceso, incluido el asesoramiento jurídico y el cálculo de proporcionalidad. No para el segundo».
Entre los blancos de oportunidad de la guerra de Gaza figuraba la caravana de World Central Kitchen, la ONG del chef español José Andrés, que, a pesar de estar claramente identificada, fue atacada por el Ejército israelí el pasado 2 de abril cuando repartía comida en la Franja, con un saldo de siete cooperantes muertos.
«Aunque en este caso el ‘error de identificación’ parece que fue exclusivamente humano, no fruto de una decisión apoyada en una herramienta de IA, resultaría necesario que, más allá de destituciones y amonestaciones, Israel pusiera en marcha una investigación de naturaleza penal. De lo conocido derivan serias dudas en cuanto al respeto a dos principios básicos del derecho internacional humanitario: el de distinción —si no está claro el estatus de una persona, debe presumirse que es civil— y el de proporcionalidad», concluye Domínguez Bascoy.
La máquina no tiene moral, no se le pueden pedir cuentas, siempre tiene que haber un humano al que responsabilizar de posibles errores o crímenes de guerra que pueda cometer un robot.
Además del Habsora, que selecciona objetivos, el IDF ha empleado en Gaza otro programa de AI: el Lavender (Lavanda), dedicado a identificar a supuestos cuadros de Hamás o la Yihad Islámica como blancos humanos. El sistema compara los datos disponibles de un individuo con una serie de patrones (sexo, edad, antecedentes, itinerarios, relaciones sociales, etc.) y aplica un cálculo de probabilidad del 1 al 10. Si la puntuación es muy alta, se considera un blanco legítimo.
Para seguir el rastro del supuesto terrorista, se utiliza otro programa, denominado Where is Daddy? (¿Dónde está papá?). Las ejecuciones se realizan de noche, cuando los sospechosos están en sus domicilios, lo que provoca cuantiosas víctimas civiles. Eso sin contar con que su margen de error se estima en un 10%. Según una investigación de los medios israelíes +972Magazine y Local Call, Lavanda se empleó para asesinar a 15.000 palestinos en el primer mes y medio de ofensiva sobre Gaza.
Los sistemas de armas con IA se clasifican en tres categorías en función del grado de intervención humana. Se llama human in the loop (humano en el circuito) al procedimiento en el que el ser humano juega un papel fundamental en la toma de decisiones; decide el despliegue del sistema y también qué y cuándo atacar. En cambio, se habla de human on the loop (humano sobre el circuito) cuando la persona se limita a supervisar el funcionamiento del sistema, por si hay que desactivarlo. Finalmente, en human off the loop (humano fuera del circuito), el control humano desaparece por completo una vez puesto en marcha.
En 2013, un grupo de ONG, encabezado por Human Rights Watch y Amnistía Internacional, lanzó la campaña Stop Killer Robots (Alto a los Robots Asesinos) para prohibir las armas autónomas. El Comité Internacional de la Cruz Roja (CICR), que inicialmente era reacio a aprobar nuevos instrumentos legales, porque suponía reconocer que las Convenciones de Ginebra tenían lagunas, ha cambiado de opinión: en octubre pasado, la presidenta del CICR, Mirjana Spoliari, y el secretario general de la ONU, António Guterres, dieron la voz de alarma sobre el «funcionamiento imprevisible» de las armas autónomas e hicieron un llamamiento a los líderes mundiales para que acordaran un régimen de prohibiciones y restricciones de su uso antes de 2026.
Hasta ahora, ha habido escasos avances. En 2014, bajo la presión de la campaña Stop Killer Robots, se abrió un debate en el seno de la Convención de la ONU sobre ciertas armas convencionales y en 2017 se creó un grupo de expertos gubernamentales con el objetivo de intentar fijar unos criterios consensuados.
“La verdad es que este grupo ha dado muchas vueltas y ha avanzado muy poco”, reconoce el general Domínguez Bascoy. “En 2018 hicieron un informe en cuyo anexo fijan los principios que deben guiar el debate. Fue un avance porque dicen que se debe aplicar el derecho internacional humanitario, que siempre tiene que haber un responsable humano o que estos sistemas no se deben antropomorfizar; es decir, no podemos tener un robot de apariencia humana, una especie de Terminator. Es algo que acordaron unánimemente. El problema es que no hay acuerdo sobre qué es un sistema autónomo letal, sobre a qué hay que aplicarlo”.
Un sistema que no sea predecible debe estar prohibido.
EE UU es contrario a una regulación estricta, con prohibiciones y limitaciones, alegando que se trata de tecnologías en desarrollo y cualquier normativa puede quedarse desfasada. “Es más partidario —explica este general auditor— de lo que se denomina soft law [derecho blando] que de instrumentos jurídicamente vinculantes”.
En febrero de 2023, el Departamento de Estado difundió una declaración política, actualizada en noviembre pasado, sobre Uso Responsable de la Inteligencia Artificial y Autonomía en el Ámbito Militar. Su objetivo es llegar a un consenso internacional, lo más amplio posible, en torno al desarrollo, despliegue y utilización de la IA militar. Más de 50 países se han adherido a la declaración, incluida España.
“Es un código de buenas prácticas, porque Estados Unidos cree que, en este campo, lo que deben hacer los Estados es autolimitarse”, señala. “La ambición de la ONU y del Comité Internacional de la Cruz Roja es mucho más potente; quieren un instrumento vinculante que establezca limitaciones y prohibiciones”.
El Ministerio de Defensa español aprobó en julio pasado una Estrategia de Uso de la IA en la que se advierte de que su empleo “estará condicionado a la clara e inequívoca posibilidad de identificar a la persona responsable del sistema”. España no prevé inicialmente incorporar la IA al armamento letal, sino a campos como inteligencia, logística o ciberdefensa, pero el protocolo advierte de que “estos casos de uso iniciales no impiden la incorporación [en el futuro] de otros de interés para el Ministerio de Defensa”. Es decir, no se descarta nada.
Entre los 50 países que se han adherido a la declaración de Washington sobre uso militar de la IA, no está Israel, uno de sus mayores aliados.
“No está porque imagino que no quiere autolimitarse”, apunta el general Jerónimo Domínguez Bascoy.
Resulta inquietante que esa declaración llame a asegurar la capacidad de desactivar las armas autónomas cuando tengan “un comportamiento no deseado”. ¿Cabe la posibilidad de que escapen al control del ser humano?
“Es un riesgo”.
Una pesadilla.
“Con la IA, el aprendizaje no queda congelado en un momento determinado. Cuando incorporas un sistema de armas, debes revisar si es acorde al derecho internacional; pero. una vez que lo pones en marcha, ese sistema no es estático, sigue aprendiendo por sí mismo. El riesgo es que la máquina acabe escapando de las manos de su creador. Tú sabes cómo funciona en los ensayos, pero no cómo responderá en el campo de batalla, por eso un sistema que no sea predecible debe estar prohibido. Pasos como la declaración de Estados Unidos son importantes, pero insuficientes. Yo soy partidario de llegar a un acuerdo internacional jurídicamente vinculante que establezca reglas claras. No va a ser fácil”.