La inteligencia artificial en defensa: la gota que colma el vaso del derecho internacional

Hace unos días, Ucrania anunció su intención de retirarse de la Convención de Ottawa, que prohíbe el uso de minas antipersonal . Polonia y los países bálticos ya habían hecho lo mismo; Estados Unidos, Israel, Rusia y China, por su parte, nunca la firmaron. La decisión no es nada marginal: las minas antipersonal, por definición, violan el derecho internacional humanitario y afectan indiscriminadamente a combatientes y civiles incluso muchos años después del fin de las hostilidades. Las generaciones italianas de la posguerra saben algo al respecto. Las generaciones ucranianas probablemente también lo sepan: se estima que aproximadamente una cuarta parte del territorio nacional está actualmente minado.
Pero la trascendencia de la decisión va más allá de la contingencia bélica. Transmite un mensaje político preocupante: cuando la guerra se intensifica, las limitaciones del derecho humanitario se vuelven negociables, superables .
Es un mensaje que proviene de muchos sectores. En los últimos años, la política internacional ha mostrado signos de regresión : ha resurgido la llamada diplomacia de las cañoneras, un concepto en el que los derechos de un Estado se extienden únicamente a sus capacidades militares. La invasión rusa de Ucrania, el conflicto en curso en Gaza e incluso las declaraciones improvisadas de Donald Trump sobre una posible anexión de Canadá o Groenlandia son variaciones contemporáneas de un tema considerado el último recurso de la historia.
Esta lógica cuestiona el fundamento mismo del derecho internacional moderno : la prohibición de la conquista territorial por la fuerza. El abandono del derecho de conquista marcó un cambio desde una gestión coercitiva de las relaciones entre Estados hacia una regida por normas compartidas e instituciones supranacionales. En este contexto, el derecho internacional humanitario no es una pedantería jurídica, sino la expresión de un principio: incluso en la guerra, existen límites. Esto es lo que distingue el conflicto de la barbarie.
El regreso de la diplomacia de las cañoneras representa un intento no tan velado de revertir esa transición y trascender el derecho internacional.
La IA aplicada a la defensa podría ser la herramienta decisiva para el éxito de este esfuerzo. Su uso permite una erosión gradual y silenciosa del derecho internacional , reduciéndolo potencialmente a una estructura formal ineficaz. La IA en defensa podría significar el fin del derecho internacional no mediante una revolución abierta, sino mediante una serie de violaciones tácticas hábilmente distribuidas.
La guerra en Ucrania marcó un hito en la adopción de la IA en defensa , una aceleración que no estuvo acompañada de regulación. Ni siquiera la Ley de IA regula su uso en defensa. Sin embargo, en Ucrania, ambos bandos utilizan armas letales (potencialmente) autónomas antes siquiera de que exista un consenso sobre su legalidad. Israel utilizó IA para identificar objetivos en Gaza sin normas consensuadas sobre umbrales de error aceptables ni niveles mínimos de control humano. Mientras tanto, los representantes de los estados miembros del grupo de la ONU que trabaja en armas autónomas desde 2013 ni siquiera han llegado a un consenso sobre la definición de estos sistemas de armas.
Sería ingenuo considerar este vacío regulatorio como un estancamiento temporal, resultado del eterno dilema entre una regulación prematura e ineficaz o una regulación tardía y superflua. Es algo más preocupante: la creación de un limbo regulatorio que favorece tanto a los Estados liberales como a los autoritarios . Ambos convergen y alimentan un vacío regulatorio para no limitar el potencial de la IA en defensa, incluso cuando esto podría violar principios fundamentales como la distinción entre combatientes y no combatientes.
Hemos visto el mismo enfoque para regular las posturas internacionales con ciberataques entre Estados. En este caso, el vacío regulatorio facilitó posturas agresivas, causando daños y riesgos a las infraestructuras digitales de nuestros países. No es precisamente la opción más inteligente. Sería mejor evitarlo cuando el cibercrimen se convierta en una guerra convencional.
La superposición entre la retórica enérgica de la diplomacia de las cañoneras y la discreta omnipresencia de la IA es inquietante. Mientras que la atención pública se centra legítimamente en los efectos visibles de la primera, la segunda opera en la sombra, erosionando lentamente la estabilidad del derecho internacional.
La solución no es abandonar la IA en defensa, sino reconfigurar claramente el marco regulatorio en el que puede operar. Es necesaria una interpretación actualizada de los principios del derecho internacional humanitario , extendiendo su validez a las tecnologías emergentes. El progreso tecnológico no debe coincidir con, ni ser instrumento de, una regresión jurídica o, peor aún, una regresión moral.
*Catedrático de Ética Digital y Tecnologías de Defensa, Oxford Internet Institute, Universidad de Oxford. Autor de «La Ética de la Inteligencia Artificial en Defensa », Oxford University Press, que será publicado en Italia por Raffaello Cortina.
La Repubblica