¿Cómo está cambiando la inteligencia artificial la guerra?


El otoño pasado, Mark Milley, exjefe del Estado Mayor Conjunto de las Fuerzas Armadas de Estados Unidos, y Eric Schmidt, exdirector ejecutivo de Google, hicieron declaraciones desconcertantes en la revista estadounidense Foreign Affairs. Primero, escribieron que las nuevas tecnologías, como la inteligencia artificial y los drones, estaban cambiando la naturaleza de la guerra. Más adelante, en el mismo artículo, afirmaron que las nuevas tecnologías solo estaban influyendo fundamentalmente en el carácter o la forma de la guerra, no en su naturaleza.
NZZ.ch requiere JavaScript para funciones importantes. Su navegador o bloqueador de anuncios lo impide.
Por favor ajuste la configuración.
¿Y ahora qué? ¿Naturaleza o forma, o ambas? La contradicción entre Milley y Schmidt demuestra lo confuso que es el debate actual. Como suele ocurrir, el teórico de la guerra del siglo XIX, Carl von Clausewitz, puede ofrecer alguna orientación. Después de todo, fue él quien definió con mayor claridad la distinción entre la naturaleza y la forma de la guerra.
¿Qué ha cambiado?Para Clausewitz, la forma de la guerra se puede encontrar en cada conflicto de la historia de la humanidad: en la Guerra del Peloponeso, la Guerra de los Treinta Años, la Segunda Guerra Mundial, la Guerra de Ucrania, etc.
La naturaleza de la guerra, sin embargo, incluye lo que Clausewitz llama "la trinidad". En primer lugar, la guerra es como una lucha libre en la que dos partes intentan imponer su voluntad. La guerra es coerción física, antagonismo, y está impulsada por un impulso ciego y natural de destruir al enemigo. En segundo lugar, la guerra no es un sistema aislado, sino la continuación de la política por otros medios. En tercer lugar, la guerra es como un juego de cartas, lo que significa que también está sujeta a la probabilidad y la suerte. Requiere comandantes y soldados talentosos, experimentados y valientes con lo que se llama una "mano de suerte" para prevalecer en sus complejas situaciones.
Para Clausewitz, la distinción entre la naturaleza y la forma de la guerra es una herramienta heurística. Permite contrastar la aparición de muchas guerras concretas en la historia con definiciones abstractas, para luego preguntarse qué ha cambiado realmente.
Desde esta perspectiva, una deriva en la naturaleza de la guerra solo ocurre cuando, por ejemplo, desaparece el aspecto combativo de la guerra en sí, o algún otro aspecto fundamental de la Trinidad. Quien aún habla de guerra en ese entonces no comprende la definición del término. Al fin y al cabo, ¿qué es la guerra sin violencia, sin quienes toman las decisiones políticas, sin un pueblo armado o sin comandantes? Para Clausewitz, es improbable que la naturaleza de la guerra cambie.
Sin embargo, la forma de la guerra es diferente. Para Clausewitz, la guerra es un camaleón. Cambia de apariencia, también debido a los avances tecnológicos y científicos. Por lo tanto, cuando la guerra cambia de forma, cambia la forma en que se libra. Se desarrollan procedimientos de combate táctico, se adaptan los materiales y la tecnología utilizados, así como la estructura de operaciones a gran escala, idealmente enmarcadas por objetivos estratégicos. Esto se observó recientemente en el ataque con drones ucranianos a bases aéreas en Rusia.
Fuerzas Armadas de Ucrania/Reuters
La IA es, en el sentido de Clausewitz, tanto una tecnología como una ciencia. Su colaboración con el ejército no es nueva. Se remonta a la Segunda Guerra Mundial, cuando criptoanalistas de Bletchley Park, Inglaterra, trabajaban para descifrar la máquina de cifrado alemana Enigma. Los Aliados intentaron interceptar los mensajes de radio cifrados para detener los ataques a submarinos y bombarderos.
Alan Turing fue uno de estos criptoanalistas y desarrolló su propia máquina electromecánica, la Bomba de Turing, que por su funcionamiento automatizado le dio la idea de preguntarse si las máquinas pueden pensar, es decir, son inteligentes.
Dos años después de la muerte de Turing, en 1956, el término "inteligencia artificial" se utilizó por primera vez en la Conferencia de Dartmouth. Esto marcó el inicio de la IA simbólica. Como su nombre indica, estas máquinas son capaces de manipular símbolos abstractos, es decir, notaciones de lógica formal.
La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), que realiza proyectos de investigación para las fuerzas armadas, intervino. Se creó el programa Dart, que ayudó a resolver problemas logísticos en la cadena de suministro durante la primera Guerra del Golfo y ahorró millones al ejército estadounidense.
También financiada por DARPA, la empresa iRobot desarrolló el robot PackBot en la década de 1990. Tras el 11-S y Fukushima, PackBot ayudó a buscar entre los escombros. En Irak y Afganistán, ayudó a desactivar trampas explosivas.
Si bien estos ejemplos demuestran que la IA se utilizó de diversas maneras durante y después de la Segunda Guerra Mundial, esta tecnología no cambió fundamentalmente la naturaleza ni la forma de la guerra. Más bien, mejoró los procesos tácticos y logísticos existentes, como el descifrado de mensajes, la gestión de la cadena de suministro y la desactivación de bombas.
Lo mismo aplica al uso de la IA en los campos de batalla actuales. Las Fuerzas de Defensa de Israel utilizan sistemas de detección y recomendación asistidos por IA para identificar objetivos de Hamás. El ejército ucraniano utiliza drones asistidos por IA que detectan y atacan objetivos de forma autónoma. En la guerra híbrida, Rusia utiliza la IA para la falsificación de información confidencial en campañas de desinformación, al igual que grupos terroristas no estatales como Al Qaeda e ISIS utilizan la IA generativa para la propaganda y el reclutamiento.
La IA es una tecnología de propósito general. Puede integrarse en cualquier sistema digital, amplificándolo y haciéndolo más eficiente. Pero la desinformación, la propaganda, el reclutamiento y los bombardeos no son inventos nuevos a nivel táctico.
Los numerosos problemas éticos que rodean a la IA se citan a menudo para afirmar que está cambiando rápidamente no la forma, sino incluso la naturaleza de la guerra. Sin embargo, esto es cuestionable, ya que las nuevas invenciones tecnológicas ciertamente tienen el potencial de aumentar la brutalidad de la guerra. Esto, sin embargo, es precisamente lo que hace que la guerra, en su propia naturaleza, una coerción física, se materialice. Se está volviendo más intensa, pero no fundamentalmente diferente.
En términos de IA, por ejemplo, surge la pregunta de si los sistemas de armas automatizadas pueden distinguir entre civiles y combatientes, una distinción tan importante en el derecho internacional humanitario. Esto es especialmente cierto porque se sabe que la IA comete errores simples en el reconocimiento de imágenes. Por lo tanto, sus decisiones no siempre son fiables.
Pero los humanos también tienen debilidades. Por ejemplo, el llamado "sesgo de automatización", que se refiere a que las personas depositan una confianza excesiva en las herramientas automatizadas de toma de decisiones. A menudo, se confía ciegamente en las máquinas. Además, si la máquina actúa de forma autónoma, surge la pregunta de quién es realmente responsable de sus acciones: ¿el desarrollador y fabricante de la máquina, el comandante o incluso la propia máquina?
Según el derecho internacional humanitario, la responsabilidad recae en el comandante. Sin embargo, aunque esta cuestión parece estar resuelta, persisten problemas legales. No existe ningún acuerdo internacional, como el relativo a las armas nucleares, que regule uniformemente los sistemas de armas autónomas. La legislación al respecto es responsabilidad de cada Estado. La Ley de IA de la UE también revela lagunas en la regulación de los sistemas de armas autónomas.
Estas cuestiones éticas y legales aún resueltas invitan a la creación de escenarios ficticios amenazantes. Por ejemplo, se habla de un campo de batalla singular, una especie de hiperguerra donde solo las máquinas toman decisiones, lo que resulta en una guerra completamente automatizada.
Sin embargo, la posibilidad de que tal escenario ocurra es muy cuestionable. Según Clausewitz, la guerra siempre es simple y lógica en teoría. El uso de la máxima fuerza es suficiente para someter al enemigo. En casos extremos, la IA se usaría sin piedad, sin ningún tipo de freno.
En realidad, sin embargo, las cosas son diferentes. La guerra se caracteriza por la ignorancia y la incertidumbre, las coincidencias y los accidentes. Una niebla envuelve la guerra, surgen constantemente nuevas fricciones y surgen resistencias que retrasan la implementación de los planes: malentendidos, el clima, peligros, errores.
Nada es más peligroso que la guerra; su curso siempre es impredecible. Una escalada descontrolada perjudica las propias filas y los intereses políticos. Un campo de batalla singular sería un suicidio militar, político y social, al igual que una guerra nuclear con armas nucleares estratégicas.
Los peligros de la IA son reales, ya están presentes y aumentarán en el futuro. Sin embargo, ni la naturaleza ni la forma de la guerra parecen verse afectadas significativamente por ellos. Más bien, la IA se integrará en los procedimientos tácticos y las regulaciones éticas y legales existentes.
Si Eric Schmidt, en particular, desea ver un cambio en la forma o la naturaleza de la guerra, probablemente se deba a que su nueva empresa, White Stork, se especializa en drones militares asistidos por IA. Su interés reside en el armamento y la maximización de beneficios. Sin embargo, tiene razón en que la IA ha llegado para quedarse en el ejército.
Olivier Del Fabbro trabaja como asistente sénior en la Cátedra de Filosofía de la ETH de Zúrich. Sus intereses incluyen los sistemas complejos y la inteligencia artificial, la filosofía de la medicina y la filosofía de la guerra.
nzz.ch