«Para bellum», ¿con IA autónoma?

Amparo Alonso
amparo alonso Betanzos CATEDRÁTICA DE CIENCIAS DE LA COMPUTACIÓN E INTELIGENCIA ARTIFICIAL DE LA UNIVERSIDADE DA CORUÑA

OPINIÓN

MABEL R. G.

19 jul 2025 . Actualizado a las 05:00 h.

Resulta sobrecogedor sentarse frente al televisor y asimilar las terribles imágenes que nos llegan de Ucrania o Gaza, la brutalidad humana en su forma más cruda. Las escenas de guerra, dolor y sufrimiento me remontan a dos veranos atrás, cuando releía Homo Deus, el libro que el filósofo israelí Yuval Harari escribió en 2016. Él argumentaba que la humanidad había alcanzado un período de paz sin precedentes (al menos en algunos continentes), pero advertía que la inteligencia artificial (IA) y la biotecnología podían transformar radicalmente nuestra sociedad y plantear nuevos desafíos, haciéndonos quizás perder el control sobre nuestro propio destino.

Como profesional de la IA, estas predicciones me resultaban exageradamente alarmistas, aunque inquietantes. Creo firmemente en el inmenso potencial positivo de la IA para mejorar nuestras vidas, pero también en la necesidad imperiosa de controlarla y regularla con rigor ético y político. Al fin y al cabo, como decía el célebre anuncio de Pirelli «la potencia sin control no sirve de nada».  

Harari hablaba de un mundo en paz, pero pocos años después estamos inmersos en nuevos conflictos armados. Y aunque gran parte del arsenal empleado es convencional, la IA ya está presente en el campo de batalla. Lo más preocupante no es su uso en sí, sino que estemos entrando en una nueva era de guerra algorítmica, donde las decisiones de vida o muerte puedan quedar en manos de sistemas autónomos.

Necesitamos con urgencia marcos de regulación internacionales tan sólidos como el Tratado de No Proliferación Nuclear, un pilar fundamental para la seguridad global y la contención de armas de destrucción masiva. En el caso de las armas autónomas, no los tenemos. EE.UU., Rusia o Israel, algunos de los actores principales en los conflictos actuales, consideran que el desarrollo de armas autónomas es parte integral de sus programas de defensa, y están realizando inversiones millonarias en investigación y desarrollo en este campo. Alegan que una prohibición estricta frenaría la innovación y comprometería su seguridad nacional en una carrera armamentística global. Por eso rechazan cualquier instrumento jurídicamente vinculante promovido por organismos como la ONU, y optan por un enfoque de directrices o principios no vinculantes. La Unión Europea mantiene una postura más cautelosa. El Parlamento Europeo se posiciona a favor de una prohibición internacional, pero muchos estados miembros prefieren centrarse en garantizar un «control humano significativo» sobre estas tecnologías, en lugar de una prohibición total. De hecho, la propia regulación europea de IA excluye explícitamente a los sistemas de IA diseñados o usados exclusivamente con fines militares y de defensa. Esto evidencia lo difícil que es avanzar en un consenso ético cuando se contraponen los intereses geoestratégicos.  

El Pentágono anunció el inicio de su programa Replicator en 2023. Su objetivo es acelerar la producción y el despliegue de miles de sistemas autónomos inteligentes de bajo coste en múltiples dominios (tierra, mar y aire). Drones, sensores y robots que pueden operar en enjambres, tomar decisiones tácticas en tiempo real y adaptarse dinámicamente al entorno de combate. Estos sistemas no están diseñados solo para vigilancia: también pueden neutralizar objetivos sin requerir autorización humana inmediata. Y aunque supuestamente Replicator está diseñado para conflictos futuros, la realidad es que estamos viendo destellos de su aplicación en Ucrania, donde algunos drones son capaces de actuar de forma autónoma sobre objetivos móviles; otros acompañan a pilotos humanos con capacidad de combate autónomo. El conflicto en Ucrania se ha convertido en un trágico laboratorio de pruebas tecnológicas. Israel ha sido también pionero en el uso de IA aplicada al combate, y dispone de plataformas que automatizan la selección y priorización de objetivos en tiempo real, supuestamente bajo supervisión humana. Según informes, se han empleado en ataques en Gaza para planificar bombardeos considerando rapidez de ejecución, daño esperado y minimización de víctimas civiles. Israel también ha utilizado drones autónomos armados con capacidad para detectar señales enemigas y atacar de forma automática. China y Rusia por su parte, se oponen rotundamente a cualquier tipo de prohibición. Para ellos, la IA es el eje de una «nueva era de guerra inteligente». China invierte masivamente en la fusión civil-militar para desarrollar sistemas no tripulados avanzados para todos los dominios, y sofisticados sistemas de comando y control. Moscú comparte esta visión estratégica, considerando el desarrollo de la IA militar como una parte ineludible de su defensa a largo plazo, argumentando que estos sistemas aumentan la precisión y la eficiencia en el campo de batalla. Si bien ambos países reconocen la necesidad de alguna forma de supervisión humana, su interpretación de lo que constituye un «control humano significativo» es notablemente más laxa que la occidental, abriendo la puerta a mayores niveles de autonomía. Rusia, de hecho, ha visto el conflicto en Ucrania como un banco de pruebas para algunas de sus capacidades autónomas, mientras que China busca una superioridad más sistémica a través de la integración de la IA en toda su doctrina militar.

Vivimos un momento decisivo. Las guerras ya no se libran solo con soldados o con ejércitos tradicionales, y las poblaciones civiles sufren cada vez más las consecuencias. Y la IA  se ha convertido en un nuevo actor silencioso, rápido y potencialmente letal. Las armas autónomas, capaces de seleccionar y atacar objetivos sin intervención humana directa, ya no pertenecen al terreno de la ciencia ficción: son parte activa de los programas militares más avanzados del planeta. Y esto plantea preguntas inquietantes y de urgente contestación: ¿quién es responsable cuando una IA comete un error letal? ¿Qué responsabilidad recae en el diseñador del algoritmo, el militar que lo activa o el Estado que lo despliega? ¿Dónde queda la deliberación humana cuando una máquina decide en milisegundos?. No se trata de demonizar la IA, no hablamos de algoritmos que sirvan de apoyo a la decisión humana, sino de máquinas que pueden aprender, anticiparse y potencialmente decidir cuándo y a quién matar sin que exista una intervención humana directa y significativa en el momento crítico. Esto no es solo un desafío técnico, es una encrucijada moral y política en la que no existe la opción de mirar a otro lado.

La IA ya se usa en combate. Sus ventajas son evidentes, pero sus riesgos también. No podemos normalizar su uso autónomo en decisiones letales. Regular la IA militar no es frenar la innovación, es proteger la dignidad humana. Hay decisiones que, por su gravedad, deben seguir siendo humanas. La historia nos ha enseñado que regular la aplicación de la tecnología a tiempo es clave para evitar tragedias. Es urgente establecer una hoja de ruta ética y jurídica internacional, como hicimos en su día con las armas químicas o nucleares. El momento de actuar es ahora. Porque si esperamos demasiado, podríamos perder no solo el control de la tecnología, sino también el control de nuestro propio futuro, como adelantaba Harari.