Los drones autónomos en Ucrania, los sistemas de targeting en Gaza y los contratos millonarios del Pentágono confirman que la IA se está convertiendo en el sistema nervioso de los ejércitos modernos, un actor central en la manera en que los ejércitos planifican, combaten y toman decisiones letales.

En Ucrania, drones de bajo costo equipados con visión por computadora y sistemas de navegación autónoma identifican y atacan objetivos con una precisión sin precedentes. En Gaza, la inteligencia militar israelí utiliza sistemas de IA como “Lavender” y “Gospel” para analizar datos masivos y priorizar blancos en cuestión de segundos. En el Pentágono, se despliegan modelos de lenguaje avanzados para interpretar información táctica y acelerar decisiones que antes requerían horas de análisis humano.

La guerra moderna se está convirtiendo en una guerra de algoritmos y la IA ya no se limita al análisis de datos: toma decisiones críticas en tiempo real.

El Proyecto Maven —iniciado por el Pentágono en 2017 y ahora gestionado por Palantir bajo el nombre Maven Smart System— procesa miles de horas de video aéreo mediante redes neuronales para identificar patrones, vehículos o personas en movimiento. Esta automatización ha transformado radicalmente la inteligencia militar: un solo analista puede supervisar lo que antes requería a decenas de personas trabajando durante días.

“Los grandes modelos de lenguaje son útiles para la recopilación de inteligencia, porque pueden sintetizar y contextualizar información con una velocidad sobrehumana”, explica Emelia Probasco, investigadora del Center for Security and Emerging Technology de la Universidad de Georgetown. “Y también son herramientas potenciales para la ciberofensiva, al escribir y analizar código con la misma rapidez.”

La inteligencia artificial se ha convertido, en términos militares, en un multiplicador de fuerza. No reemplaza al soldado, pero amplifica exponencialmente su alcance, velocidad de respuesta y capacidad de procesamiento.

Ucrania: el laboratorio bélico de la IA

Ningún conflicto ha demostrado tanto el valor táctico de la IA como la guerra de Ucrania.

Ambos bandos emplean sistemas de visión artificial para dirigir drones kamikazes, reconocer tanques camuflados mediante análisis de patrones térmicos o ajustar la artillería en tiempo real basándose en datos meteorológicos y trayectorias calculadas por algoritmos. La frontera entre software comercial y militar se ha disuelto por completo: algoritmos de reconocimiento facial, chatbots de coordinación y análisis de imágenes satelitales de servicios como Maxar o Planet Labs se combinan para crear un ciclo de inteligencia casi instantáneo.

Lo que comenzó como un conflicto convencional se ha convertido en una guerra tecnológicamente distribuida: programadores en Kiev o Moscú actualizan el código de los sistemas mientras los drones operan en el frente. El campo de batalla es también una plataforma de software vivo, donde cada combate genera datos que retroalimentan los algoritmos.

Estados Unidos acelera la carrera

La experiencia ucraniana ha tenido un efecto inmediato en Washington. Según un informe del centro Brookings Institution la financiación federal estadounidense para proyectos militares de IA experimentó un crecimiento explosivo entre 2022 y 2023, impulsada casi totalmente por el Departamento de Defensa.

Los contratos se multiplican: Anthropic, OpenAI, Google y xAI han firmado acuerdos de colaboración con el Departamento de Defensa valorados en hasta 200 millones de dólares cada una para desarrollar sistemas de IA de apoyo a operaciones militares. OpenAI, que hasta enero de 2024 prohibía explícitamente el uso militar de sus modelos, modificó sus políticas para permitir colaboraciones con defensa y ciberseguridad, generando controversia interna que llevó a la dimisión de varios empleados.

Empresas como Anduril prueban cazas no tripulados que obedecen órdenes expresadas en lenguaje natural, y colaboran con Meta para crear visores de realidad aumentada que integran datos tácticos mediante IA en tiempo real.

El frente asiático: la batalla por la supremacía algorítmica

China y Estados Unidos libran una guerra paralela, quizá más decisiva a largo plazo: la carrera por la supremacía algorítmica.

Pekín ha invertido miles de millones en desarrollar sistemas de IA para vigilancia masiva, guerra electrónica y simulaciones de combate impulsadas por supercomputadoras. El Ejército Popular de Liberación ha establecido unidades especializadas en “guerra inteligente” y está integrando IA en sistemas de mando y control, según informes del Stockholm International Peace Research Institute (SIPRI).

Washington, por su parte, intenta frenar el acceso chino a chips avanzados —con restricciones a empresas como ASML y NVIDIA— y a modelos de lenguaje de gran escala, al tiempo que refuerza sus propias capacidades con inversiones masivas. Las sanciones tecnológicas impuestas desde 2022 buscan mantener a China al menos una década por detrás en capacidad de fabricación de semiconductores de última generación, esenciales para entrenar modelos de IA avanzados.

El objetivo estratégico es claro: quien controle la IA controlará el ritmo de la guerra del siglo XXI. Y ese ritmo ya no lo marcan los generales, sino los algoritmos.

Dilemas éticos en el campo de batalla automatizado

El avance de la IA militar no está exento de dilemas. Los modelos actuales siguen siendo opacos, impredecibles en casos límite y difíciles de auditar cuando operan a la velocidad del conflicto real. Una orden mal interpretada, un sesgo en los datos de entrenamiento o un fallo en el reconocimiento de patrones podría desencadenar errores catastróficos e irreparables.

Organizaciones como Human Rights Watch han alertado sobre el riesgo de “sistemas de armas autónomos letales” que podrían tomar decisiones de vida o muerte sin intervención humana significativa. El debate internacional sobre “killer robots” continúa sin resolución en la ONU, mientras la tecnología avanza a un ritmo que supera ampliamente la capacidad regulatoria.

Además, al reducir drásticamente el tiempo de deliberación humana, la IA podría acortar peligrosamente el camino entre la detección de una amenaza y la ejecución de una respuesta letal, aumentando el riesgo de escaladas automáticas y conflictos desencadenados por errores de máquina.

Aun así, los gobiernos continúan avanzando, convencidos de que el costo de no desarrollar estas capacidades sería estratégicamente peor que los riesgos éticos que implican. El resultado es una paradoja inquietante: la IA se justifica como medio para reducir bajas civiles y acortar guerras, pero puede hacerlas simultáneamente más rápidas, más letales y más despersonalizadas.

La dualidad inherente de la IA

Esta profunda integración de la IA en los conflictos bélicos, que acelera las decisiones y redefine la estrategia militar, es ya una realidad ineludible. Sin embargo, no se debe perder de vista que los mismos avances en visión por computadora, sistemas autónomos y modelos de lenguaje, que hoy actúan como “multiplicadores de fuerza” en el frente, son tecnologías que están transformando la vida civil: impulsando la logística empresarial, revolucionando la atención médica, optimizando la agricultura de precisión y sentando las bases de la próxima era de la productividad global. El futuro, por tanto, se moldea bajo la sombra de esta dualidad inherente, y nuestra tarea será canalizar este poder cognitivo, desarrollado bajo la urgencia de la guerra, hacia un impacto que priorice la innovación y el beneficio en el ámbito civil y empresarial.