The Objective
Tecnología

Así es como la IA ha acelerado la guerra y la va a acelerar aún más

La inteligencia artificial va a traer guerras que se liquidarán en días, o eso parece

Así es como la IA ha acelerado la guerra y la va a acelerar aún más

Un técnico de sonar realiza labores de vigilancia en la sala de control a bordo del destructor de misiles guiados USS Carney. | Armada de los EEUU

Adolf Hitler jamás soñó ni de lejos con disponer de ChatGPT. Pero los efectos de la inteligencia artificial (IA) actual aplicada a los conflictos armados están logrando efectos bélicos muy similares, aunque alcanzados con un proceso distinto: acelerar todo. Si el dictador germano inventó la blitzkrieg, la guerra relámpago, la inteligencia artificial va a traer guerras que se liquidarán en días. O eso parece.

Los tácticos del Tercer Reich aplicaron una ecuación sencilla: atacar muy rápido y con mucha fuerza en un punto concreto para romper las defensas enemigas antes de que pudieran reaccionar. El enemigo quedaba desbordado, confundido y rodeado en muy poco tiempo. Gracias a esto, la Wehrmacht entró en Francia en 1940 como si le hubieran abierto las puertas de par en par. La IA está logrando algo parecido.

En las primeras 24 horas del ataque a Irán se alcanzaron más de mil objetivos. Esto puede parecer fácil cuando se manejan cientos de aeronaves, buques con misiles de crucero y submarinos nucleares, pero es más complejo de lo que pudiera suponerse. Todo responde a un laborioso proceso de selección de blancos. Tanto es así que el ejército estadounidense incluso cuenta con una academia militar destinada a formar a los llamados targeteers o designadores.

Durante décadas, ese volumen de blancos habría requerido innumerables horas de trabajo, miles de analistas y una maquinaria lenta hasta la exasperación. No se tira una bomba así como así, y antes de dejarla caer, se hace un estudio pormenorizado de sus consecuencias. En un proceso normal, esos mil blancos se habrían tardado semanas en seleccionar, no unos minutos como hizo la IA.

Antes de la inteligencia artificial, la selección de objetivos era bastante parecida a un proceso industrial. Cada blanco recorría una larga cadena de pasos y validaciones. La lentitud no respondía a incapacidad, sino a una lógica muy concreta: cuanto más tiempo se dedica a analizar un objetivo, más probabilidades hay de detectar errores antes de que se conviertan en explosiones indeseadas y, en ocasiones, también en víctimas indeseadas.

Todo comenzaba con la recopilación masiva de información, que en el mundo militar se denomina inteligencia. Satélites, aeronaves ISR, interceptación de señales a nivel local, fuentes humanas y aportaciones de otros aliados alimentaban un flujo constante de datos. Ese material bruto llegaba a oficinas de análisis distribuidas en más de un centenar de localizaciones. Allí no había decisiones rápidas, sino una tarea paciente: convertir piezas dispersas de un puzle en algo que tuviera sentido y pudiera sostenerse ante una revisión rigurosa.

No se trataba solo de localizar algo en un mapa, sino de entenderlo. Qué instalación es, quién la ocupa, si sigue siendo relevante, si ha cambiado desde la última imagen o si hay presencia civil eran muchas de las preguntas sobre la mesa. Cada una de esas preguntas exigía tiempo. Y ese tiempo, lejos de ser un lastre, actuaba como una barrera contra la precipitación.

Con esa base de trabajo, entraban en escena los especialistas en selección de objetivos, los llamados targeteers. No era personal improvisado, sino analistas formados en una escuela muy específica: la Joint Targeting School de Dam Neck. Su función consistía en construir un fichero de objetivo completo, un documento que debía resistir un escrutinio técnico, legal y operativo. No bastaba con señalar un punto en el mapa; había que justificarlo con la supervisión a varios niveles, incluido el jurídico.

Cada explosión venía precedida de un expediente con la descripción del blanco, su valor militar, su localización exacta y el efecto buscado. También detallaba los riesgos asociados y el entorno del objetivo. Ese nivel de detalle obligaba a revisar cada dato con cuidado. Un error en ese documento no era un fallo administrativo, sino el origen potencial de un error que lastraba operaciones, con costes millonarios, y que podía costar vidas ajenas y también propias.

Acto seguido, y con el archivo bastante completo, llegaban los especialistas en armamento, que elegían la munición adecuada. Tras ellos, los equipos de estimación de daños colaterales calculaban posibles impactos sobre estructuras cercanas. En paralelo, los asesores jurídicos evaluaban la legalidad del ataque y su ajuste a las reglas de enfrentamiento. Cada paso añadía una capa más de verificación.

Había —y hay— listas de exclusión. No se puede hacer estallar trinitrotolueno en las cercanías de escuelas, hospitales, lugares de culto y otras infraestructuras protegidas, que quedaban señaladas como zonas de no ataque. Era una red de seguridad diseñada para evitar errores irreversibles. Su eficacia dependía, en gran medida, del tiempo disponible para cruzar datos y validar información.

Después llegaba la fase de priorización. No todos los objetivos tenían el mismo valor. El mando debía decidir qué atacar primero y con qué medios. Esa decisión no era automática. Implicaba evaluar el impacto estratégico de cada acción y asignar recursos limitados. El resultado se integraba en la Air Tasking Order, el documento que convertía la planificación en una secuencia de disparo con un estruendo al final.

Tras el ataque, las evaluaciones de daños de combate determinaban si el objetivo había sido neutralizado o si requería un nuevo intento. La cadena completa, desde la detección inicial hasta la evaluación final, podía extenderse durante días. En algunos casos, semanas. Durante la invasión de Irak de 2003, este sistema movilizó a unos 2.000 analistas. Hoy se habla de que pueden ser apenas 20. La inteligencia artificial ha mandado un misil que ha estallado ante 1.980 analistas.

A cuenta del cambio, el modelo no ha desaparecido, sino que se ha comprimido. Sistemas como Maven, basados en inteligencia artificial, han asumido la tarea de procesar enormes volúmenes de datos mediante análisis por algoritmos. Los ordenadores son capaces de detectar, identificar y clasificar objetos en imágenes y vídeos a una velocidad imposible para equipos humanos.

Sobre esa base actúan herramientas —muy a su pesar— como Claude, que transforman todos esos datos en información comprensible. Permiten a un número muy reducido de analistas trabajar sobre una cantidad de información que antes requería miles de personas. La capacidad de generar listas de objetivos se ha disparado hasta niveles nunca vistos. La blitzkrieg ha mutado.

Esa aceleración tiene un coste oculto. La IA no elimina los pasos del proceso, pero reduce el tiempo dedicado a cada uno. Donde antes había horas o días de análisis, ahora hay segundos. Ese cambio introduce un riesgo conocido: el sesgo de automatización. Bajo presión de tiempo, los operadores tienden a confiar en la resolución aportada por el sistema. La decisión se convierte en un acto rápido, más cercano a la aprobación que al análisis.

Sin confirmación oficial, en las primeras jornadas de ataques a Irán, en apariencia, un proyectil cayó sobre una escuela femenina en la localidad de Minab, con la muerte de decenas de niñas y sus profesores. Hay dudas sobre si fue un misil iraní, israelí o estadounidense. Si se parte de la base de que fue un Tomahawk estadounidense, el ingenio explosivo impactó en una escuela que durante años había sido una instalación militar. La base de datos no reflejaba los cambios sufridos en el terreno y, en apariencia, contaba con datos desactualizados. El sistema no falló en la ejecución: falló en la validación previa de toda la información.

El modelo antiguo habría tenido más oportunidades de detectar ese error. Días de análisis, múltiples revisiones y diferentes equipos que examinaban el mismo objetivo aumentaban la probabilidad de identificar inconsistencias. Un detalle como un campo de fútbol visible en imágenes recientes podría haber levantado dudas suficientes como para frenar el ataque. Es muy poco habitual poner un campo de fútbol pegado a una base militar, pero donde hay futbolistas hay gente joven, por norma general.

En el modelo actual, ese margen de seguridad se reduce. La IA no crea el error, pero lo acelera. Convierte una información incorrecta en una decisión en cuestión de segundos. La guerra ha ganado una capacidad sin precedentes para identificar y atacar objetivos a gran escala, pero esa ventaja viene acompañada de una reducción en los filtros de control que antes actuaban como salvaguarda. La capacidad del sistema para corregirse se ha reducido.

La guerra siempre ha sido una combinación de tecnología y proceso. La inteligencia artificial ha revolucionado la primera y ha comprimido el segundo. El resultado es un modelo más rápido, más eficiente y también más vulnerable a errores. La cuestión no es si la IA decide qué atacar, sino qué ocurre cuando la velocidad supera la capacidad humana de cuestionar. Visto así, el viejo sistema, lento y tedioso, empieza a parecer menos un problema y más una forma de contención que quizá se ha perdido demasiado pronto.

Publicidad