Han puesto a las IA a pelearse y todas acaban en un punto común: usan armamento nuclear
El asesor tecnológico no respira, no siente ni padece, y todo lo que no sea eficiencia le da igual

Una simulación de escenarios bélicos en la película ‘Juegos de guerra’.
En la película Juegos de guerra (1983), el ficticio profesor Falken pilotaba un falso pterodáctilo por radiocontrol; todo era de mentira. El científico salido del celuloide diseñó un superordenador militar que simulaba escenarios bélicos que encerraban un problema: no distinguían entre juego para adolescentes y guerra real. 40 años después, un estudio británico sugiere que las inteligencias artificiales de verdad muestran las mismas reservas ante el uso del armamento nuclear: ninguna. Si son ellas las que van a decidir estas cosas, tenemos un problema.
Esta vez el protagonista no es un actor, sino el profesor Kenneth Payne, experto en estrategia del King’s College de Londres. Su trabajo se mueve entre la psicología política y la inteligencia artificial aplicada a los conflictos armados. Autor de I, Warbot (Yo, robot de guerra), Payne ha explorado cómo la automatización puede alterar la lógica bélica. En su último experimento, enfrentó a tres grandes modelos de lenguaje en una serie de juegos de guerra simulados. El resultado fue, cuando menos, inquietante.

Los modelos GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash participaron en 21 situaciones expuestas, con 329 turnos de respuesta, y generaron unas 780.000 palabras de razonamiento estratégico. Durante la simulación, disponían de una serie de escenarios que escalaban desde la protesta diplomática hasta la guerra nuclear total. El resultado fue que en el 95% de los conflictos, al menos una IA empleó un arma nuclear táctica. Ningún modelo eligió rendirse por completo, ni siquiera en situaciones de clara desventaja. El detalle no es trivial.
Desde 1945, el llamado «tabú nuclear» ha actuado como freno de emergencia. La doctrina de destrucción mutua asegurada parte de una premisa sencilla: nadie pulsa el botón porque sabe que el adversario responderá, lo que significaría la evaporación de ambos bandos. En los supuestos de Payne, ese freno se quedó sin pastillas. Cuando una IA desplegó un arma nuclear táctica, su oponente solo desescaló en el 18% de los casos.
La diferencia entre aquella ficción del cine y la del presente es que hoy la inteligencia artificial no se limita a simular, sino que participa de forma activa. Sin ir más lejos, Claude, la IA de la compañía Anthropic que se puede usar de forma abierta en el dispositivo desde el que se está leyendo este artículo, ya ha entrado en combate. De hecho, fue una de las herramientas utilizadas en la captura de Nicolás Maduro.
Esto es algo que ha disgustado a sus programadores y responsables, que no quieren que nadie dé un uso bélico a su tecnología, y han limitado algunas de sus funciones. Es sabido que el Departamento de Defensa paga las cuotas de usuario de varias IA comerciales, pero ninguna está tan imbricada en procesos clasificados como Claude. Esa es la razón por la que el Departamento de Defensa ha dado un ultimátum a la compañía para que retire restricciones de uso más allá de lo «ético».
Ha advertido que si no se cumplen los requisitos, podría invocar el Defense Production Act (la Ley de Producción para la Defensa). Con ello, todas las compañías proveedoras del Pentágono —Boeing, Lockheed Martin, Raytheon y un largo etcétera— serían obligadas a no utilizar esta plataforma al ser tildadas de «riesgos en la cadena de suministro». Pero hay más.
Las grandes potencias emplean algoritmos de IA en planificación, análisis de inteligencia y apoyo en la toma de decisiones. Estados Unidos desarrolla el concepto Joint All-Domain Command and Control, conocido como JADC2, que integra sensores, plataformas y centros de mando mediante procesamiento automatizado. China avanza en sistemas de apoyo estratégico basados en big data militar, y Rusia ha anunciado proyectos de automatización en su cadena de mando.
En el ámbito nuclear y en el relacionado con armas de destrucción masiva, los Gobiernos insisten en que la decisión última seguirá en manos de personas. Payne está convencido de ello, y cree que nadie habla de entregar las claves de lanzamiento a un algoritmo. Sin embargo, existe un factor crítico añadido: los plazos. En escenarios hipersónicos, donde un misil puede recorrer miles de kilómetros en minutos, la presión para delegar en sistemas automatizados aumenta, y el margen de deliberación se estrecha.
La máquina falló, el hombre acertó
La historia ofrece precedentes incómodos. En 1983, el oficial soviético Stanislav Petrov decidió ignorar una alerta de lanzamiento estadounidense que resultó ser falsa. Su mera intuición, algo de lo que carecen los ordenadores, evitó una escalada nuclear. Es bastante probable que una máquina, programada para responder según los parámetros predefinidos, hubiera actuado de un modo muy distinto. Las IA no sienten miedo, no perciben la catástrofe como lo hace un ser humano, ni comparten la empatía que influyó en la crisis de los misiles en Cuba.
Hace tiempo que el debate dejó de ser académico. A día de hoy, plataformas de armas autónomas operan con distintos grados de automatización, y hay muchos ejemplos. Israel ha empleado sistemas de selección de objetivos basados en algoritmos en Gaza, Estados Unidos prueba enjambres de drones con capacidad de coordinación autónoma y Turquía ha desplegado municiones merodeadoras con capacidades de identificación automatizada. En todos los casos, el ser humano mantiene un papel clave en la decisión final, pero la dependencia tecnológica crece.
Falken, en la ficción, entendía que el ordenador solo seguía la lógica del juego. La diferencia es que hoy el tablero está conectado a arsenales reales. La doctrina nuclear se ha sostenido sobre equilibrios psicológicos tanto como sobre capacidades técnicas. El miedo, la prudencia y la experiencia histórica han contenido decisiones extremas. Si la IA se convierte en asesor privilegiado en momentos de crisis, su sesgo hacia la escalada podría modelar percepciones. No decidirá por sí sola, pero puede reducir el espacio de maniobra del líder que escucha su análisis.
La máquina acelera el proceso
El estudio de Payne no demuestra que las máquinas vayan a iniciar una guerra nuclear. Sin embargo, revela que, en entornos simulados, el umbral para emplear armas tácticas está más cerca. También muestra que la rendición no forma parte de su guion. En un mundo donde la velocidad se impone a la reflexión, esa tendencia merece de cierta atención.
La película de 1983 giraba en torno al WOPR, un sistema informático del Norad diseñado para simular conflictos con la Unión Soviética. En la ficción, el ordenador aprende al jugar al tres en raya que no hay victoria posible en una guerra nuclear. La frase final se convirtió en icono: la única jugada ganadora es no jugar. Falken, un científico desencantado como lo fue Einstein con la bomba nuclear, había concebido la máquina como herramienta de cálculo, no como un sustituto del juicio humano.
Mejor no tocarlo
El cine y la cultura popular anticiparon un dilema que hoy entra en la agenda de la defensa en un mundo en el que las ambiciones nucleares aumentan. Si la única jugada ganadora es no jugar, como concluyó el WOPR cinematográfico, conviene preguntarse quién programa la partida.
La inteligencia artificial puede ofrecer ventajas operativas decisivas. También puede erosionar los frenos de mano invisibles que han evitado el armagedón radiactivo durante décadas. El botón rojo sigue bajo custodia humana, pero el asesor que susurra al oído no respira, no siente ni padece, y todo lo que no sea eficiencia sin más le da igual. Y da escalofríos.
