Las grandes tecnológicas estadounidenses se están tirando de cabeza a la industria militar
El reto ahora no radica la integración sino en definir sus límites, difusos

Cargos de Meta, OpenAI, Palantir juran sus cargos en el ejército.
Silicon Valley se va a la guerra. Condicionadas por una fuerte carga ideológica progresista, las tecnológicas californianas que empujan al Nasdaq como un cohete habían evitado el contacto con lo militar durante mucho tiempo, no querían saber nada del tema. Pero esto ha cambiado. De un tiempo a esta parte están trocando la camiseta reivindicativa por el uniforme de camuflaje.
Desde que la mayoría de ellas se establecieron, hace más de dos décadas, las principales empresas tecnológicas de California evitaron colaborar con el Departamento de Defensa de los Estados Unidos. La oposición interna, la preocupación reputacional y el riesgo de alinearse con operaciones militares marcaron una frontera clara entre el mundo civil del software y el aparato bélico. En esta tercera década del XXI esa frontera está desapareciendo a grandes zancadas.
En 2025, compañías como OpenAI, Meta (Facebook, Instagram, WhatsApp), Microsoft, Google y Palantir han cruzado ese umbral de forma explícita. Ya no se limitan a prestar servicios indirectos. Ahora, y sin tapujos, diseñan sistemas para el combate, asesoran al ejército y se presentan como socios estratégicos del Pentágono.
El símbolo más evidente de esta nueva etapa no es un producto ni un contrato, sino una ceremonia. El pasado 13 de junio, ejecutivos de Meta, Palantir y OpenAI juraron sus cargos como oficiales del Ejército de Tierra de los Estados Unidos. Kevin Weil y Bob McGrew (OpenAI), Shyam Sankar (Palantir) y Andrew Bosworth (Meta) recibieron el grado de teniente coronel en el marco del nuevo programa Detachment 201.
El objetivo de esta unidad es integrar directamente a líderes tecnológicos en la planificación militar, sin requerir entrenamiento básico ni residencia en bases. Su misión incluye asesorar sobre inteligencia artificial, facilitar el reclutamiento de talento civil y reforzar la vinculación institucional entre el sector tecnológico y el ejército.
Con este movimiento, Silicon Valley no solo acepta su papel en el ecosistema militar estadounidense, sino que lo asume con naturalidad. Las antiguas promesas de neutralidad y desarrollo responsable han dejado paso a un discurso centrado en la defensa nacional, la competencia geopolítica y la necesidad de dominar las tecnologías críticas del futuro.
La conexión entre la tecnología y el ejército no es nueva. En los años cincuenta, el Departamento de Defensa financió ARPANET, el sistema precursor de Internet. También impulsó el desarrollo del GPS, la red de satélites que hoy guía tanto misiles como aplicaciones de movilidad en nuestros coches y teléfonos móviles. Incluso Siri, el asistente de voz de Apple, se originó a partir de un proyecto financiado por la agencia DARPA.
Sin embargo, durante los primeros años del siglo XXI esta relación se debilitó. Las grandes tecnológicas crecieron con un discurso de innovación civil, independencia institucional y sensibilidad social. Las protestas de empleados contra la colaboración con el Pentágono marcaron un punto de inflexión; los trabajadores se declararon objetores de conciencia. En 2018, Google canceló su participación en Project Maven, una iniciativa para analizar imágenes de drones con inteligencia artificial.
Tras una campaña de presión interna en la que participaron más de 4.000 de sus técnicos e ingenieros, Alphabet, la empresa matriz, prometió entonces no desarrollar tecnologías cuyo propósito fuera causar daño. Otras empresas adoptaron políticas similares, que excluían de forma explícita cualquier participación en sistemas ofensivos o de vigilancia masiva. Sin embargo, todas esas directrices y políticas han desaparecido de manera silenciosa.
Reglas que desaparecen
En los últimos dos años, OpenAI eliminó de sus principios corporativos la cláusula que prohibía la aplicación militar de sus modelos. Meta modificó sus condiciones de uso para permitir el empleo de su arquitectura LLaMA en proyectos del Departamento de Defensa. Google mantiene principios generales, pero ha flexibilizado su postura para adaptarse al nuevo contexto competitivo. Anthropic y Mistral, dos de los desarrolladores más prometedores de modelos de lenguaje, también han comenzado a colaborar con agencias gubernamentales.
El cambio no solo responde a una cuestión ideológica, sino que existe un componente estructural a nivel interno. Los costes asociados al desarrollo de grandes modelos de lenguaje, infraestructura de la nube y entrenamiento de sistemas multimodales han alcanzado cifras astronómicas. Entrenar un modelo de última generación como GPT-5, Gemini o Claude requiere abultadas inversiones en un modelo de negocio que en muchos casos aún tiene que encontrar rentabilidad.
La operativa de estos sistemas en tiempo real, además, necesita centros de datos con estándares militares de seguridad. Para muchas empresas, los ingresos por suscripciones, licencias o publicidad no bastan. La defensa, en cambio, ofrece contratos a largo plazo, márgenes elevados y estabilidad presupuestaria.
El Pentágono se funde su pasta en IA
El Departamento de Defensa ha respondido con una estrategia muy activa de reclutamiento. Desde 2023, el número de proyectos de inteligencia artificial registrados por la institución supera los ochocientos. Estos van desde el análisis de imágenes de satélite o drones hasta la gestión de datos clasificados o la automatización de tareas logísticas. En paralelo, la administración ha reducido obstáculos administrativos, ha creado nuevas oficinas de inversión estratégica y ha flexibilizado sus criterios éticos para adaptarse a la velocidad del sector privado.
Meta, la empresa matriz de Facebook, Instagram y WhatsApp, es quizá el ejemplo más ilustrativo de esta transformación. Tras invertir más de 90.000 millones de euros en tecnologías de realidad virtual y aumentada a través de su división Reality Labs, sin lograr un retorno comercial significativo, la empresa ha redirigido sus esfuerzos hacia la defensa.
En colaboración con Anduril Industries, Meta ha comenzado a desarrollar visores de combate con superposición de datos en tiempo real, visión térmica, comunicación táctica y capacidades de integración con sistemas autónomos. Palmer Luckey, fundador de Anduril y antiguo empleado de Oculus, describe estos dispositivos como una evolución de los cascos de combate inspirados en la ciencia ficción. Su objetivo consiste en ofrecer a los soldados una percepción aumentada, coordinación en red y capacidad de interactuar con plataformas autónomas.
Dilemas éticos y vacío regulatorio
El giro hacia lo militar de las tecnológicas ha generado inquietudes en distintos sectores. El paso de herramientas de uso civil a sistemas de aplicación bélica plantea dudas sobre los límites del desarrollo responsable. Un modelo de lenguaje entrenado con millones de interacciones cotidianas puede adaptarse para seleccionar objetivos, generar perfiles falsos de combatientes o participar en decisiones tácticas con consecuencias letales. La línea que separa lo civil de lo militar resulta cada vez más difícil de definir.
A este problema se suma la ausencia de regulación efectiva. No existe actualmente un marco legal que establezca límites claros al uso de inteligencia artificial en contextos militares. En 2024, Estados Unidos defendió ante la ONU que el control humano directo sobre armas autónomas no constituye una exigencia del derecho internacional. Esta interpretación permite la proliferación de sistemas que operen con grados crecientes de autonomía, sin supervisión externa ni obligación de transparencia.
Por otro lado, las tecnológicas no están obligadas a desglosar sus ingresos procedentes del sector defensa. Aunque algunas cifras han trascendido —como los 1.000 millones de euros en contratos adjudicados en los dos últimos años a empresas de IA—, gran parte de la actividad permanece clasificada o se canaliza a través de subcontratas.
El reto ahora no radica en acelerar la integración, sino en definir sus límites, difusos. El lenguaje de la guerra está cambiando, y el que no lo hable acabará perdiendo. Y siempre costará vidas.