Trump desata el 'modo Huawei' contra la IA de Google y Amazon: activan la Primera Enmienda
Anthropic denuncia la decisión del presidente norteamericano de vetar su tecnología en el país

Donald Trump responde una pregunta durante una conferencia de prensa en el Trump National Doral de Miami. | Kevin Lamarque (Reuters)
El Gobierno norteamericano ha acusado a Anthropic, startup de Inteligencia Artificial (IA) participada por Google y Amazon, de ser un riesgo para la cadena de suministro.
Un señalamiento que recuerda mucho a lo sucedido con Huawei, empresa china denunciada por espionaje que fue vetada por Donald Trump de las redes de telecomunicaciones del país.
La respuesta de Anthropic, empresa detrás del chatbot ‘Claude‘, ha sido presentar una demanda contra el Gobierno de Estados Unidos tras calificar el hecho como «sin precedentes e ilegal», advirtiendo del perjuicio «irreparable» causado a la compañía.
Los hechos se remontan al pasado miércoles, cuando el secretario de Guerra de EEUU, Pete Hegseth, envió a Anthropic una carta confirmando la designación de la empresa como «riesgo en la cadena de suministro», por lo que el uso de los productos de la ‘startup’ en los sistemas del Departamento de Guerra pasó a considerarse una amenaza en la cadena de suministro. Algo similar a lo que pasa con Huawei.
La demanda de Anthropic, presentada ante el Tribunal del Distrito Norte de California, sostiene que «todas estas medidas sin precedentes», incluyendo la directiva del presidente estadounidense, Donald Trump, así como las medidas adoptadas por las agencias en respuesta a la misma, «están perjudicando irreparablemente a Anthropic».
La firma dirigida por Darío Amodei afirma que sus contratos con el Gobierno federal están siendo cancelados, mientras están poniéndose en cuestión contratos actuales y futuros con entidades privadas, «lo que pone en riesgo cientos de millones de dólares a corto plazo».
El motivo real del veto
El punto de ruptura entre el Gobierno del país del dólar y Anthropic fue la negativa de esta compañía a aceptar un contrato con el Departamento de Defensa (denominado ‘Department of War’ por la administración actual) que exigía el uso incondicional de sus modelos de IA.
Sin embargo, la empresa insistió en mantener las líneas rojas o salvaguardas que prohibieran el uso de su Inteligencia Artificial para la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de armas autónomas letales.
Por su parte, el Ejecutivo norteamericano argumentó que debe tener el control sobre cualquier uso «legal», y que una empresa privada no puede imponer condiciones a la seguridad nacional. Las diferencias entre Trump y Anthropic han tenido como resultado el escenario actual.
La paradoja se encuentra en las similitudes que existen entre la forma de obrar de EEUU y su rival geopolítico, China. Trump quiere una herramienta para tener vigilados a sus ciudadanos y establece vetos sobre empresas norteamericanas para conseguir sus fines. Algo similar en otro orden de cosas a lo que sucede con el régimen de Pekín.
La Primera Enmienda, en el foco
Además de los daños económicos inmediatos, Anthropic sostiene que su reputación y las libertades fundamentales de la Primera Enmienda están bajo ataque y, sin una decisión judicial, estos daños solo se agravarán en las próximas semanas y meses.
«Las medidas impugnadas fueron una represalia contra Anthropic por su discurso y otras actividades protegidas, violando la Primera Enmienda», recoge la demanda, en la cual la compañía defiende que la Constitución de EEUU otorga a Anthropic el derecho a expresar sus opiniones, tanto públicamente como ante el Gobierno, que no tiene por qué estar de acuerdo con tales opiniones y tampoco tiene por qué utilizar los productos de Anthropic.
«Estas acciones no tienen precedentes y son ilegales. La Constitución no permite al Gobierno ejercer su enorme poder para castigar a una empresa por su libertad de expresión», afirma la empresa, que recurre al poder judicial como último recurso para reivindicar sus derechos y detener la campaña ilegal de represalias del Ejecutivo.
En este caso, la firma de IA reitera que su Política de Uso siempre ha mantenido que ‘Claude’ no debe utilizarse para dos aplicaciones específicas: guerra autónoma letal y vigilancia masiva de estadounidenses.
