La chispa del conflicto fue el lanzamiento de Claude Mythos, un modelo de IA extremadamente potente cuyo diseño permite identificar vulnerabilidades profundas en sistemas informáticos. El potencial de esta tecnología encendió alarmas en distintos sectores del gobierno de Donald Trump, que vieron en Mythos un riesgo tanto para la seguridad nacional como para la estabilidad digital global.
Mientras Anthropic defendió que su enfoque responsable limitaría el acceso del modelo solo a entornos estrictamente controlados, la Casa Blanca y altos funcionarios de seguridad expresaron su preocupación por la ausencia de un mecanismo claro para supervisar y compartir esa tecnología con las agencias federales antes de su lanzamiento. Este desacuerdo desencadenó presiones administrativas y políticas sobre la empresa.
El conflicto escaló cuando el Pentágono calificó a Anthropic como un “riesgo para la cadena de suministro”, una etiqueta que tradicionalmente se reservó solo para empresas extranjeras. Esa decisión implicó cancelar contratos gubernamentales multimillonarios y cortar las relaciones comerciales vigentes con la firma.
Ante la negativa de Anthropic a permitir un uso completo de sus tecnologías sin restricciones —incluyendo aquellas relacionadas con vigilancia masiva o armamento autónomo— el presidente Trump ordenó a todas las agencias federales que cesaran inmediatamente el uso de las herramientas desarrolladas por la empresa.
La respuesta de Anthropic fue contundente: la compañía presentó una demanda contra el gobierno estadounidense por considerar que la administración actuó de manera injusta y contraria a los contratos firmados, además de obstaculizar su capacidad de colaborar con otras entidades públicas y privadas.
En paralelo, un juez federal emitió una orden preliminar que bloqueó al Pentágono de limitar los contratos con Anthropic, argumentando que ciertas medidas gubernamentales podrían constituir una forma de represión contra una empresa que simplemente busca mantener principios éticos en el desarrollo de IA.
Este tenso enfrentamiento dejó una consecuencia inmediata: el gobierno de EE. UU. terminó su relación con Anthropic en varios frentes clave, desplazando a la compañía de proyectos estratégicos, mientras otras empresas del sector, como OpenAI, renegociaron acuerdos con Washington para asegurar su participación en iniciativas de defensa y seguridad bajo los nuevos parámetros del gobierno.
El choque entre Anthropic y el gobierno estadounidense levantó un debate profundo sobre la gobernanza de la inteligencia artificial, la responsabilidad empresarial y la soberanía de los estados frente a tecnologías que podrían redefinir la seguridad, la economía y el poder global. El desenlace de esta disputa no solo afectará a una compañía, sino que podría reconfigurar la forma en que Estados Unidos regula y colabora con las grandes empresas de IA en el futuro cercano.