Las agencias de inteligencia de EE.UU. están desplegando activamente herramientas avanzadas de inteligencia artificial de Anthropic a pesar de una designación formal del Pentágono que etiqueta a la empresa como un "riesgo en la cadena de suministro", según un nuevo informe destacado por Axios.
En el centro de la controversia está el modelo Mythos Preview de Anthropic, que según las fuentes se encuentra actualmente en uso en la Agencia de Seguridad Nacional (NSA). El desarrollo expone una división creciente dentro del gobierno de EE.UU. sobre cómo equilibrar la rápida adopción de IA con las restricciones de seguridad internas.

El Pentágono incluyó a Anthropic en la lista negra a principios de febrero de 2026 después de una disputa sobre las salvaguardas de IA y el uso militar, advirtiendo formalmente que sus sistemas representaban una potencial vulnerabilidad en la cadena de suministro. Sin embargo, los funcionarios de inteligencia parecen estar priorizando las capacidades de Mythos, particularmente en ciberseguridad, por encima de esas preocupaciones.
Según las fuentes, la Agencia de Seguridad Nacional (NSA) ha adoptado Mythos, al igual que otras unidades dentro del Departamento. Hasta ahora, los detalles específicos del uso de Mythos por parte de la NSA no se conocen públicamente, pero en otros lugares el modelo se está utilizando principalmente para escanear entornos internos en busca de fallas de seguridad. El modelo se considera uno de los sistemas de IA más avanzados disponibles, con fuertes capacidades "agénticas" que le permiten analizar y explotar de forma autónoma sistemas complejos.
Los informes del uso de la NSA y el DOD llegan días después de que informantes dijeran que la Casa Blanca estaba negociando el acceso al modelo Mythos de Anthropic incluso mientras continuaban los esfuerzos para incluir a la empresa en la lista negra. Más recientemente, el CEO Dario Amodei también confirmó que la empresa ha estado en contacto con funcionarios gubernamentales y está abierta a la colaboración.
Algunas agencias argumentan que limitar el acceso a una IA tan poderosa podría poner a EE.UU. en desventaja estratégica, particularmente contra rivales geopolíticos. Sin embargo, los expertos advierten que las mismas capacidades que hacen valioso a Mythos para la defensa también podrían introducir nuevos riesgos. Su capacidad para descubrir vulnerabilidades a escala podría ser utilizada como arma si se usa indebidamente, generando preocupaciones sobre la escalada en la guerra cibernética.
Solo unas 40 organizaciones verificadas tienen permitido usar Mythos. De los 40 grupos, solo 12 son conocidos públicamente, y la NSA supuestamente está escondida en la mayoría no listada. En el Reino Unido, agencias similares a la NSA también señalaron que tienen acceso al modelo a través de su Instituto Nacional de Seguridad de IA.
Anthropic describe a Mythos como notablemente poderoso en ciberseguridad, capaz de detectar errores profundamente incrustados y explotarlos de forma independiente. Esta combinación de detección avanzada y análisis autónomo ya ha generado tanto interés como preocupación entre los responsables de políticas.
El viernes, Amodei se reunió con el jefe de gabinete de la Casa Blanca, Susie Wiles, y el Secretario del Tesoro, Scott Bessent, para discutir cómo el modelo puede integrarse de forma segura en la infraestructura gubernamental. A pesar de la fricción pública de la Casa Blanca con Anthropic, esta reunión destaca que el poder del modelo es simplemente demasiado valioso para las necesidades de seguridad federal como para dejarlo pasar.
Ambas partes caracterizaron las conversaciones como productivas. La Casa Blanca incluso compartió: "Discutimos oportunidades de colaboración, así como enfoques y protocolos compartidos para abordar los desafíos asociados con el escalamiento de esta tecnología."
Anthropic respondió al Pentágono en marzo, presentando una demanda para revocar la designación de riesgo en la cadena de suministro que amenazaba sus contratos gubernamentales. Esta fue la primera vez que la etiqueta de "no lo suficientemente seguro" se fijó en un proveedor nacional, prohibiendo efectivamente sus herramientas del uso gubernamental estándar.
El equipo legal de Anthropic ha calificado la designación de "riesgo" como una táctica de venganza después de que Amodei negara la solicitud del DoD de integrar la IA en sistemas de armas totalmente autónomos y vigilancia masiva doméstica.
Como informó anteriormente Cryptopolitan, un juez de un tribunal de distrito de California se puso del lado de Anthropic y bloqueó temporalmente la etiqueta de "riesgo en la cadena de suministro". Aun así, un tribunal federal de apelaciones ha revocado desde entonces esa suspensión, manteniendo la designación vigente por ahora.
En los primeros días de los esfuerzos de la lista negra, el presidente Donald Trump había afirmado que los izquierdistas radicales que dirigían la empresa estaban tratando de dictar términos al Departamento de Defensa. Argumentó: "¡No lo necesitamos, no lo queremos y no haremos negocios con ellos de nuevo!"
En este momento, algunos en el DoD todavía creen que la negativa de Anthropic a cooperar plenamente demuestra que desconectarían su tecnología durante una guerra, convirtiéndolos en un riesgo de huida en combate. Sin embargo, otros funcionarios de la administración están ansiosos por enterrar el hacha de guerra solo para tener acceso a la tecnología superior de la empresa.
¿Sigues dejando que el banco se quede con la mejor parte? Mira nuestro video gratuito sobre cómo ser tu propio banco.
