La creciente tensión entre un laboratorio líder de inteligencia artificial y el establecimiento de defensa de EE. UU. se ha intensificado en un enfrentamiento de alto riesgo sobre anthropic ai y el uso en el campo de batalla.
Anthropic ha rechazado las demandas del Departamento de Defensa de EE. UU. de eliminar límites clave de seguridad de IA de sus sistemas, aunque su contrato de $200 millones ahora está en peligro. La compañía ha dejado claro que no retrocederá en su disputa con el DoD sobre cómo se pueden implementar sus modelos avanzados en las redes militares.
Los rivales de la startup OpenAI, Google y xAI obtuvieron contratos similares del DoD de hasta $200 millones en 2023. Sin embargo, esas compañías acordaron permitir que el Pentágono use sus sistemas para todas las misiones legales dentro de los entornos no clasificados del ejército, otorgando al gobierno una mayor flexibilidad operativa.
Por el contrario, Anthropic firmó su propio acuerdo de $200 millones con el DoD en julio y se convirtió en el primer laboratorio de IA en integrar sus modelos directamente en los flujos de trabajo de misiones en redes clasificadas. Además, sus herramientas se integraron en operaciones de defensa sensibles, colocando a la compañía en el centro de la construcción de IA de seguridad nacional de EE. UU.
Las negociaciones con funcionarios del Pentágono se han vuelto cada vez más tensas en las últimas semanas. Una persona familiarizada con las conversaciones dijo que la fricción "se remonta a varios meses atrás", mucho antes de que se hiciera público que Claude fue utilizado en una operación de EE. UU. vinculada a la captura del presidente venezolano Nicolás Maduro.
En el núcleo del enfrentamiento está hasta dónde pueden impulsar las autoridades militares los poderosos modelos de IA hacia la vigilancia y la autonomía. Anthropic busca garantías vinculantes de que su tecnología no se utilizará para armas completamente autónomas o para vigilancia doméstica masiva de estadounidenses, mientras que el DoD quiere evitar tales límites.
Dicho esto, esto no es un desacuerdo comercial limitado, sino una disputa de alto perfil sobre salvaguardas de IA con implicaciones directas para la futura automatización del campo de batalla. El Pentágono insiste en la máxima latitud legal, mientras que Anthropic argumenta que los sistemas actuales aún no pueden ser confiables para decisiones de vida o muerte a gran escala.
En una declaración detallada, el CEO Dario Amodei advirtió que en un "conjunto limitado de casos" la inteligencia artificial puede "socavar, en lugar de defender, los valores democráticos". Enfatizó que algunas aplicaciones están "simplemente fuera de los límites de lo que la tecnología actual puede hacer de manera segura y confiable", destacando los riesgos de uso indebido durante operaciones militares complejas.
Ampliando las preocupaciones sobre vigilancia, Amodei argumentó que los sistemas poderosos ahora hacen posible "ensamblar estos datos dispersos e individualmente inocuos en una imagen integral de la vida de cualquier persona, automáticamente y a escala masiva". Además, advirtió que tal capacidad, si se dirige hacia adentro, podría remodelar fundamentalmente la relación entre ciudadanos y el estado.
Amodei reiteró que Anthropic apoya el uso de IA para la recopilación legal de inteligencia extranjera. Sin embargo, agregó que "usar estos sistemas para vigilancia doméstica masiva es incompatible con los valores democráticos", trazando una línea ética dura entre la inteligencia en el extranjero y el monitoreo interno de personas estadounidenses.
La lucha de poder se intensificó durante una reunión del martes en el Pentágono entre Amodei y el Secretario de Defensa Pete Hegseth. Hegseth ha amenazado con calificar a Anthropic como un "riesgo de cadena de suministro" o invocar la Ley de Producción de Defensa para obligar al cumplimiento. El miércoles por la noche, el DoD entregó lo que llamó su "última y definitiva oferta", dando a la compañía hasta las 17:01 ET del viernes para responder.
Una portavoz de Anthropic reconoció haber recibido un lenguaje contractual revisado el miércoles, pero dijo que representaba "virtualmente ningún progreso". Según ella, la nueva redacción presentada como un compromiso se combinó con una formulación legal que efectivamente permitiría que las salvaguardas críticas "se ignoren a voluntad", socavando las protecciones declaradas.
Abordando la creciente presión, Amodei dijo: "El Departamento de Guerra ha declarado que solo contratará con compañías de IA que accedan a 'cualquier uso legal' y eliminen las salvaguardas en los casos mencionados anteriormente". Agregó que los funcionarios habían amenazado con excluir a Anthropic de sus sistemas y designar a la empresa como un "riesgo de cadena de suministro" si se negaba; sin embargo, insistió, "no podemos en conciencia acceder a su solicitud".
Para el Pentágono, el tema se enmarca de manera diferente. El portavoz principal Sean Parnell dijo el jueves que el DoD "no tiene interés" en usar los sistemas de Anthropic para armas completamente autónomas o para realizar vigilancia masiva de estadounidenses, señalando que tales prácticas serían ilegales. En cambio, sostuvo que el departamento simplemente quiere que la compañía permita el uso de su tecnología para "todos los propósitos legales", describiéndolo como una "solicitud simple y de sentido común".
La disputa también se ha vuelto personal a niveles superiores. El jueves por la noche, el subsecretario de defensa de EE. UU. Emil Michael atacó a Amodei en X, afirmando que el ejecutivo "no quiere nada más que intentar controlar personalmente al ejército de EE. UU.". Michael fue más allá, escribiendo: "Es una pena que Dario Amodei sea un mentiroso y tenga un complejo de Dios".
Sin embargo, Anthropic ha obtenido un respaldo significativo de partes del sector tecnológico. En una carta abierta, más de 200 trabajadores de Google y OpenAI apoyaron públicamente la posición de la compañía. Además, un ex funcionario del DoD le dijo a la BBC que la justificación de Hegseth para usar la etiqueta de "riesgo de cadena de suministro" parecía "extremadamente débil", planteando preguntas sobre la solidez del caso del Pentágono.
La confrontación también se ha convertido en una piedra de toque en el debate más amplio sobre la política de ética de IA militar. Los investigadores de IA y defensores de libertades civiles están observando de cerca, viendo el caso como una prueba temprana de hasta dónde pueden presionar las agencias de defensa a los laboratorios privados para que relajen las restricciones integradas en sistemas avanzados.
A pesar de la retórica creciente, Amodei ha enfatizado que está "profundamente convencido de la importancia existencial de usar IA para defender a los Estados Unidos". Enmarcó el tema como uno de implementación responsable, no de oposición a la defensa nacional, argumentando que la credibilidad a largo plazo de las capacidades de IA de EE. UU. depende de mantener las normas democráticas.
Un representante de Anthropic dijo que la organización permanece "lista para continuar las conversaciones y comprometida con la continuidad operativa para el Departamento y los combatientes de Estados Unidos". Sin embargo, con el reloj del plazo del Pentágono avanzando y las amenazas de una designación de cadena de suministro todavía sobre la mesa, ambas partes enfrentan presión para resolver el estancamiento sin descarrilar la innovación crítica.
En última instancia, el enfrentamiento Anthropic-Pentágono sobre salvaguardas, vigilancia y autonomía se ha convertido en un caso temprano definitorio en la gobernanza de IA militar. Su resultado probablemente dará forma a cómo los futuros modelos de IA de Anthropic y sistemas rivales sean contratados, restringidos y desplegados en las operaciones de defensa de EE. UU.
