La publicación El juez bloquea al Pentágono para que no califique a Anthropic como amenaza a la seguridad nacional apareció en BitcoinEthereumNews.com. En resumen Un juez federal ha bloqueado alLa publicación El juez bloquea al Pentágono para que no califique a Anthropic como amenaza a la seguridad nacional apareció en BitcoinEthereumNews.com. En resumen Un juez federal ha bloqueado al

Juez bloquea al Pentágono de etiquetar a Anthropic como amenaza de seguridad nacional

2026/03/27 12:23
Lectura de 5 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

En resumen

  • Un juez federal ha bloqueado al Pentágono de etiquetar a Anthropic como un riesgo de cadena de suministro, determinando que la medida probablemente violó los derechos de la Primera Enmienda y al debido proceso de la compañía.
  • La disputa se originó por un contrato de IA del Departamento de Defensa de $200 millones que colapsó después de que Anthropic se negara a permitir el uso de su modelo para vigilancia masiva o guerra autónoma letal.
  • El fallo restaura temporalmente la posición de Anthropic con los contratistas federales y podría moldear cómo las empresas de IA establecen límites de uso en acuerdos gubernamentales.

Un juez federal ha bloqueado al Pentágono de etiquetar a Anthropic como un riesgo de cadena de suministro, dictaminando el jueves que la campaña del gobierno contra la compañía de IA violó sus derechos de la Primera Enmienda y al debido proceso.

La jueza de distrito de EE.UU. Rita Lin emitió una medida cautelar preliminar del Distrito Norte de California dos días después de escuchar los argumentos orales de ambas partes, en un caso que los observadores dicen fue hecho inevitable por el propio papeleo del gobierno.

"Nada en el estatuto rector apoya la noción orwelliana de que una compañía estadounidense pueda ser marcada como un adversario potencial y saboteador de EE.UU. por expresar desacuerdo con el gobierno", escribió la jueza Lin.

El registro interno fue fatal para el caso del gobierno, según Andrew Rossow, abogado de asuntos públicos y CEO de AR Media Consulting, quien dijo a Decrypt que la designación fue "provocada por conducta de prensa, no por un análisis de seguridad".

"El gobierno esencialmente escribió su propio motivo, y fue represalia", dijo Rossow.

La disputa se centra en un contrato de dos años de $200 millones otorgado a Anthropic en julio de 2025 por la Oficina Principal Digital e Inteligencia Artificial del Departamento de Guerra. 

Las negociaciones para desplegar Claude en la plataforma GenAI.Mil del departamento fracasaron después de que ambas partes no lograran ponerse de acuerdo sobre las restricciones de uso.

Anthropic insistió en dos condiciones: que Claude no se usara para vigilancia masiva de estadounidenses o para uso letal en guerra autónoma, argumentando que el modelo aún no era seguro para ninguno de los dos propósitos.

En una reunión del 24 de febrero, el Secretario de Guerra Pete Hegseth dijo a los representantes de Anthropic que si la compañía no eliminaba sus restricciones antes del 27 de febrero, el departamento la designaría inmediatamente como un riesgo de cadena de suministro.

Anthropic se negó a cumplir.

El mismo día, el presidente Trump publicó una directiva en Truth Social ordenando a todas las agencias federales "cesar inmediatamente" el uso de la tecnología de la compañía, llamando a Anthropic una "compañía radical de izquierda, woke".

Poco más de una hora después, Hegseth describió la postura de Anthropic como una "clase magistral en arrogancia y traición", ordenando que ningún contratista que haga negocios con los militares pueda realizar actividad comercial con la empresa. La designación formal de cadena de suministro siguió mediante una carta el 3 de marzo.

Anthropic demandó al gobierno el 9 de marzo, alegando violaciones a la Primera Enmienda, el debido proceso y la Ley de Procedimiento Administrativo.

"Castigar a Anthropic por traer escrutinio público a la posición contractual del gobierno es una represalia clásica e ilegal de la Primera Enmienda", escribió la jueza Lin en la orden del jueves.

La orden, que fue suspendida por siete días, bloquea las tres acciones del gobierno, requiere un informe de cumplimiento antes del 6 de abril y restaura el statu quo antes de los eventos del 27 de febrero.

Armar la ley

La designación de ser un "riesgo de cadena de suministro" ha sido históricamente reservada para agencias de inteligencia extranjeras, terroristas y otros actores hostiles. 

Nunca se había aplicado a una compañía nacional antes de Anthropic. Los contratistas de defensa comenzaron a evaluar y en muchos casos terminar su dependencia de Anthropic en las semanas que siguieron, señaló la orden de la jueza Lin.

Y la postura del gobierno podría tener consecuencias imprevistas, argumentan los expertos.

De hecho, el fallo del jueves podría impulsar a las compañías de IA "a formalizar barreras éticas al trabajar con gobiernos", dijo Pichapen Prateepavanich, estratega de políticas y fundadora de la empresa de infraestructura Gather Beyond, a Decrypt.

Hasta cierto punto, el fallo también sugiere que las compañías "pueden establecer límites de uso claros sin desencadenar automáticamente acciones regulatorias punitivas", dijo.

Pero esto "no elimina la tensión", agregó. Lo que el fallo limita es "la capacidad de escalar ese desacuerdo hacia una exclusión más amplia o etiquetado que parezca represalia".

Aún así, la aplicación de la autoridad estatutaria actual para designar a una compañía como un riesgo de cadena de suministro "porque se negó a eliminar barreras de seguridad" no es una extensión del estatuto de riesgo de cadena de suministro,  explicó Rossow. En cambio, opera como una "armar" la ley.

"Esto es parte de un patrón continuo de comportamiento de la Casa Blanca cada vez que son desafiados, resultando en amenazas desproporcionadas, impulsadas emocionalmente y sesgadas, y extorsión gubernamental", agregó.

Si se acepta la "teoría" del gobierno, crearía un precedente "peligroso" en el que las empresas de IA pueden ser puestas en lista negra por políticas de seguridad que al gobierno no le gustan, "antes de que ocurra algún daño", sin el debido proceso, bajo la bandera de seguridad nacional, dijo Rossow.

Daily Debrief Newsletter

Comience cada día con las principales noticias del momento, además de características originales, un podcast, videos y más.

Fuente: https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat

Oportunidad de mercado
Logo de Notcoin
Precio de Notcoin(NOT)
$0.0003497
$0.0003497$0.0003497
-2.99%
USD
Gráfico de precios en vivo de Notcoin (NOT)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.