Choque histórico entre Anthropic y el Pentágono desata rebelión en el sector tecnológico
Cientos de trabajadores tecnológicos de empresas como OpenAI, Slack, IBM, Cursor y Salesforce Ventures han firmado una carta abierta para pedir al Departamento de Defensa de Estados Unidos que retire la designación de Anthropic como “riesgo para la cadena de suministro” y que el Congreso revise el uso de estas facultades extraordinarias contra una compañía […]
Cientos de trabajadores tecnológicos de empresas como OpenAI, Slack, IBM, Cursor y Salesforce Ventures han firmado una carta abierta para pedir al Departamento de Defensa de Estados Unidos que retire la designación de Anthropic como “riesgo para la cadena de suministro” y que el Congreso revise el uso de estas facultades extraordinarias contra una compañía tecnológica estadounidense.
El conflicto estalló después de que Anthropic, laboratorio de inteligencia artificial, se negara a dar al ejército acceso irrestricto a sus sistemas de IA. La empresa marcó dos líneas rojas: no permitir que su tecnología se use para vigilancia masiva de ciudadanos estadounidenses ni para armas autónomas que decidan objetivos y disparos sin supervisión humana. El Pentágono afirmó que no planea hacerlo, pero rechazó que un proveedor pueda imponerle límites.
Tras la negativa del CEO Dario Amodei, el presidente Donald Trump ordenó a las agencias federales dejar de usar la tecnología de Anthropic tras un periodo de transición de seis meses, y el secretario de Guerra, Pete Hegseth, anunció su intención de etiquetar oficialmente a la empresa como “riesgo de la cadena de suministro”, una figura normalmente reservada para adversarios extranjeros. En X, Hegseth advirtió que ningún contratista o socio del ejército podrá hacer negocios comerciales con Anthropic; sin embargo, para que esto sea efectivo aún hace falta un proceso formal de evaluación de riesgos y notificación al Congreso.
Anthropic sostiene que la designación es jurídicamente insostenible y ha prometido impugnarla en los tribunales. La misiva firmada por trabajadores del sector advierte que castigar a una empresa por no aceptar cambios en un contrato sienta un precedente peligroso y lanza un mensaje de intimidación al resto de la industria: aceptar todas las condiciones del gobierno o afrontar represalias.
La polémica también aviva el debate sobre los límites éticos del uso de la IA por los gobiernos. Boaz Barak, investigador de OpenAI, defendió que bloquear el uso de IA para vigilancia masiva de la población es una “línea roja personal” que debería ser compartida por todos. Casi al mismo tiempo que Trump atacaba a Anthropic, OpenAI anunció su propio acuerdo para desplegar sus modelos en entornos clasificados del Departamento de Defensa, insistiendo en que mantiene las mismas líneas rojas que Anthropic.
Voces de la industria reclaman que el uso de IA para abusos gubernamentales y vigilancia interna sea tratado como un riesgo catastrófico, al mismo nivel que las aplicaciones en ciberataques o armas biológicas, y que se establezcan procesos rigurosos de evaluación y mitigación. El caso Anthropic vs. Pentágono se ha convertido así en un punto de inflexión sobre hasta dónde puede llegar el poder del gobierno en la contratación tecnológica y quién pone los límites al uso militar de la inteligencia artificial.


