Choque histórico entre el Pentágono y Anthropic por el control militar de la IA
El Departamento de Defensa de Estados Unidos ha dado a Anthropic, creadora del modelo de IA Claude, hasta el viernes por la noche para concederle acceso militar sin restricciones o enfrentar duras represalias, según Axios. En una reunión el martes, el secretario de Defensa Pete Hegseth advirtió al CEO Dario Amodei que el Pentágono podría […]
El Departamento de Defensa de Estados Unidos ha dado a Anthropic, creadora del modelo de IA Claude, hasta el viernes por la noche para concederle acceso militar sin restricciones o enfrentar duras represalias, según Axios. En una reunión el martes, el secretario de Defensa Pete Hegseth advirtió al CEO Dario Amodei que el Pentágono podría declarar a la empresa un “riesgo para la cadena de suministro”, una etiqueta normalmente reservada para adversarios extranjeros, o invocar la Ley de Producción de Defensa (DPA) para obligarla a adaptar su modelo a las necesidades del ejército.
La DPA permite al presidente ordenar a compañías que prioricen o amplíen producción en nombre de la seguridad nacional, y se usó durante la pandemia de COVID‑19 para forzar la fabricación de respiradores y mascarillas. En este caso, se utilizaría para imponer cambios en las barreras de uso de una IA avanzada, lo que supondría una ampliación sin precedentes de la ley en el terreno de la inteligencia artificial.
Anthropic mantiene una línea roja: no quiere que su tecnología se use para vigilancia masiva de estadounidenses ni para armas totalmente autónomas, y se niega a ceder en esos puntos. Desde el Pentágono responden que el uso militar de la tecnología debe regirse por la ley y la Constitución de EE. UU., no por las políticas internas de empresas privadas.
El conflicto se da en un contexto político tenso. Figuras de la administración, como el “zar de la IA” David Sacks, han tachado las políticas de seguridad de Anthropic de “woke”. El analista Dean Ball, de la Foundation for American Innovation y ex asesor de IA en la Casa Blanca de Trump, advierte de que forzar a la empresa con la DPA enviaría una señal de inestabilidad jurídica a inversores y directivos: sería percibido como un castigo político que mina la idea de EE. UU. como lugar predecible para hacer negocios.
La batalla de fondo es también estratégica. Anthropic es, según varios reportes, el único laboratorio de IA de frontera con acceso clasificado al Departamento de Defensa. El Pentágono aún no tiene un reemplazo plenamente operativo, aunque habría cerrado un acuerdo para usar el modelo Grok de xAI en sistemas clasificados. Esa dependencia de un solo proveedor agrava la presión: si Anthropic rompiera el contrato, el DOD quedaría expuesto y, además, incumpliría la recomendación de un memorando de seguridad nacional de la era Biden que pide evitar depender de un único sistema de IA para usos sensibles.
Pese al pulso, Reuters informa que Anthropic no planea relajar sus restricciones de uso. El choque entre seguridad nacional, autonomía empresarial y ética en el desarrollo de IA se ha convertido así en un test clave sobre hasta dónde está dispuesto a llegar el gobierno de EE. UU. para controlar la tecnología que considera estratégica.


