OpenAI firma un acuerdo con el Pentágono mientras Anthropic es castigada por poner límites al uso militar de la IA
El CEO de OpenAI, Sam Altman, confirmó que la compañía ha cerrado un acuerdo para que el Departamento de Defensa de Estados Unidos utilice sus modelos de inteligencia artificial en redes clasificadas, en pleno choque entre el Pentágono y su rival Anthropic por los límites éticos del uso militar de la IA. Anthropic se había […]
El CEO de OpenAI, Sam Altman, confirmó que la compañía ha cerrado un acuerdo para que el Departamento de Defensa de Estados Unidos utilice sus modelos de inteligencia artificial en redes clasificadas, en pleno choque entre el Pentágono y su rival Anthropic por los límites éticos del uso militar de la IA.
Anthropic se había negado a aceptar que sus sistemas se usaran para “todos los fines legales”, reclamando líneas rojas frente a la vigilancia masiva doméstica y las armas totalmente autónomas. Su director ejecutivo, Dario Amodei, defendió que, en ciertos casos, la IA puede socavar los valores democráticos en lugar de protegerlos.
La postura de Anthropic provocó la reacción del presidente Donald Trump, que la atacó en redes sociales y ordenó a las agencias federales dejar de usar sus productos tras un periodo de transición de seis meses. El secretario de Defensa, Pete Hegseth, fue más allá y anunció que designará a Anthropic como un riesgo para la cadena de suministro, prohibiendo a contratistas y socios del Ejército mantener relaciones comerciales con la empresa. Anthropic ha respondido que no ha recibido comunicación oficial y que impugnará legalmente esa clasificación.
En paralelo, más de 60 empleados de OpenAI y 300 de Google firmaron una carta abierta pidiendo a sus empresas que respalden la posición de Anthropic, lo que refleja un creciente malestar dentro del sector tecnológico por el uso militar de la IA.
Altman, sin embargo, sostiene que su acuerdo con el Pentágono incorpora precisamente las salvaguardas que defendía Anthropic: prohibición de vigilancia masiva doméstica, obligación de mantener responsabilidad humana sobre el uso de la fuerza —incluyendo sistemas de armas autónomas— y capacidad de OpenAI para construir su propio “safety stack” que impida usos indebidos. Según trasladó a sus empleados, si el modelo se niega a realizar una tarea, el Gobierno no podrá obligar a OpenAI a forzarlo.
Altman también instó al Departamento de Defensa a ofrecer esas mismas condiciones a todas las empresas de IA y pidió rebajar la escalada legal y política en favor de acuerdos razonables. Su anuncio coincidió con el inicio de bombardeos de EE.UU. e Israel sobre Irán, un contexto que amplifica la preocupación sobre el papel de la IA en la guerra y en decisiones críticas de seguridad nacional.


