Internacionales

La lucha por el uso militar ético de la IA: Anthropic demanda para impedir sanciones del Pentágono

La lucha por el uso militar ético de la IA: Anthropic demanda para impedir sanciones del Pentágono
  • Publishedmarzo 9, 2026

La disputa entre la empresa de inteligencia artificial Anthropic y el Gobierno de Donald Trump ha escalado aún más. La startup ha demandado a la Administración ante tribunales federales para impedir su clasificación como “amenaza en la cadena de suministro”.

Lo ha hecho invocando la protección constitucional a la libertad de expresión, argumentando que la decisión del Pentágono de clasificarla como parte de la lista negra de contratistas se basa en el ejercicio que la empresa ha hecho de este derecho.

«Estas acciones son sin precedentes e ilegales», indica la demanda, que fue introducida ante tribunales de California y Washington, cuestionando en cada uno aspectos diferentes de la medida gubernamental.

«La Constitución no permite que el Gobierno ejerza su enorme poder para castigar a una empresa por su libertad de expresión protegida. Ninguna ley federal autoriza las acciones tomadas aquí. Anthropic recurre al poder judicial como último recurso para defender sus derechos y detener la campaña ilegal de represalias del Ejecutivo», agrega el escrito.

El Pentágono impuso la designación el 5 de marzo contra Anthropic, luego de que la empresa -uno de los cuatro contratistas que le proveen herramientas de IA- se negara a permitir el uso de su tecnología sin las restricciones que mantiene para cualquier otro cliente.

Es la primera vez que se aplica a una compañía estadounidense la designación de “amenaza en la cadena de suministro”, una autoridad originalmente diseñada para proteger los sistemas de seguridad nacional de la actuación de adversarios extranjeros.

El director ejecutivo de Anthropic, Dario Amodei, había indicado inicialmente que creía que la clasificación se limitaba al ámbito militar y que no le impediría contratar con otras agencias federales.

Ahora está adoptando una posición más agresiva para proteger a la empresa del impacto de la declaración, que según el secretario de Defensa Pete Hegseth será implementada progresivamente en el curso de seis meses.

Una extensión de tu navegador parece estar bloqueando la carga del reproductor de video. Para poder ver este contenido, debes desactivarla en este sitio.

© France 24

Anthropic emitió el 5 de marzo un comunicado reaccionando a la designación, que consideró legalmente insostenible, y advirtió que sentaría un “precedente peligroso” para otros contratistas del gobierno federal. Además, sostuvo que no se dejaría influenciar por «intimidación ni castigo» y anunció que acudiría a los tribunales.

Amodei fue un poco más allá un día después, cuando escribió un memorando interno, que fue filtrado por el portal de información sobre tecnología The Information, en el que atribuyó el rechazo del Pentágono a que «no hemos dado elogios al estilo dictador a Trump.»

La agencia Reuters reportó que financistas de Anthropic, como Google GOOGL.O de Alphabet y AMZN.O de Amazon.com, estaban intentando mitigar el impacto de la medida gubernamental.

La mayor parte de los 14.000 millones de dólares de ingresos que la empresa ha proyectado para este año provienen de contratos con agencias federales, que usan a su chatbot Claude para programación y otras aplicaciones.

¿Cuál es la posición de Anthropic?

Los límites no son nuevos y han sido parte de la política corporativa de Anthropic desde los tiempos en que el expresidente Joe Biden trató de imponer límites éticos al uso de la IA: que el chatbot Claude no se utilice en el desarrollo de armas autónomas ni en sistemas de vigilancia masiva de ciudadanos estadounidenses.

«Una IA poderosa que analiza miles de millones de conversaciones de millones de personas podría medir el sentimiento público, detectar focos de deslealtad que se forman y erradicarlos antes de que crezcan», escribió Dario Amodei en un ensayo publicado en enero.

La compañía fue fundada por Dario Amodei tras abandonar OpenAI ante el vertiginoso desarrollo de sus productos y acusándolos de no garantizar la seguridad de los usuarios.
La compañía fue fundada por Dario Amodei tras abandonar OpenAI ante el vertiginoso desarrollo de sus productos y acusándolos de no garantizar la seguridad de los usuarios. REUTERS – Dado Ruvic

Amodei mantuvo esa posición el 27 de febrero, cuando expiraba el ultimátum para abrir el uso sin restricciones de su tecnología, en una tensa reunión con el secretario de Defensa Pete Hegseth, que ha prometido que bajo su gestión la “IA del Pentágono no será woke”.

Un día después, Hegseth cumplió su amenaza de designar a Anthropic como “una amenaza en la cadena de suministros”, afirmando que debían ser las leyes estadounidenses, y no una empresa privada, las que determinaran cómo se lleva a cabo la defensa del país.

La clasificación le impedirá a la compañía contratar con la administración federal, como lo dejó claro el presidente Trump en una publicación en Truth Social.

«Ordeno a TODAS las agencias federales del gobierno de Estados Unidos que CESEN INMEDIATAMENTE el uso de la tecnología de Anthropic. No la necesitamos, no la queremos y ya no trabajaremos con ellas», anunció Trump.

«Sería irresponsable para el pueblo estadounidense y peligroso para nuestra nación que el GSA (Administración de Servicios Generales) mantuviera una relación comercial con Anthropic», afirmó en un correo electrónico Josh Gruenbaum, quien es comisionado de adquisiciones, una dependencia de la GSA que contrata software para el gobierno federal.

El impacto en la industria de la IA

El Pentágono firmó en 2025 contratos de defensa por encima de los 200 millones de dólares con cuatro compañías de IA: Anthropic, OpenAI, xAI y Google, pero la primera es la única que opera en un entorno clasificado, una característica crítica para el manejo de información sensible como la militar.

De las cuatro, solo Anthropic ha fijado límites al uso de su tecnología, mientras que el director ejecutivo de OpenAI, Sam Altman, se desdijo luego de haber mantenido una posición similar a la de Amodei, y terminó firmando un acuerdo por la vía rápida con el Pentágono, para suplir la participación de Anthropic.

Ese convenio dio lugar a la renuncia de una figura clave de OpenAI, Caitlin Kalinowski, que había estado al frente de los esfuerzos de robótica y hardware de consumo.

Kalinowski publicó una despedida en X en la que defendió que “la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin supervisión humana son líneas que merecían más reflexión de la que tuvieron”.

Con Reuters, AP y medios locales