Internacionales

Anthropic contra la Administración Trump (y viceversa): un pulso decisivo sobre el uso militar de la IA

Anthropic contra la Administración Trump (y viceversa): un pulso decisivo sobre el uso militar de la IA
  • Publishedfebrero 28, 2026

El Pentágono quería implementar la inteligencia artificial (IA) en todo el Ejército, mientras que Anthropic se mostraba menos entusiasta. El enfrentamiento entre el Departamento de Guerra de EE. UU. y el competidor de OpenAI podría determinar el alcance del uso de chatbots e IA por parte del Ejército estadounidense.

Para el creador de Claude, el tiempo se agotó. Pete Hegseth, el secretario de Guerra, había ordenado a Anthropic que cumpla antes de este viernes 27 de febrero a las 17:01 hora del este. Ante la determinación de la compañía de mantenerse firme, Donald Trump ha instado a su administración que deje de utilizar Claude.

«Ordeno a TODAS las agencias federales del gobierno de Estados Unidos que CESEN INMEDIATAMENTE el uso de la tecnología de Anthropic. No la necesitamos, no la queremos y ya no trabajaremos con ellas», declaró el presidente estadounidense en su plataforma Truth Social.

El republicano aclaró que agencias como el Departamento de Guerra tendrán un periodo de transición de seis meses para abandonar los servicios de la compañía de IA.

Esta sanción no es la única. Hegseth ha ordenado al Departamento de Guerra que etiquete a Anthropic como un «riesgo para la seguridad de la cadena de suministro», lo que «con efecto inmediato» la descalifica de cualquier contrato con el gobierno estadounidense y le impide «cualquier actividad comercial» con «contratistas, proveedores o socios que hagan negocios con el Ejército de Estados Unidos».

Dos líneas rojas

En teoría, el Pentágono simplemente solicita a todos los proveedores de IA que permitan al Ejército usar chatbots «para todos los fines legales». Sin embargo, Anthropic cree que esta redacción no impide que el Ejército cruce sus dos líneas rojas en materia militar.

La compañía no quiere que Claude se utilice para la vigilancia a gran escala de ciudadanos estadounidenses ni para armas totalmente autónomas, como drones sin pilotos humanos.

La rebelión de Anthropic puede parecer sorprendente. Después de todo, el Ejército lleva utilizando Claude desde julio pasado. El acuerdo permite la integración de este chatbot en las redes de comunicación confidenciales del gobierno estadounidense y su uso para la «recopilación y procesamiento de inteligencia», explica Sofia Romansky, coordinadora del proyecto de investigación sobre el uso responsable de la IA en el terreno militar en el Centro de Estudios Estratégicos de La Haya.

Sin embargo, Anthropic parece haberse sorprendido por el uso de Claude en el contexto de la captura del presidente venezolano Nicolás Maduro en enero. La compañía quería saber más sobre cómo se utilizó su IA durante esta controvertida operación militar estadounidense y si su uso se ajustaba a sus directrices éticas.

Poco después de este tropiezo inicial en la relación entre el Pentágono y Anthropic, Pete Hegseth exigió el derecho a usar estas IA «para todos los fines legales» en el Ejército.

La lucha de poder busca determinar si el Estado o las empresas privadas «controlan los marcos legales y éticos para el uso militar de sistemas avanzados de procesamiento de datos en modelos de IA generativa», resume Emil Archambault, investigador y especialista en tecnologías emergentes en el ámbito militar del Consejo Alemán de Relaciones Exteriores (DGAP).

¿Una IA que presiona el botón nuclear?

El resultado de este enfrentamiento cobra mayor importancia dado el «cambio significativo en la postura de Estados Unidos» respecto al uso militar de la IA con el regreso de Donald Trump a la Casa Blanca, afirma Anna Nadibaidze, especialista en aplicaciones militares de inteligencia artificial en la Universidad del Sur de Dinamarca. La nueva administración «ha redefinido el concepto de uso responsable de la IA, afirmando esencialmente que sería irresponsable no integrar esta tecnología en todas partes y sin límites», explica esta experta.

En otras palabras, nada impediría teóricamente que Pete Hegseth y Donald Trump permitieran a Claude o ChatGPT decidir cuándo y contra quién usar armas nucleares.

De ahí la importancia de estas ‘líneas rojas’ que empresas como Anthropic desearían que se respetaran. Podrían llenar un vacío porque «los marcos legales aún no están definidos y no existen estándares claramente establecidos que regulen cómo estas tecnologías pueden ser utilizadas por el ejército», señala Archambault.

Los dos límites establecidos por Anthropic «representan el mínimo indispensable», según Ingvild Bode, directora del Centro de Estudios Bélicos de la Universidad del Sur de Dinamarca y experta en el papel de la inteligencia artificial en cuestiones de seguridad internacional.

El logo de Anthropic es visto en una ilustración elaborada el 20 de mayo de 2024.
El logo de Anthropic es visto en una ilustración elaborada el 20 de mayo de 2024. © Dado Ruvic / Reuters

Aunque no sea mucho, «es positivo que una empresa privada nos recuerde estas líneas rojas», añade.

Abarcan dos elementos cruciales, según los expertos entrevistados por France 24. Por un lado, la negativa a permitir que Claude participe en un programa de vigilancia masiva de ciudadanos estadounidenses «afecta un principio ético central, el respeto a la privacidad», subraya Nadibaidze.

Por otro lado, Anthropic no cree que «los sistemas de IA actuales sean capaces de realizar de forma fiable las tareas necesarias para controlar estas armas autónomas», explica Bode.

Se trata, por lo tanto, de una línea roja técnica. Estos chatbots siguen siendo grandes cajas negras, incluso para sus creadores. «Se componen de tantos parámetros diferentes que existe una gran incertidumbre sobre la decisión final. Por lo tanto, existen problemas de fiabilidad difíciles de conciliar con las armas autónomas», señala Romansky.

Por ejemplo, en el caso de los drones de combate autónomos, nadie puede garantizar que la IA «sea capaz de diferenciar entre un combatiente y un civil, o incluso distinguir a un soldado enemigo de un aliado», enfatiza.

Límites «insuficientes»

En este contexto, estas líneas rojas son tanto una cuestión de principios como «una forma de prevenir posibles riesgos legales», enfatiza Bode. Anthropic no querría ser considerada responsable de consecuencias dramáticas sobre el terreno. «Si se demostrara que un error de la IA provocó la muerte de civiles, podría tener consecuencias muy costosas para la empresa», añade Emil Archambault.

Si bien todos los expertos entrevistados reconocen la importancia de estas dos líneas rojas, «siguen siendo insuficientes», afirma Romansky. Por ejemplo, la negativa a participar en un programa de vigilancia masiva «solo aplica a ciudadanos estadounidenses. ¿Qué pasa con los residentes extranjeros?», pregunta esta especialista. Este límite también es muy vago: ¿cuántos ciudadanos participan para que pueda considerarse vigilancia masiva?

Lo mismo ocurre con las armas autónomas. «La frontera entre un arma ‘totalmente’ autónoma y una ‘parcialmente’ autónoma está mal definida», enfatiza Archambault. Incluso con intervención humana, «sabemos que existe una tendencia a confiar demasiado en los consejos de la IA. Cuando todo sucede muy rápido y los humanos están bajo presión [como en el caso de un ataque con drones, por ejemplo], pueden verse tentados a seguir las recomendaciones del algoritmo sin verificarlas necesariamente ellos mismos», explica Anna Nadibaidze.

Una extensión de tu navegador parece estar bloqueando la carga del reproductor de video. Para poder ver este contenido, debes desactivarla en este sitio.

La compañía fue fundada por Dario Amodei tras abandonar OpenAI ante el vertiginoso desarrollo de sus productos y acusándolos de no garantizar la seguridad de los usuarios.
La compañía fue fundada por Dario Amodei tras abandonar OpenAI ante el vertiginoso desarrollo de sus productos y acusándolos de no garantizar la seguridad de los usuarios. REUTERS – Dado Ruvic

Por lo tanto, el problema radica en que, al establecer dos líneas rojas, tan necesarias como imperfectas, Anthropic sugiere que todos los demás casos son aceptables. Esto a pesar de que el ejemplo de las armas semiautónomas sugiere que el uso de la IA es problemático.

Según los expertos entrevistados, la inflexibilidad de Anthropic respecto a estos principios tiene la ventaja de poner en evidencia a otros gigantes de la IA que no parecen compartir las mismas reservas.

El Pentágono aún puede confiar en ChatGPT (OpenAI), Grok (xAI de Elon Musk) y Gemini (Google), si Anthropic no cede. Sin embargo, este impasse parece haber despertado algunas conciencias: más de 100 empleados de Google han firmado una carta abierta instando a sus líderes a seguir el ejemplo de Anthropic.

Esta batalla también podría dejar huella si, frente a Pete Hegseth y Donald Trump, Anthropic decide ceder después de todo. En este caso, «las empresas más pequeñas, que también querían adoptar una postura ética, podrían concluir que no tiene sentido porque nunca podrán resistir la presión del gobierno», afirma Nadibaidze.

Todo el ecosistema estadounidense de IA se arriesgaría entonces a ceder ante las exigencias de la administración Trump.

Este artículo fue adaptado de su original en francés