Tecnologia

A diferencia de Anthropic, OpenAI cede al Pentágono «uso legal» de su IA para fines militares

A diferencia de Anthropic, OpenAI cede al Pentágono «uso legal» de su IA para fines militares
  • Publishedmarzo 2, 2026

OpenAI firmó un acuerdo con el Departamento de Defensa de Estados Unidos (DOD, por sus siglas en inglés) para facilitar el uso de sus sistemas de inteligencia artificial (IA) en redes militares clasificadas. El convenio fue anunciado por Sam Altman, director ejecutivo de la empresa, momentos después de que el presidente Donald Trump ordenara a todas las agencias federales suspender de inmediato el uso de la tecnología de Anthropic.

La decisión del mandatario se produjo tras la negativa de Anthropic de eliminar sus mecanismos de seguridad, diseñados para impedir que sus sistemas sean utilizados en el desarrollo u operación de armas autónomas o en programas de vigilancia masiva.


Anthropic Trump Irán

En el contexto de la nueva guerra contra Irán, Claude, de Anthropic, ha sido empleado por EE UU para hacer evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla.


Altman aseguró que la prohibición de la vigilancia doméstica indiscriminada y la exigencia de responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armamento autónomo, constituyen dos de los principios de seguridad más relevantes para OpenAI. “El Departamento de Guerra coincide con estos principios, los refleja en la legislación y las políticas, y los incorporamos en nuestro acuerdo”, afirmó.

El ejecutivo precisó que el convenio contempla la implementación de diversas salvaguardas técnicas destinadas a garantizar el comportamiento adecuado de los modelos de IA. Entre ellas se encuentra la aplicación en redes de nube de un sistema de seguridad conocido como Full Disk Encryption o “cifrado de disco completo”, que codifica toda la información almacenada y procesada en los servidores donde se ejecutan los modelos. Con ello se busca impedir accesos no autorizados a los datos.

“Solicitamos al Departamento de Guerra que ofrezca estas mismas condiciones a todas las empresas de IA, las cuales, en nuestra opinión, deberían estar dispuestas a aceptarlas. Hemos expresado además nuestro firme deseo de que la situación se desactive, dejando de lado las acciones legales y gubernamentales para avanzar hacia acuerdos razonables”, concluyó Altman.

En una entrada publicada en su blog oficial, el equipo de OpenAI explicó que su colaboración con el Departamento de Defensa establece restricciones claras para el uso de su tecnología. Entre ellas se encuentra la prohibición de emplear sus modelos en programas de vigilancia doméstica masiva, para dirigir sistemas de armamento autónomo o para adoptar “decisiones automatizadas de alto riesgo”.

La empresa añadió que sus sistemas se ejecutarán únicamente en redes en la nube y no en dispositivos de borde (como teléfonos inteligentes o computadoras personales) con el objetivo de reducir riesgos de vulneración y facilitar la detección de comportamientos anómalos.

Según la compañía, el cumplimiento de estas salvaguardas se garantizará mediante “un enfoque más amplio y multicapa” que permitirá a los especialistas de OpenAI supervisar permanentemente las operaciones. A ello se suman, de acuerdo con la firma, “sólidas protecciones contractuales” que complementan las salvaguardas ya previstas en la legislación estadounidense vigente.