Google firmó un nuevo acuerdo con el Departamento de Defensa de Estados Unidos (DOD, por sus siglas en inglés) que permite el uso de sus modelos de inteligencia artificial (IA) para “cualquier fin gubernamental legítimo”, de acuerdo con un reporte de The Information. Con esta decisión, la empresa dirigida por Sundar Pichai se suma a OpenAI y xAI, que también facilitan el uso de su tecnología para tareas clasificadas, pese a las preocupaciones en materia de seguridad y privacidad expresadas por organizaciones, empleados y especialistas.
“Nos enorgullece formar parte de un amplio consorcio de laboratorios de IA líderes y compañías de tecnología y computación en la nube que brindan servicios e infraestructura en apoyo de la seguridad nacional”, señaló un portavoz de Google, citado en el informe. El vocero añadió que el nuevo acuerdo constituye, en realidad, una revisión de un contrato por hasta 200 millones de dólares firmado en 2025, mediante el cual la empresa proporciona apoyo a la Oficina del Director de Inteligencia Digital y Artificial del DOD.
Según una fuente anónima citada por The Information, el acuerdo ajustado exige a Google colaborar con el hoy llamado «Departamento de Guerra” para adaptar la configuración y los filtros de seguridad de sus sistemas de IA con el fin de satisfacer las necesidades del gobierno.
El documento incluiría una cláusula que establece que “las partes acuerdan que el sistema de IA no está destinado a, ni debe utilizarse para, vigilancia masiva interna o armas autónomas (incluida la selección de objetivos) sin la supervisión y el control humanos adecuados”. No obstante, también impediría a Google controlar o vetar decisiones operativas legítimas del gobierno, según el reporte. Esto sugiere que las restricciones de uso no serían legalmente vinculantes.
Al respecto, el portavoz de Google aseguró que la compañía mantiene su compromiso con el consenso entre los sectores público y privado de que la IA no debe emplearse para vigilancia masiva interna ni para armamento autónomo sin la supervisión humana adecuada.
Preocupaciones por el uso clasificado de la IA
El uso clasificado de los modelos y productos de IA de Google ha generado inquietud entre los propios empleados de la compañía. Poco antes de darse a conocer la revisión del acuerdo, un informe de The Washington Post reveló que más de 600 trabajadores firmaron una carta dirigida a Sundar Pichai en la que solicitaron frenar cualquier colaboración con el Pentágono que facilitara el uso clasificado de esta tecnología.
Los firmantes argumentaron que estos sistemas “pueden centralizar el poder y cometer errores”. Asimismo, sostuvieron que se debe garantizar en todo momento que la IA se utilice en beneficio de la humanidad y “no con fines inhumanos o altamente dañinos”, como la optimización de armas letales o la vigilancia masiva.
“Actualmente, la única forma de garantizar que Google no se asocie con tales perjuicios es rechazar cualquier carga de trabajo clasificada. De lo contrario, esos usos podrían ocurrir sin nuestro conocimiento ni la capacidad de impedirlos”, advirtieron los empleados inconformes.
Esta postura representa una nueva muestra de inquietud dentro de la industria tecnológica sobre los posibles riesgos asociados al uso clasificado de la inteligencia artificial. En paralelo, Anthropic mantiene una disputa con el Pentágono tras ser señalada como un “riesgo para la cadena de suministro”, luego de negarse a flexibilizar sus políticas respecto al uso militar de la IA.
En ese contexto, centenares de empleados de Google y OpenAI firmaron previamente una carta abierta en la que instaban a los líderes de sus empresas a adoptar una posición similar a la de Anthropic frente a las exigencias del Departamento de Defensa. Dichas demandas buscan que la creadora de Claude elimine ciertos mecanismos de seguridad para permitir el uso de sus sistemas en operaciones militares, vigilancia masiva y posibles armas autónomas.











