De mejorar el mundo a crear robots asesinos: La guerra está cambiando la carrera por el control de la IA

He pasado los últimos días pidiendo a las empresas de IA que me convenzan de que las perspectivas de seguridad de la IA no se han desvanecido. Hace solo unos años, parecía que las empresas, los legisladores y el público en general estaban de acuerdo en que una regulación y supervisión serias de la IA no solo eran necesarias, sino inevitables.
Se especulaba con la posibilidad de que organismos internacionales establecieran normas para garantizar que la IA se tratara con más seriedad que otras tecnologías emergentes y que, al menos, pudieran poner obstáculos a sus aplicaciones más peligrosas. Las empresas prometieron dar prioridad a la seguridad frente a la competencia y los beneficios. Aunque los catastrofistas seguían planteando escenarios distópicos, se estaba formando un consenso mundial para limitar los riesgos de la IA y, al mismo tiempo, aprovechar sus beneficios.
Los acontecimientos de la última semana golpearon esas esperanzas, empezando por la amarga disputa entre el Pentágono y Anthropic. Todas las partes están de acuerdo en que el contrato existente entre ambos solía especificar, por insistencia de Anthropic, que el Departamento de Defensa (que ahora se refiere a sí mismo como el Departamento de Guerra) no utilizará los modelos de IA Claude de Anthropic para armas autónomas o vigilancia masiva de estadounidenses. Ahora, el Pentágono quiere borrar esas líneas rojas, y la negativa de Anthropic no solo ha provocado la rescisión de su contrato, sino que también ha llevado al Secretario de Defensa Pete Hegseth a declarar a la empresa un riesgo para la cadena de suministro, una designación que impide a las agencias gubernamentales hacer negocios con Anthropic. Sin entrar en detalles sobre las cláusulas del contrato y la dinámica personal entre Hegseth y el director general de Anthropic, Dario Amodei, la conclusión parece ser que el ejército está decidido a resistirse a cualquier limitación en el uso de la IA, al menos dentro de los límites de la legalidad, según su propia definición.
Lo bueno de la IA se convirtió en malo
La cuestión más importante parece ser cómo hemos llegado al punto en el que la liberación de robots teledirigidos asesinos y bombas que identifican y eliminan objetivos humanos se ha convertido en algo que el ejército de EE UU podría siquiera considerar. ¿Me perdí el debate internacional sobre las ventajas de crear enjambres de drones autónomos letales que escaneen zonas de guerra, patrullen fronteras o vigilen a los traficantes de drogas? Hegseth y sus partidarios se quejan de lo absurdo de que las empresas privadas limiten lo que pueden hacer los militares. A mí me parece más absurdo que haga falta una empresa solitaria que se arriesga a sanciones existenciales para detener una tecnología potencialmente incontrolable. En cualquier caso, la falta de acuerdos internacionales significa que toda milicia avanzada debe utilizar la IA en todas sus formas, simplemente para estar a la altura de sus adversarios. En estos momentos, la carrera armamentística de la IA parece inevitable.
Los riesgos van mucho más allá del ámbito militar. El drama del Pentágono quedó eclipsado por un inquietante anuncio que Anthropic publicó el 24 de febrero. La empresa declaró que estaba haciendo cambios en su sistema para mitigar los riesgos catastróficos de la IA, llamado Política de Escalado Responsable. Se trataba de una política fundacional de Anthropic, en la que la empresa se comprometía a vincular su calendario de lanzamiento de modelos de IA a sus procedimientos de seguridad. La política establecía que los modelos no debían lanzarse sin barreras que impidieran los peores usos. Actuaba como incentivo interno para garantizar que no se descuidara la seguridad en la carrera por lanzar tecnologías avanzadas. Y lo que es más importante, Anthropic esperaba que la adopción de esta política inspirara o avergonzara a otras empresas a hacer lo mismo. Llamó a este proceso la «carrera hacia la cima». La expectativa era que la incorporación de estos principios ayudaría a influir en las normativas de toda la industria que establecen límites al caos que la IA podría causar.
Al principio, este enfoque parecía prometedor. DeepMind y OpenAI adoptaron aspectos del marco de Anthropic. Recientemente, cuando las inversiones se dispararon, aumentó la competencia entre los laboratorios de IA y la perspectiva de una regulación federal empezó a parecer más remota, Anthropic admitió que su Política de Escalado Responsable se había quedado corta. Los umbrales no crearon el consenso sobre los riesgos de la IA que esperaba. Como señalaba la empresa en una entrada de su blog, «el entorno político ha cambiado para dar prioridad a la competitividad y el crecimiento económico de la IA, mientras que los debates orientados a la seguridad aún no han ganado tracción significativa a nivel federal».
Mientras tanto, la competencia entre las empresas de IA se ha vuelto más feroz. En lugar de una carrera hacia la cima, la rivalidad de la IA parece más una versión a puño limpio del Rey de la Montaña. Cuando el Pentágono desterró a Anthropic, OpenAI se apresuró a llenar el vacío con su propio contrato con el Departamento de Defensa. El CEO de OpenAI, Sam Altman, insistió en que llegó a su precipitado acuerdo con el Pentágono para aliviar la presión sobre Anthropic, pero Amodei no estaba de acuerdo. «Sam está tratando de socavar nuestra posición mientras aparenta apoyarla. Está intentando que la Administración pueda castigarnos más fácilmente socavando nuestro apoyo público», mencionó Amodei en un memorando interno. Más tarde, se disculpó por el tono de su mensaje.


