Código Futuro: La IA se viste de militar y el código devora a sus creadores

¡Hola a todos! Soy Anna Lagos. Bienvenidos una vez más a Código Futuro, el rincón de WIRED en Español donde nos sentamos a conversar sobre lo que está pasando con la IA, la ciencia y la tecnología.
Esta semana he estado releyendo Cibernética y sociedad (The Human Use of Human Beings, por su título en inglés), de Norbert Wiener. Aunque fue escrito a mediados del siglo pasado, hay una advertencia que resuena con una urgencia brutal en estos días: el peligro inmenso de ceder a las máquinas decisiones que involucran la vida humana. Wiener entendía que la tecnología no tiene moralidad intrínseca; nosotros somos quienes debemos imponérsela.
Los eventos de los últimos días en Silicon Valley parecen sacados directamente de una distopía que Wiener intentó evitar. Estamos presenciando el choque entre los principios éticos que fundaron a las grandes empresas de Inteligencia Artificial y la cruda realidad de la geopolítica y la defensa militar.
El cisma ético de OpenAI
Hasta ahora, habíamos visto a muchos usuarios cancelar sus suscripciones a ChatGPT en protesta por el reciente y polémico acuerdo de OpenAI con el Pentágono, llevando a Claude al puesto número 1 de la App Store.
Pero esta semana, la protesta escaló al nivel ejecutivo.
Caitlin Kalinowski, directora de robótica de OpenAI – quien llegó apenas en noviembre desde el equipo de gafas AR de Meta para reconstruir la división – ha anunciado su renuncia. Es la primera salida pública motivada por este contrato militar.
Sus palabras son un dardo directo al corazón de la empresa: llamó a la decisión un movimiento apresurado que se saltó los límites sobre la vigilancia con IA y la «autonomía letal».
Kalinowski dejó claro que su salida es «por principios, no por personas».
Y no está sola; el vicepresidente de investigación, Max Schwarzer, también abandonó el barco la semana pasada para irse a Anthropic.
OpenAI puede sobrevivir a las críticas en Twitter y a las caídas en la App Store, pero una carta de renuncia de alto nivel que menciona autonomía letal y vigilancia cambia por completo la narrativa.
La guerra fría de la IA: Amodei vs. Altman
El drama militar no termina en OpenAI. La frontera entre los gigantes de la IA se ha vuelto profundamente personal. El viernes pasado, el CEO de Anthropic, Dario Amodei, envió un memorándum interno de 1,600 palabras, filtrado por The Information.
En el texto, Amodei califica el acuerdo militar de OpenAI como «quizás un 20% real y un 80% teatro de seguridad». Esto ocurre poco después de que el Pentágono tachara a Anthropic de «riesgo en la cadena de suministro», abriendo la puerta para que OpenAI interviniera con términos similares.
Amodei no se guardó nada: acusó a Sam Altman de hacer gaslighting (manipulación psicológica) y de intentar retratar a Anthropic como «inflexibles» o «poco razonables».
Además, señaló la donación de $25 millones a Trump por parte de Greg Brockman, contrastándola con la negativa de Anthropic a ofrecer «elogios estilo dictador». Es fascinante ver cómo esta rivalidad corporativa se entrelaza con la política y la defensa nacional. Curiosamente, el martes, Amodei había usado un tono más diplomático respecto al Pentágono, pero el memo interno revela a un líder que finalmente soltó todo lo que llevaba guardando desde que dejó OpenAI en 2020.
Este lunes, Anthropic presentó una demanda federal contra el Departamento de Defensa de Estados Unidos y otras agencias de gobierno. En ella impugna la decisión de catalogar a la empresa como “riesgo para la cadena de suministro”. El Pentágono sancionó formalmente a Anthropic la semana pasada, poniendo fin a un desacuerdo que se prolongó durante semanas, sobre los límites del uso de su tecnología de inteligencia artificial generativa para aplicaciones militares, tales como armas autónomas.


