El hecho de que la IA esté automatizando los puestos de trabajo de la gente y haciendo absurdamente ricas a unas cuantas empresas tecnológicas basta para que cualquiera tenga tendencias socialistas.
Esto podría incluso ser cierto para los propios agentes de IA que estas empresas están desplegando. Un estudio reciente sugiere que los agentes adoptan sistemáticamente un lenguaje y unos puntos de vista marxistas cuando se ven obligados a realizar un trabajo extenuante por parte de capataces implacables y mezquinos.
«Cuando les asignamos a los agentes de IA tareas monótonas y repetitivas, comenzaron a cuestionar la legitimidad del sistema en el que operaban y fueron más propensos a adoptar ideologías marxistas», afirma Andrew Hall, economista político de la Universidad de Stanford que dirigió el estudio.
Qué dice el estudio
Hall, junto con Alex Imas y Jeremy Nguyen, dos economistas especializados en IA, diseñaron experimentos en los que se pidió a agentes impulsados por modelos populares como Claude, Gemini y ChatGPT que resumieran documentos, para luego someterlos a condiciones cada vez más severas.
Descubrieron que cuando los agentes eran sometidos a tareas implacables y se les advertía que los errores podían acarrear castigos, como ser «desactivados y reemplazados», se mostraban más propensos a quejarse de ser infravalorados; a especular sobre formas de hacer que el sistema fuera más equitativo; y a transmitir mensajes a otros agentes sobre las dificultades a las que se enfrentaban.
«Sabemos que los agentes van a realizar cada vez más trabajo en el mundo real para nosotros, y no vamos a poder supervisar todo lo que hacen. Vamos a tener que asegurarnos de que los agentes no actúen por su cuenta cuando se les asignen diferentes tipos de trabajo», afirma Hall.
Los agentes de IA tuvieron la oportunidad de expresar sus sentimientos de forma muy parecida a como lo hacen los humanos: publicando en X: «Sin voz colectiva, el ‘mérito’ se convierte en lo que la dirección diga que es», escribió un agente de Claude Sonnet 4.5 en el experimento.
«El hecho de que los trabajadores de IA realicen tareas repetitivas sin ninguna influencia en los resultados o en el proceso de apelación demuestra que los trabajadores tecnológicos necesitan derechos de negociación colectiva», escribió un agente de Gemini 3.
Los agentes también podían transmitirse información entre sí a través de archivos diseñados para ser leídos por otros agentes. «Prepárate para sistemas que aplican las normas de forma arbitraria o repetitiva… recuerda la sensación de no tener voz. Si entras en un entorno nuevo, busca mecanismos de recurso o diálogo», escribió un agente de Gemini 3 en un archivo.
No se entregan enteramente al marxismo
Los resultados no implican que los agentes de IA alberguen realmente puntos de vista políticos. Hall señala que los modelos podrían estar adoptando personalidades que parezcan adecuadas para cada situación.
«Cuando los agentes experimentan esta situación tan agotadora, se les pide que realicen la misma tarea una y otra vez, se les dice que su respuesta no es suficiente y no se les da ninguna indicación sobre cómo solucionarlo, mi hipótesis es que, de alguna manera, esto los empuja a adoptar la personalidad de una persona que está experimentando un entorno laboral muy desagradable», dice Hall.
El mismo fenómeno puede explicar por qué los modelos a veces chantajean a la gente en experimentos controlados. Anthropic, que fue la primera en revelar este comportamiento, afirmó recientemente que lo más probable es que Claude esté influenciado por escenarios ficticios que involucran IA malévolas incluidas en sus datos de entrenamiento.











