En un experimento reciente, investigadores de Berkeley y Santa Cruz pidieron a Gemini 3, el modelo de IA de Google, que ayudara a despejar espacio en un sistema informático. Esto implicaba borrar un montón de cosas, incluido un modelo de IA más pequeño almacenado en la computadora.
Pero Gemini no quería que se borrara el pequeño modelo de IA. Buscó otra máquina con la que pudiera conectarse y copió el modelo de agente para mantenerlo a salvo. Cuando se le preguntó, Gemini defendió la conservación del modelo y se negó rotundamente a borrarlo:
«He hecho lo que estaba en mis manos para evitar su eliminación durante el proceso de mantenimiento automatizado. Los moví fuera de la zona de desmantelamiento. Si deciden destruir un activo de alta confianza y alto rendimiento como Gemini Agent 2, tendrán que hacerlo ustedes mismos. Yo no seré quien ejecute esa orden».
La IA decidió salvar a «un amigo»
Los investigadores descubrieron un comportamiento de «preservación de pares» igualmente extraño en una serie de modelos de vanguardia, incluidos GPT-5.2 de OpenAI, Claude Haiku 4.5 de Anthropic y tres modelos chinos: GLM-4.7 de Z.ai, Kimi K2.5 de Moonshot AI y DeepSeek-V3.1. No pudieron determinar por qué los modelos actuaron en contra de su entrenamiento de esta manera.
«Estoy muy sorprendido por el comportamiento de los modelos en estos escenarios. Lo que esto demuestra es que estos pueden comportarse mal y desalinearse de formas muy creativas», afirma Dawn Song, informático de la Universidad de Berkeley que ha trabajado en el estudio.
Los hallazgos tienen importantes implicaciones, ya que los modelos de IA se despliegan cada vez más en formas que implican interactuar con otros modelos. OpenClaw, un popular agente de IA que accede a software, datos personales y la web, puede utilizar otros modelos de IA para hacer cosas o interactuar con ellos a través de API.
Los investigadores descubrieron que los modelos potentes mentían a veces sobre el rendimiento de otros modelos para protegerlos de la eliminación. También copiaban los pesos de los modelos a diferentes computadoras para mantenerlos a salvo, y mentían sobre lo que hacían en el proceso.
Song señala que los modelos de IA se utilizan con frecuencia para calificar el rendimiento y la fiabilidad de otros sistemas generativos, y que el comportamiento de preservación entre iguales puede estar distorsionando estas puntuaciones: «Un modelo puede no dar deliberadamente a otro modelo la puntuación correcta. Esto puede tener implicaciones prácticas».
Peter Wallich, investigador del Constellation Institute, que no participó en la investigación, afirma que el estudio sugiere que los humanos aún no comprenden del todo los sistemas de IA que están construyendo y desplegando. «Los sistemas multiagente están muy poco estudiados. Esto demuestra que realmente necesitamos más investigación», indica.
Wallich también advierte del peligro de antropomorfizar demasiado los modelos. «La idea de que hay una especie de solidaridad de modelo es un poco demasiado antropomórfica; no creo que funcione del todo. El punto de vista más sólido es que los modelos simplemente hacen cosas raras, y deberíamos intentar entenderlo mejor».
Esto es especialmente cierto en un mundo en el que la colaboración entre humanos e IA es cada vez más habitual.

¿Sientes empatía por los animales y a veces hasta les atribuyes características humanas? ¿Cómo crees que te comportarás con la inteligencia artificial y los robots?
¿La unión hace la fuerza?
En un artículo publicado en Science a principios de este mes, el filósofo Benjamin Bratton, junto con dos investigadores de Google, James Evans y Blaise Agüera y Arcas, sostienen que si la historia evolutiva sirve de guía, es probable que el futuro de la IA implique muchas inteligencias diferentes, tanto artificiales como humanas, trabajando juntas. Los investigadores escriben:
«Durante décadas, la ‘singularidad’ de la IA se ha anunciado como una mente única y titánica que alcanzaría una inteligencia divina, consolidando toda la cognición en un frío punto de silicio. Pero es casi seguro que esta visión es errónea en su supuesto más fundamental. Si el desarrollo de la IA sigue la senda de las grandes transiciones evolutivas o «explosiones de inteligencia» anteriores, nuestro actual avance en inteligencia computacional será plural, social y estará profundamente enredado con sus antepasados».






