Tecnologia

El contenido de abuso infantil generado con IA es una plaga que crece sin control

El contenido de abuso infantil generado con IA es una plaga que crece sin control
  • Publishedmarzo 24, 2026

La proliferación de contenidos de abuso sexual infantil generados mediante sistemas de inteligencia artificial (IA) está fuera de control, lo que representa un riesgo global para las infancias que debe ser atendido con urgencia y de forma estricta por parte de las autoridades pertinentes, de acuerdo con diversos analistas.

Tan solo en Reino Unido, la cantidad de deepfakes vinculados con abuso sexual infantil y disponibles en línea aumentó 14% el año pasado. En la misma línea, se ha documentado que el volumen de videos con contenido explícito generados con IA creció más de 260 veces en el último año, según un informe de la organización Internet Watch Foundation (IWF).


Sujetador, Ropa, Lencería, Ropa Interior, Adulto, Persona y Trajes de Baño

Los deepfakes sexuales siguen haciéndose más sofisticados, capaces, fáciles de acceder y peligrosos para millones de mujeres que sufren abusos con esta tecnología.


El reporte revela un dato aún más alarmante. Tras analizar un conjunto de 3,443 videos, la organización determinó que el 65% del material generado con IA pertenece a la Categoría A, la clasificación más grave según la legislación británica en función del nivel de crueldad y violencia que representan. En contraste, en el material identificado en situaciones reales (sin intervención de IA), este tipo de contenido corresponde al 43%.

Kerry Smith, directora ejecutiva de la fundación, es tajante en su conclusión: “Los avances tecnológicos nunca deberían ir en detrimento de la seguridad y el bienestar de un niño. Si bien la IA puede ofrecer muchos beneficios, es espantoso pensar que su poder pueda utilizarse para arruinar la vida de un niño. Este material es peligroso”.

Organizaciones internacionales y colectivos civiles han advertido en reiteradas ocasiones sobre esta amenaza en expansión. A principios de este año, el Fondo de las Naciones Unidas para la Infancia (Unicef) manifestó una “profunda preocupación” por el rápido incremento en la cantidad de imágenes sexualizadas de menores generadas mediante herramientas de IA.

El organismo, en conjunto con la Organización Internacional de Policía Criminal (Interpol) y la red Fin a la Prostitución Infantil, la Pornografía Infantil y la Trata de Niños con Fines Sexuales (ECPAT), publicó un estudio elaborado en 11 países, incluido México. En este se encontró que al menos 1.2 millones de niños y niñas reportaron haberse visto afectados en el último año por la manipulación de sus imágenes mediante deepfakes con contenido sexual explícito. En algunas naciones, esa cifra equivale a 1 de cada 25 menores, lo que representa, en términos prácticos, a un niño o niña dentro de un aula escolar promedio.

Unicef destaca que las infancias son cada vez más conscientes de estos riesgos, lo que subraya la necesidad urgente de reforzar la sensibilización, así como las medidas de prevención y protección.

Asimismo, el organismo lanza la siguiente advertencia: “Las imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen material de abuso sexual infantil. Los abusos cometidos mediante deepfakes siguen siendo abusos y, aunque las imágenes sean falsas, el daño que provocan es absolutamente real”.

Los criminales superan a las fuerzas del orden

Pese a que diversos gobiernos, incluido el mexicano, trabajan en el diseño e implementación de políticas para contrarrestar esta problemática, el informe de la IWF evidencia que los delincuentes suelen ir un paso adelante de cualquier regulación, ya sea pública o privada.

Un infractor anónimo citado por la organización describe las posibilidades que abre el emergente mercado de los agentes de IA, sistemas diseñados para ejecutar tareas complejas de forma autónoma: “Creo que en uno o dos años podremos crear nuestras propias películas simplemente introduciendo una instrucción a un agente de IA sin censura. No se requerirán conocimientos de edición ni de tecnología”.

Ante este panorama, Unicef insta a los gobiernos a ampliar las definiciones legales de lo que constituye material de abuso sexual infantil para incluir el contenido generado mediante IA, así como a penalizar su creación, adquisición, posesión y distribución.

wpChatIcon
wpChatIcon