El creciente negocio de enseñar a hacer deepfakes de IA usando fotos de mujeres reales

service
Compartir

Comparte este artículo

o copie el enlace

Hace poco más de un año, MG llevaba la vida de una clásica veinteañera en Scottsdale, Arizona. Tenía dos trabajos: como asistente personal y sirviendo mesas los fines de semana. Como la mayoría de las mujeres de su edad, tenía una cuenta de Instagram, donde de vez en cuando publicaba Stories y fotos de sí misma tomando matcha y pasando el rato en la piscina con sus amigas, o yendo a Pilates.

«Nunca me preocupé por hacerme popular en redes sociales. Simplemente las utilizaba como lo hacía la mayoría de la gente, para compartir sus vidas con las personas más cercanas», menciona MG, quien tiene poco más de 9,000 seguidores. La demanda la cita como MG para proteger su identidad.

Aunque su número de seguidores es una cifra considerable, no es ni de lejos masiva. El verano pasado recibió un mensaje de uno de sus seguidores. La persona le preguntó si sabía que en Instagram circulaban fotos y videos de una mujer idéntica a ella. MG hizo clic en el enlace y vio lo que parecía ser su cara superpuesta a un cuerpo exactamente igual al suyo. La mujer de la foto estaba semidesnuda, con tatuajes en los mismos lugares que ella.

La pesadilla comienza

MG estaba horrorizada: «Si no me conocieras bien, podrías pensar que eran desnudos míos. Me di cuenta de que no tengo ningún control sobre mi propia imagen».

Se sintió aún más consternada al descubrir que no solo circulaban por internet fotos suyas manipuladas, desnuda o con poca ropa, como detalló en una denuncia reciente, sino que también se utilizaban para promocionar AI ModelForge, una plataforma que enseña a los hombres a crear sus propias influencers de IA. En una serie de clases y tutoriales en línea, los hombres supuestamente enseñaban a los suscriptores a usar un software llamado CreatorCore para entrenar modelos de IA con fotos de mujeres jóvenes desprevenidas, y publicaban el contenido resultante en Instagram y TikTok.

«Proporcionan todo un manual de instrucciones, incluyendo cómo elegir a la persona adecuada para que no pueda defenderse. Todas tenían instrucciones sobre qué tipo de mujeres usar y dónde conseguir sus fotos. Fue repugnante en todos los sentidos», refiere MG.

MG es una de las tres demandantes en un juicio presentado en enero en Arizona contra tres hombres de Phoenix: Jackson Webb, Lucas Webb y Beau Schultz, así como otros 50 John Does. En la demanda se alega que los Webb y Schultz buscaron fotos de mujeres jóvenes desprevenidas en internet y luego utilizaron la IA para generar fotos y videos de modelos ficticias exactamente iguales a ellas, vendiendo esos contenidos en la plataforma de suscripción Fanvue.

La demanda alega además que, por 24,95 dólares al mes en la plataforma Whop, los hombres vendían cursos en línea en los que enseñaban a otros hombres, incluidos los John Does mencionados en la demanda, a crear sus propios influencers generados por IA a partir de fotos de mujeres reales. Los hombres supuestamente crearon «manuales» para raspar imágenes de cuentas de redes sociales de mujeres e introducirlas en el modelo generativo de IA de CreatorCore, así como una aplicación independiente que quitaba la ropa a las mujeres y generaba imágenes y clips sexualmente explícitos. Según la demanda, esos contenidos generaron millones de visitas y, al parecer, más de 50,000 dólares de ingresos en un mes. Los Webb y Schultz no respondieron a las solicitudes de comentarios.

Según la demanda, este plan para ganar dinero se aprovechó de un «harén de copias de IA indistinguibles de mujeres y niñas desprevenidas», además de instruir a «depredadores que buscan aprovecharse» de las mujeres en las redes sociales. Además, se explica que en 2025 la plataforma CreatorCore contaba con más de 8,000 suscriptores que generaban sus propias influencers de IA, lo que dio lugar a más de 500,000 imágenes y videos.

El creciente negocio de enseñar a hacer deepfakes de IA usando fotos de mujeres reales
wpChatIcon
    wpChatIcon