La «nudificación» es el uso de herramientas de inteligencia artificial para «desvestir»: generar imágenes o vídeos sexuales falsos a partir de fotos normales. Se trata de una forma de Image-Based Sexual Abuse (IBSA) que suele emplearse para humillar, extorsionar o acosar a víctimas, y que puede reproducir y profundizar desigualdades de género y violencia sexual.

En los últimos años la práctica se ha industrializado: desde bots y canales que generan y distribuyen material no consentido hasta servicios web que monetizan la creación masiva de deepfakes sexuales. Una parte importante de esa actividad se ha concentrado en plataformas de mensajería como Telegram, que ofrecen canales públicos y privados, bots automatizados y cifrado que facilitan la difusión.

Qué es la «nudificación» y por qué es abuso

La nudificación no es simplemente una manipulación digital: es un ataque dirigido contra la intimidad y la dignidad de personas reales. Generar una imagen sexual falsa a partir de la foto de alguien sin su consentimiento encaja en la definición de IBSA porque utiliza la imagen de la víctima para infligir daño psicológico, reputacional o económico.

Las motivaciones varían: humillación, sextorsión, venganza o lucro. En muchos casos el objetivo es forzar a la víctima a pagar para que el material no se publique, o crear una humillación pública que dañe relaciones personales y profesionales. La omnipresencia de la IA hace que estas imágenes sean cada vez más creíbles y difíciles de distinguir.

Organizaciones y activistas señalan además el componente de género: la herramienta facilita abusos que, a menudo, se dirigen desproporcionadamente contra mujeres y minorías. Como advierte Anne Craanen (ISD): «There is a very fruitful ground there for misogyny to thrive».

Telegram como epicentro práctico

Investigaciones periodísticas han documentado cómo Telegram se ha convertido en un punto práctico de generación y distribución de nudificación: bots que crean vídeos e imágenes, canales que las difunden y comunidades activas en Rusia, Europa del Este, Asia y grupos internacionales. La estructura de la plataforma , canales, bots y cifrado, facilita tanto la escala como la evasión.

Un ejemplo ilustrativo: en 2025 un bot de Telegram conocido como «cumshot AI bot» llegó a reunir entre 115.000 y 150.000 usuarios en pocas semanas; Telegram eliminó el bot solo después de recibir una identificación concreta del mismo, según informes de 404 Media y Business & Human Rights Centre. Este caso muestra la rapidez de propagación y la dificultad de contención inmediata.

Telegram ha defendido su política afirmando que «Illegal pornography and the tools to make it are forbidden by Telegram’s terms of service and are removed whenever discovered». No obstante, la detección y la notificación de canales específicos siguen siendo esenciales para que la plataforma actúe eficazmente.

Escala comercial y economía del daño

La nudificación se ha vuelto un negocio lucrativo. Una investigación conjunta de Indicator y WIRED (julio 2025) analizó 85 webs/servicios «nudify» y encontró que recibían de media 18,5 millones de visitas al mes durante los seis meses estudiados, estimando ingresos agregados conservadores de hasta ≈36 millones USD/año. Estos servicios suelen apoyarse en proveedores de nube y CDNs comerciales.

La promoción en plataformas mainstream también ha sido masiva: se detectaron miles de anuncios publicitarios (por ejemplo, 4.215 anuncios identificados para 15 servicios «nudify» en Facebook/Instagram). Ante esto Meta inició acciones legales, incluyendo una demanda en Hong Kong contra Joy Timeline HK, responsable del servicio CrushAI, para frenar la promoción en sus plataformas.

Los modelos de negocio incluyen créditos por generación, suscripciones, programas de afiliados y publicidad. La dependencia de infraestructura (AWS, Cloudflare, servicios de pago y Google Sign-in) da resiliencia a estos actores hasta que proveedores o pasarelas de pago deciden cortar servicios, lo que ha sido clave en algunas suspensiones tras investigaciones públicas.

Impacto en víctimas y casos mediáticos

El daño a las víctimas es profundo y multidimensional: consecuencias psicológicas, pérdida de empleo o reputación, y riesgo de extorsión sexual. Investigaciones muestran casos de alumnado con colecciones de deepfakes de compañeras; los autores suelen ser adolescentes o jóvenes, lo que agrava la crisis en entornos escolares.

Los casos mediáticos han demostrado además la viralidad del fenómeno. En enero de 2024 deepfakes pornográficos de la artista Taylor Swift se difundieron masivamente en X y otras plataformas; un post viral llegó a decenas de millones de visualizaciones, evidenciando la rapidez y la dificultad para contener la difusión incluso de material claramente falsificado.

Muchas víctimas sufren miedo y vergüenza incluso cuando las imágenes no se han publicado: la sola existencia de una manipulación puede llevar a chantajes o a daños anticipados. Por eso ONG y defensores reclaman respuestas combinadas , legales, tecnológicas y de apoyo a víctimas, para mitigar el impacto.

Datos y tendencias recientes

Las cifras muestran un crecimiento explosivo de reportes relacionados con CSAM y abuso con IA. NCMEC reportó 4.700 reportes relacionados con CSAM generado por IA en 2023; informes posteriores registran saltos a decenas de miles en 2024 y a centenares de miles en el primer semestre de 2025, según organizaciones e investigaciones periodísticas. Estas variaciones exigen cuidado metodológico al interpretar números.

Las tendencias observadas por ONG e investigadores entre 2024 y 2026 incluyen la proliferación continua de «nudify» y bots en Telegram, Discord y foros; migración hacia canales cifrados y servidores privados; y un esfuerzo creciente de fiscalías, ciudades y empresas tecnológicas para frenar anuncios, pagos y hosting. La coordinación internacional para eliminar contenidos y perseguir operadores sigue pendiente.

Para el seguimiento y la investigación existen bases de datos y trackers como la Resemble.ai Deepfake Incident Database, AIAAIC incidents y registros periodísticos (404 Media, Bellingcat, Indicator) que ayudan a documentar y rastrear canales y servicios que promueven la nudificación.

Respuestas legales y políticas públicas

Países y jurisdicciones han empezado a legislar con mayor severidad. Corea del Sur aprobó reformas que penalizan la posesión y visualización de material sexual deepfake, con penas de hasta 3 años de prisión o multas, y una campaña policial reportó alrededor de 963 detenciones relacionadas con crímenes sexuales con deepfakes entre 2024 y 2025, con múltiples grupos de Telegram implicados.

En Estados Unidos, la Ley «TAKE IT DOWN» (S.146) se convirtió en ley pública (Pub. L. No. 119-12) el 19 de mayo de 2025; obliga a plataformas «cubiertas» a eliminar con rapidez contenidos íntimos no consentidos, incluyendo «digital forgeries»/deepfakes, y establece plazos de retirada (por ejemplo, 48 horas en varios supuestos). Además, fiscalías locales han emprendido acciones: el fiscal de San Francisco promovió demandas y medidas cautelares contra operadores de sitios de deepfake en 2024 y 2025.

Las acciones legales y administrativas, sumadas a demandas contra desarrolladores y a medidas de plataformas contra publicidad y pagos, han conseguido suspensiones de algunos servicios. Pero los investigadores insisten en la necesidad de cooperación transnacional para desmantelar infraestructuras y redes de pago que sostienen este ecosistema.

Detección, límites técnicos y recomendaciones prácticas

Las herramientas tradicionales de detección, como el hashing tipo PhotoDNA, fallan frente a contenido generado ex novo por IA. Por ello expertos recomiendan desarrollar detectores específicos de deepfakes, exigir watermarking y metadata en los generadores de IA, y mejorar la colaboración entre proveedores de IA, plataformas y fuerzas de seguridad.

Para víctimas y profesionales, las recomendaciones prácticas incluyen denunciar a la CyberTipline/NCMEC en EE. UU., recopilar evidencias (capturas, URLs, identificadores de canales/bots), denunciar canales y bots concretos a Telegram y a los proveedores de hosting y pagos, y recurrir a servicios legales y de eliminación cuando existan. Los investigadores también sugieren presionar a proveedores de infraestructura para cortar servicios a los nudifiers.

Recursos útiles para seguimiento y respuesta son las bases y trackers mencionados, así como informes de Indicator, ISD, 404 Media, WIRED y organismos como Monash Lens. Es importante verificar el periodo exacto de las estadísticas citadas antes de usarlas, dada la variabilidad entre fuentes.

La «nudificación en Telegram» ilustra cómo tecnologías potentes pueden ser usadas para violar derechos y lucrar con el daño ajeno. La combinación de respuestas técnicas, legales y comunitarias es esencial para reducir el alcance y mitigar el daño a las víctimas.

Si eres víctima o conoces a alguien afectado, documenta lo sucedido, denuncia a las autoridades y a plataformas, y busca apoyo legal y psicológico. La presión pública y la cooperación entre plataformas, proveedores de infraestructura y gobiernos serán clave para frenar este fenómeno.