Telegram y el tráfico de imágenes íntimas falsas se han convertido en un problema de alcance global durante los últimos años. El crecimiento de herramientas de inteligencia artificial accesibles ha facilitado la generación y distribución de imágenes y vídeos sexuales fabricados, lo que plantea nuevos desafíos legales, técnicos y humanos.
Investigaciones recientes muestran que este fenómeno ya no es marginal: canales y bots en Telegram actúan como núcleos de creación y distribución, con públicos que van desde celebridades hasta estudiantes y adolescentes en múltiples países. En este artículo repasamos alcance, tecnología, impacto en víctimas, respuesta legal y propuestas para mitigar el daño (fuentes principales: The Guardian, WIRED, Sensity y reportes periodísticos y policiales recientes).
Alcance global del problema
Un análisis del The Guardian publicado el 29/01/2026 identificó al menos 150 canales de Telegram que distribuyen imágenes y vídeos sexuales generados por IA , los llamados “nudified”, con alcance en Reino Unido, Brasil, China, Nigeria, Rusia e India. Esa investigación documenta la dimensión internacional del ecosistema y cómo ciertos centros de actividad actúan como distribuidores regionales.
WIRED, en una revisión del 15/10/2024, halló aproximadamente 50 bots “nudify” en Telegram que sumaban más de 4 millones de usuarios mensuales combinados; además, 25 canales vinculados acumulaban más de 3 millones de suscriptores. Estas cifras muestran que la audiencia no es pequeña: millones de usuarios interactúan con herramientas que crean o distribuyen deepfakes íntimos.
El Tech Transparency Project complementa el panorama con datos sobre la infraestructura de la economía alrededor de estas aplicaciones: se estimaron 705 millones de descargas acumuladas de apps de “nudification” en tiendas móviles. Aunque Apple y Google han eliminado varias apps, la escala de descargas refleja una demanda sostenida y global.
Cómo funcionan los bots «nudify» y la tecnología detrás
Técnicamente, muchas herramientas derivan de ideas como DeepNude: modelos entrenados para “vestir” o “desvestir” imágenes mediante redes neuronales. Informes de Sensity y otras investigaciones muestran que, en algunos casos, basta una sola foto para generar una imagen sexual realista de una víctima, lo que amplía enormemente el pool de personas potencialmente afectadas.
Sensity documentó más de 100.000 imágenes generadas ya en 2020 y reportes posteriores señalan cientos de miles o millones en ecosistemas ampliados. Los bots en Telegram automatizan el proceso: un usuario sube una foto, paga o usa tokens y recibe una versión “nudified”. WIRED describió que muchos bots cobran mediante sistemas de tokens y planes premium.
La publicidad en canales ha utilizado frases agresivas para atraer clientes; The Guardian citó un eslogan que promocionaba “a neural network that doesn’t know the word ‘no’”, una frase que ilustra la falta de límites éticos en algunos espacios. La rapidez del proceso y la baja barrera técnica hacen que la generación masiva sea plausible y difícil de contener.
Economía, monetización y vínculos criminales
El ecosistema no es solo tecnológico: es una economía. Muchos bots y canales monetizan con tokens, suscripciones o ventas de paquetes de imágenes. Además existen mercados donde se comercia con colecciones de deepfakes y servicios premium; la monetización ha atraído a operadores que rehacen bots cuando son eliminados.
También hay vínculos documentados con fraudes y malware: algunas ofertas falsas redirigen a sitios que intentan infectar al usuario o robar datos, y la comercialización puede entrelazarse con estafas más amplias. La resiliencia del sistema , operadores que cambian nombres de canales, publicitan “otros bots” o reaparecen en nuevas cuentas, dificulta la contención mediante acciones puntuales.
Las tiendas de apps muestran otra cara de la monetización: Tech Transparency Project y otros reportes encontraron cientos de millones de descargas y la remoción selectiva de apps (Apple dijo haber quitado 28 de 47 apps investigadas), lo que indica un mercado móvil que también alimenta la cadena de valor de la “nudificación”.
Impacto humano: víctimas, testimonios y consecuencias
Las consecuencias para las personas afectadas son severas. ONG, abogadas y periodistas han registrado pérdida de empleo, ostracismo social, expulsiones escolares y daños psicológicos profundos incluso cuando las imágenes son falsas. El daño reputacional puede ser duradero y, en muchos contextos, “irreparable” según personas que trabajan con las víctimas.
Los testimonios recogidos por organizaciones locales hablan de jóvenes expulsados de sus familias o instituciones educativas tras la difusión de deepfakes. El perfil de la víctima cambió: ya no solo son celebridades; la mayoría de los objetivos son mujeres no famosas señaladas por la accesibilidad de sus fotos personales.
Expertos como Giorgio Patrini y Henry Ajder han advertido sobre la escala y el daño psicológico de estas herramientas. La combinación de humillación pública, amenazas de difusión y la dificultad para lograr la retirada definitiva del material intensifica el trauma y limita las vías de reparación.
Respuesta legal y medidas estatales
Las respuestas legales han sido asimétricas. Corea del Sur avanzó con medidas contundentes en 2024-2025: el parlamento aprobó reformas que penalizan poseer o ver deepfakes sexuales (con penas de hasta 3 años de prisión o multas de alrededor de 30 millones de won) y aumentan sanciones por creación o distribución (hasta 7 años). Esas medidas surgieron tras escándalos de distribución en Telegram y una serie de detenciones.
En otros lugares la reacción ha sido heterogénea. En Francia, en 2024, se detuvo e implicó judicialmente al fundador de Telegram, Pavel Durov, en una investigación sobre la posible contribución de la plataforma a actividades criminales: el caso subrayó las presiones regulatorias sobre la moderación y quedó en investigación con restricciones que luego se flexibilizaron en 2025.
A nivel internacional la respuesta es fragmentada: mientras 23 estados de EE. UU. cuentan con leyes sobre deepfakes a nivel estatal, muchas jurisdicciones del Sur Global carecen de rutas jurídicas prácticas para las víctimas. ONG y juristas reclaman normas obligatorias, etiquetado y procedimientos eficaces de denuncia transfronteriza.
Dificultades de moderación, privacidad y soluciones tecnológicas
Moderación y privacidad se tensan en Telegram: la plataforma combina funciones semi-públicas (canales, bots y búsqueda interna) con chats privados encriptados, lo que facilita localizar comunidades y herramientas a la vez que complica la labor policial y de ONGs. Las arquitecturas técnicas permiten a los moderadores humanos y algoritmos tener un acceso limitado al contenido en chats privados, reduciendo herramientas de supervisión proactiva.
La resiliencia operativa , bots que reaparecen con nombres distintos, canales que se bifurcan, dificulta la eficacia de medidas puntuales. Cuando Telegram elimina bots o canales, los operadores a menudo rehacen servicios y redirigen usuarios, una dinámica documentada por WIRED y The Guardian.
Como contrapeso, existen tecnologías forenses y detectores de deepfake: empresas y laboratorios como Sensity desarrollan herramientas de detección que pueden ayudar en procesos legales y remoción. Expertos piden inversión pública y privada en detección, sistemas de denuncia accesibles y educación digital para reducir la cantidad de fotos personales que terminan siendo explotadas.
Propagación interplataforma y riesgo a futuro
Un riesgo clave es la difusión cruzada: contenidos generados o distribuidos originalmente en Telegram han saltado rápidamente a otras redes como X, Reddit e Instagram. Esa dinámica convierte a Telegram frecuentemente en origen o catalizador de cadenas de propagación que amplifican el daño más allá de la plataforma.
Con modelos de IA cada vez más accesibles y entornos que permiten la monetización y la evasión, el fenómeno sigue en expansión. El resumen de riesgo a fecha 03/02/2026 señala que millones de usuarios están implicados en el ecosistema “nudify” y que existen cientos de miles o millones de imágenes generadas y distribuidas, mientras las medidas de moderación actuales no logran eliminar la actividad de forma sostenida.
Para reducir el riesgo se requieren respuestas coordinadas: regulación efectiva, cooperación entre plataformas, herramientas forenses accesibles, apoyo a víctimas y campañas de educación digital que expliquen cómo proteger imágenes y datos personales. Sin intervención coordinada, la escalada técnica y económica probablemente continuará.
En conclusión, el tráfico de imágenes íntimas falsas en Telegram es un problema complejo que combina avances técnicos, modelos de negocio rentables y consecuencias humanas graves. Las investigaciones de The Guardian (29/01/2026), WIRED (15/10/2024) y reportes técnicos como los de Sensity muestran la magnitud y la evolución de un fenómeno que no es meramente técnico, sino social y legal.
Abordarlo exige medidas múltiples: marcos legales actualizados, capacidades de detección y remoción más rápidas, rutas prácticas de reparación para las víctimas y campañas educativas. Sin estas acciones coordinadas, la facilidad para generar deepfakes íntimos y la resiliencia de sus canales de difusión , especialmente en Telegram, seguirán provocando daño a escala global.
