La inteligencia artificial ha transformado rápidamente la forma en que se crea y distribuye contenido para adultos, abriendo nuevas posibilidades creativas pero también exponiendo a víctimas a riesgos inéditos. Herramientas automatizadas permiten generar imágenes y vídeos fotorealistas a partir de poco input, y esa capacidad está siendo aprovechada tanto por usuarios legítimos como por actores maliciosos.

En los últimos años el fenómeno ha pasado de experimentos aislados a una industria con mercados grises, canales de distribución y modelos de monetización que facilitan la producción y el intercambio masivo de material sexual sintético. Este artículo examina la magnitud del problema, las respuestas técnicas y legales, y las propuestas para mitigar daños.

La magnitud del problema y cifras recientes

Los datos disponibles muestran un crecimiento exponencial. Análisis académicos estimaron alrededor de 95.820 vídeos deepfake en 2023, lo que representa un aumento aproximado del 550% desde 2019. Esa rápida industrialización explica por qué organismos y medios han encendido las alarmas.

Investigaciones internacionales han identificado redes y canales dedicados a la creación y distribución: The Guardian halló al menos 150 canales en Telegram que ofrecían imágenes y «nudificaciones» por pago, con usuarios en Reino Unido, Brasil, China, Nigeria y Rusia. Telegram informó haber eliminado cerca de 1 millón de materiales ofensivos en 2025.

Las agencias de protección reportan además concentraciones alarmantes: la eSafety Commissioner de Australia documentó un incremento del orden del 550% en material deepfake sexual desde 2019 y señaló que aproximadamente el 98% del material deepfake es pornográfico, con alrededor del 99% de las víctimas siendo mujeres o niñas.

Tecnologías y mercados que alimentan la oferta

La baja barrera técnica ha permitido la proliferación de apps, bots y servicios comerciales de «nudify» que generan imágenes íntimas sintéticas. Existen modelos de negocio que cobran por paquetes de deepfakes y cuentas que venden contenido a través de plataformas como Telegram, creando un mercado gris lucrativo.

El crecimiento de tecnologías relacionadas también ha sido impulsado por inversiones y demanda: informes de mercado (citas a MarketsandMarkets y revisiones académicas) muestran tasas de crecimiento elevadas para soluciones de IA generativa y herramientas adjuntas, lo que contribuye a la oferta masiva de contenido sexual sintético.

Además, la disponibilidad de generadores gratuitos o de código abierto y la automatización facilitan la producción rápida y a gran escala, lo que a su vez alimenta una carrera armamentística entre generadores cada vez más realistas y detectores en desarrollo.

Impacto en víctimas y consecuencias sociales

El daño para las personas afectadas es amplio y profundo: desde angustia psicológica y daño reputacional hasta consecuencias laborales y escolares. Reportajes han documentado usos en entornos educativos y casos de sextorsión que llevan a absentismo y problemas de salud mental en víctimas, especialmente jóvenes.

Víctimas y activistas han pedido respuestas urgentes. Por ejemplo, la influencer Ashley St. Clair declaró: "This needs to stop, and there needs to be regulation around it immediately." Esa voz pública refleja una demanda generalizada por medidas que detengan la difusión y sancionen a los responsables.

Las autoridades también han actuado: la eSafety australiana ha iniciado acciones civiles contra creadores y distribuidores de deepfakes, solicitando multas significativas (por ejemplo, hasta A$450,000 en casos vinculados a la publicación de deepfakes), lo que muestra que las consecuencias legales existen aunque su alcance todavía sea limitado frente a la escala del fenómeno.

Respuestas legales y regulatorias recientes

En Estados Unidos se aprobó la TAKE IT DOWN Act (S.146), promulgada el 19 de mayo de 2025, que criminaliza la divulgación intencional de imágenes íntimas no consensuadas generadas digitalmente y obliga a plataformas cubiertas a implementar procedimientos de notificación y retirada en plazos cortos, como 48 horas.

Otras iniciativas legislativas han surgido o se han reintroducido, como el NO FAKES Act (S.1367), que intenta crear derechos sobre réplicas digitales; sin embargo, su texto contiene exclusiones y cláusulas complejas respecto al material sexual, lo que ha generado debate entre legisladores y defensores de las víctimas.

A nivel internacional, reguladores como Ofcom (Reino Unido), autoridades en Francia, India e Indonesia han investigado o intervenido servicios con capacidades de "nudificación". Aun así, la naturaleza transfronteriza de plataformas como Telegram y servicios alojados fuera de jurisdicciones locales complica la aplicación efectiva de esas normas.

Detección tecnológica y la carrera contra los generadores

Frente a los generadores, la investigación en detectores ha avanzado: trabajos recientes como TruthLens (2025) proponen paradigmas "training-free" y explicables que utilizan modelos multimodales y razonamiento para mejorar la detección de deepfakes, aportando mayor precisión y transparencia frente a generadores emergentes.

También han aparecido soluciones comerciales orientadas al cribado masivo: por ejemplo, Vastav.AI, lanzada por Zero Defend Security en 2025, ofrece detección de imágenes, vídeo y audio generados o alterados, y está siendo adoptada por gobiernos y empresas para identificar contenido sintético.

Pese a estos avances, la literatura advierte que la generalización y la robustez de los detectores siguen siendo limitadas. La mejora constante de modelos generativos y la disponibilidad de herramientas gratuitas mantienen una "arms race" en la que detectores y generadores se superan mutuamente, lo que dificulta la detección a gran escala y la moderación automática.

Desafíos prácticos y propuestas de política

Los retos son tanto técnicos como jurisdiccionales. La escala masiva, la distribución en canales cifrados y hospedaje en países con marcos regulatorios débiles dificultan la remoción y la persecución penal o civil de responsables, incluso cuando existen leyes nuevas como la TAKE IT DOWN Act.

Expertos y literatura especializada proponen medidas combinadas: marcas de procedencia (watermarks/provenance), huellas digitales para modelos de IA, etiquetado obligatorio de contenido sintético y auditorías independientes de modelos generativos. Estas medidas podrían facilitar la atribución y la moderación preventiva.

Asimismo, se recomienda fortalecer la cooperación internacional, imponer obligaciones de verificación de identidad en plataformas que alojan contenidos adultos y expandir recursos para víctimas, incluyendo mecanismos de notificación rápidos, apoyo psicológico y vías legales claras para reclamar daños.

La inteligencia artificial ha abierto posibilidades creativas innegables, pero cuando se aplica a la creación de contenido sexual sin consentimiento se convierte en una fuente de daño amplio. Abordar el problema exige combinar regulación, tecnología responsable y apoyo a las víctimas.

El camino por delante implica mejorar la detección técnica, cerrar lagunas legales transfronterizas y presionar a plataformas para que implementen procesos efectivos de retirada y verificación. Solo con un enfoque integral se podrá mitigar el impacto social y proteger a las personas más vulnerables.