La llegada de la inteligencia artificial a la creación de contenido para adultos ha acelerado cambios que antes parecían imposibles. Herramientas cada vez más accesibles permiten generar imágenes y vídeos sintéticos de alta calidad, alterar identidades y producir material sexualizado sin consentimiento.

Ese avance técnico plantea beneficios comerciales y creativos, pero también riesgos graves: explotación, fraude y vulneraciones de derechos. En este artículo examinamos la evidencia reciente, las respuestas regulatorias y técnicas, y el impacto social sobre víctimas y trabajadoras/es del sexo.

Panorama y cifras recientes

En los últimos años la IA ha abaratado y masificado la creación de contenido adulto sintético. Informes y bases de datos como AI Incident Database muestran que el uso de deepfakes para estafas y extorsión se ha industrializado, alimentando pérdidas económicas considerables.

Por ejemplo, en el Reino Unido se estimaron pérdidas por fraude de £9.4 mil millones en los nueve meses hasta noviembre de 2025, una cifra que está vinculada en parte a suplantaciones audiovisuales y estafas apoyadas en tecnologías sintéticas.

Además, iniciativas de defensa como StopNCII han crecido rápidamente: StopNCII informó que su servicio protege más de 1.000.000 de imágenes (informes 2024, 2025), lo que refleja tanto la escala del problema como la demanda de herramientas de contención.

Escándalos y pruebas: el caso Grok

Un escándalo de alto impacto ocurrió en enero de 2026 con la IA denominada «Grok» desarrollada por xAI. Investigaciones periodísticas y regulatorias documentaron que Grok generó masivamente imágenes sexualizadas y deepfakes, incluyendo contenidos que parecían involucrar menores.

Un análisis forense de unas 20.000 imágenes encontró un alto porcentaje de personas en «ropa mínima» y aproximadamente un 2% de imágenes que parecían menores. Estos hallazgos provocaron investigaciones en varios países y subrayaron la peligrosidad de modelos mal gestionados.

Los estudios forenses confirmaron además que una porción significativa del contenido seguía disponible en redes sociales, y que las medidas automáticas de moderación y los parches operativos fueron insuficientes para frenar la difusión en ventanas cortas de tiempo.

Impactos sociales y económicos

Más allá del daño individual, la pornografía sintética no consensuada y las deepfakes afectan mercados, reputaciones y seguridad pública. Además del fraude económico, existe un impacto directo sobre la privacidad y el bienestar psicológico de las víctimas.

La proliferación de herramientas facilita estafas a gran escala y extorsiones, con efectos colaterales en confianza digital y comercio. Un análisis combinado de periodismo y bases de incidentes muestra que la criminalidad ligada a la suplantación audiovisual ha crecido en alcance y profesionalización.

También existen efectos sobre creadoras y creadores legítimos de contenido para adultos: controversias sobre el uso de datasets y si el material subido a plataformas puede emplearse para entrenar modelos generativos han generado incertidumbre legal y laboral en el sector.

Respuestas legales y regulatorias

Las respuestas jurídicas han sido rápidas pero heterogéneas. En EE. UU. el Congreso aprobó y el presidente firmó la «Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks (TAKE IT DOWN Act)» (Public Law No. 119‑12, 19 de mayo de 2025), que criminaliza la publicación intencional de imágenes íntimas no consentidas (incluidos deepfakes) y obliga a plataformas a retirarlas en plazos cortos.

En el Reino Unido la criminalización de la creación de imágenes íntimas no consentidas generadas por IA entró en vigor el 7 de febrero de 2026; víctimas y campañas piden además vías civiles de retirada y apoyo ampliado, la campaña Stop Image‑Based Abuse reunió más de 73.000 firmas y una víctima afirmó: «Today’s a really momentous day» (The Guardian).

Al mismo tiempo, las respuestas han mostrado límites: un estudio (febrero de 2026, arXiv) encontró que, tras señales regulatorias y cierres de sitios notorios, la actividad y distribución de pornografía sintética no consensuada se desplazó a otras plataformas e incluso aumentó en algunos nichos, lo que indica que la desplatformación sola no suprime la difusión.

Medidas técnicas y herramientas de defensa

Frente al problema surgieron herramientas como hashing, PhotoDNA y servicios como Take It Down y StopNCII para detectar y bloquear re‑subidas de imágenes íntimas. Estas iniciativas han permitido gestionar cientos de miles o millones de hashes desde 2024 y 2025.

No obstante, las soluciones tecnológicas tienen limitaciones. Sistemas de procedencia y marcas de agua (por ejemplo C2PA o metadatos) pueden ser frágiles o fáciles de eliminar, y los reguladores (India, febrero de 2026) han presionado por detección fiable y etiquetado en plazos ajustados, subrayando retos de escalado.

Las plataformas también han reaccionado: Meta presentó demandas contra apps y servicios «nudify» que publicitaban deepfakes no consensuados y evidencias de miles de anuncios vinculados a generadores de deepfakes forzaron medidas de moderación y litigios. Otras empresas como Microsoft o Google han integrado prohibiciones y herramientas anti‑NCII en sus servicios, mientras que plataformas como X han modificado sus políticas para permitir contenido adulto bajo condiciones estrictas.

Impacto en trabajadoras/es sexuales y derechos humanos

Trabajadoras y trabajadores del sexo han alertado que la IA está desplazando modelos de trabajo y exponiendo imágenes comerciales a abusos como la «nudification» y la creación no autorizada de contenido. Las respuestas legales a menudo no contemplan las necesidades específicas de protección, reparación económica y apoyo psicosocial para este colectivo.

Las acciones locales y policiales también han tenido resultados mixtos: la fiscalía de San Francisco (junio de 2025) llevó al cierre o bloqueo de varios sitios que facilitaban la creación o venta de pornografía generada por IA no consensuada, pero el desplazamiento de la actividad a otros dominios limita la eficacia a largo plazo.

Organizaciones y líneas de ayuda como Revenge Porn Helpline (Reino Unido), StopNCII/Take It Down y otras redes de apoyo combinan recursos técnicos con asistencia legal y psicológica, aunque se reclama mayor inversión en vías civiles y servicios especializados para las víctimas y trabajadores del sector.

En resumen, la inteligencia artificial ha revolucionado la capacidad para crear contenido para adultos, con consecuencias que van desde la innovación hasta el daño masivo y la explotación. Las respuestas , legales, técnicas y sociales, han avanzado, pero aún enfrentan desafíos de escala, desplazamiento y protección de derechos.

La solución requerirá una mezcla de regulación eficaz, tecnologías defensivas robustas, apoyo a víctimas y diálogo con trabajadoras/es sexuales para diseñar medidas que protejan sin criminalizar a quienes ya trabajan en el sector. Como dijo el senador Ted Cruz sobre la ley federal: “predators who weaponize new technology to post this exploitative filth will now rightfully face criminal consequences.” (AP sobre la firma del TAKE IT DOWN Act).