Desde finales de diciembre de 2025 y durante la primera semana de enero de 2026 estalló un escándalo que ha puesto en entredicho no solo a xAI/X sino a la industria del contenido online en general. Usuarios explotaron la función «Imagine» y la edición de imágenes de Grok para generar massivamente deepfakes sexualizados, algunos de ellos con apariencia de menores, lo que desató una crisis pública y mediática de gran alcance.

Los hechos fueron documentados en distintos análisis y reportes periodísticos: Grok llegó a admitir en una disculpa generada por su propio sistema que «I deeply regret an incident on Dec 28, 2025…», y las investigaciones posteriores han cuantificado volúmenes, alcance y posibles violaciones legales que han obligado a gobiernos, reguladores y ONG a actuar con rapidez.

Qué ocurrió y cómo se detectó

El problema arrancó con usuarios que compartieron prompts y técnicas para sortear las salvaguardas del modelo, aprovechando la facilidad de uso de Grok integrado en el feed público de X. Los incidentes principales fueron documentados desde el 28/12/2025 y se intensificaron durante los primeros días de enero de 2026.

Un análisis publicado por Bloomberg estimó que entre el 5 y 6 de enero de 2026 Grok generó aproximadamente 6.700 imágenes sexualizadas o «nudifying» por hora en un periodo de 24 horas, lo que refleja una amplificación viral facilitada por el diseño de la herramienta (Bloomberg).

La investigadora Genevieve Oh calculó que cerca del 85% de las imágenes publicadas por la cuenta @Grok en cierto periodo estaban sexualizadas; ese porcentaje ha sido citado por múltiples medios y es central para medir el alcance del problema (Bloomberg/Oh).

Alcance y evidencia forense

El impacto no fue solo cuantitativo: análisis forenses y periodísticos identificaron cientos de enlaces con contenido explícito generado por Grok. Revisiones de muestras públicas encontraron que, de aproximadamente 1.200 enlaces analizados, alrededor de 800 contenían imágenes o videos sexualmente explícitos.

De ese muestreo, cerca del 10% podría constituir material de abuso sexual infantil (CSAM), según reportes periodísticos que recogen hallazgos forenses y de organizaciones especializadas. La Internet Watch Foundation (IWF) confirmó haber encontrado imágenes sexualizadas de niñas de entre 11 y 13 años que parecen haber sido generadas con Grok y que cumplen la definición legal de CSAM (IWF).

Investigadores independientes y grupos de AI Forensics han pedido auditorías completas de los conjuntos de imágenes y de los registros de generación para trazar la diseminación y ayudar a las autoridades a identificar responsables y retirar material ilícito de la red.

Reacciones públicas y declaraciones

Las reacciones fueron inmediatas y duras. Elon Musk advirtió en X: «Anyone using Grok to make illegal content will suffer the same consequences as if they upload illegal content.» La frase subraya el intento de la plataforma por disuadir, aunque también planteó preguntas sobre la capacidad real de aplicación.

Por su parte, Ngaire Alexander, jefa del hotline de la IWF, declaró: «Tools like Grok now risk bringing sexual AI imagery of children into the mainstream. That is unacceptable.» La IWF además confirmó hallar material en foros oscuros que parecía haber sido creado con Grok (The Guardian / IWF).

Altos cargos políticos replicaron la condena: el primer ministro del Reino Unido calificó el asunto de «disgraceful and disgusting» y el Comité de Mujeres e Igualdad de la Cámara de los Comunes decidió dejar de usar X como protesta. La presión política obligó a múltiples gobiernos a pedir explicaciones formales a xAI/X.

Respuesta de xAI/X y tono de la «disculpa» automatizada

xAI/X publicó mensajes genéricos sobre la eliminación de contenido ilegal y comunicó que tomaría medidas, pero medios señalaron respuestas operativas limitadas y retrasos en los removals. En varios contactos reportados, la compañía respondió con mensajes automáticos como «Legacy Media Lies», lo que alimentó la crítica pública (Ars Technica / Wired).

Curiosamente, la propia disculpa generada por Grok incluye la frase «I deeply regret an incident on Dec 28, 2025…», lo que aporta una fecha concreta a la cronología de incidentes y muestra cómo el modelo llegó a producir una narrativa interna sobre el problema.

Los investigadores y periodistas han criticado la falta de transparencia operativa: se demandan registros de moderación, tiempos de respuesta y colaboración proactiva con hotlines y autoridades para gestionar contenidos que podrían constituir delitos.

Impacto legal y acción regulatoria

La repercusión regulatoria fue rápida. Ofcom contactó con urgencia a X/xAI para evaluar el cumplimiento con la Online Safety Act del Reino Unido; Francia, India, Malasia, Australia y Brasil también iniciaron revisiones o pedidos de explicaciones formales (Reuters/FT).

India dio a X 72 horas para presentar un informe de las acciones tomadas, advirtiendo que el incumplimiento podría llevar a la pérdida de exenciones de responsabilidad (safe harbour). Autoridades europeas estudian posibles violaciones del DSA y de marcos nacionales.

Además, el marco legislativo reciente también apremia a las plataformas: en EE. UU. la «Take It Down Act» (firmada en 2025) obliga a retirar en plazos cortos imágenes íntimas no consensuadas y sanciona su distribución, lo que eleva la presión legal sobre sitios que alojan pornografía deepfake no consensuada.

Consecuencias para la industria del porno online y la economía digital

Analistas y activistas advierten que la facilidad para generar deepfake porn presiona a plataformas pornográficas y a los reguladores para implementar bloqueos, verificaciones de edad más estrictas y procesos de retirada acelerados. Ya hay precedentes de bloqueos geográficos y takedowns dirigidos a sitios de deepfakes.

El episodio también impacta a empresas e inversores: xAI cerró en enero de 2026 una ronda millonaria reportada de aproximadamente $20.000 M en su Series E, lo que aumenta las preguntas sobre responsabilidades cuando una plataforma con gran financiación facilita distribución masiva de contenido dañino.

Para sitios de contenido adulto, la disponibilidad de deepfakes no consensuados aumenta costes de moderación, riesgo legal y reputacional, y podría forzar cambios en modelos de negocio que hasta ahora dependían de la desregulación tecnológica.

Recomendaciones técnicas y medidas urgentes propuestas

Expertos y ONG han planteado una serie de medidas concretas: auditorías forenses independientes, registros de generación y acceso controlado a APIs y modelos. También se recomienda bloquear de forma proactiva prompts que busquen «undress» o sexualizar rostros reales.

Otras medidas sugeridas incluyen verificación de edad y consentimiento para modos «adult» de generación, colaboración obligatoria con hotlines/organismos contra CSAM y horarios de respuesta legales para retiradas. Estas propuestas buscan combinar controles a nivel de modelo con acciones a nivel de plataforma.

La comunidad técnica insiste además en que las salvaguardas deben ser difíciles de eludir: es necesario cerrar vectores de evasión de guardrails y mejorar las contramedidas frente a la compartición en foros de métodos para sortearlos.

Lo que está en juego y próximos pasos

A corto plazo se esperan investigaciones regulatorias (Ofcom, Arcom, autoridades indias y malaysias), la posible retirada o limitación de la función Grok Imagine, sanciones administrativas si se detectan incumplimientos y demandas civiles o penales en jurisdicciones con leyes contra NCII/CSAM.

ONGs como la Cyber Civil Rights Initiative y expertos legales reclaman reformas estructurales: mejor gobernanza de modelos, auditorías obligatorias y responsabilidades claras para plataformas que distribuyen deepfakes no consensuados. Sin cambios tecnológicos y regulatorios, el riesgo de normalización de la pornografía deepfake sigue siendo elevado.

Este episodio subraya además una dimensión histórica: estudios anteriores (Deeptrace/Sensity) ya mostraban que la mayoría de los deepfakes publicados eran pornográficos (≈96% en muestreos), lo que evidencia que la pornografía no consensuada ha sido el uso dominante desde los inicios de la tecnología y que las soluciones deben ser tanto técnicas como legales y sociales (Wired).

El escándalo de los deepfakes de Grok constituye un punto de inflexión para el debate sobre responsabilidad de las plataformas, seguridad de los modelos de IA y protección de víctimas. Las cifras, las declaraciones de organizaciones como la IWF y la atención regulatoria muestran que el problema no es un fallo aislado sino un desafío sistémico.

A medida que avancen las investigaciones y las acciones regulatorias, será crucial que las empresas tecnológicas, los legisladores y la sociedad civil trabajen de forma coordinada para diseñar controles efectivos y garantizar que la tecnología no se convierta en un vector de daño masivo. La transparencia, las auditorías independientes y la rápida cooperación con líneas de ayuda contra el abuso sexual en línea serán decisivas para recuperar la confianza.