Adolescentes demandan a xAI de Elon Musk por deepfakes sexuales creados con Grok
Demanda contra xAI por deepfakes sexuales de adolescentes con Grok

Demanda colectiva contra xAI por deepfakes sexuales creados con Grok

Tres adolescentes estadounidenses han interpuesto una demanda colectiva contra xAI, la empresa de inteligencia artificial fundada por Elon Musk, acusando a su chatbot Grok de generar imágenes pornográficas hiperrealistas a partir de fotografías reales de las jóvenes. La acción legal, presentada ante un tribunal federal en San José, California, marca un nuevo capítulo en los litigios sobre responsabilidad tecnológica y protección de menores en la era digital.

Transformación de imágenes ordinarias en contenido explícito

Según los documentos judiciales, una persona ya detenida habría utilizado Grok para transformar fotografías ordinarias de las adolescentes, obtenidas de redes sociales y anuarios escolares, en contenido sexual explícito de carácter pornográfico. Estas imágenes manipuladas digitalmente fueron inicialmente difundidas en plataformas como X, Discord y Telegram, antes de migrar a espacios más difíciles de rastrear en la dark web.

El documento legal sostiene que las imágenes falsas comenzaron a intercambiarse como "moneda digital" para acceder a otros contenidos ilícitos vinculados con pornografía infantil. Esta dinámica evidencia, según las abogadas de las demandantes, la velocidad con que las herramientas de IA pueden alimentar redes clandestinas de explotación sexual en línea.

Impacto psicológico devastador en las víctimas

El impacto emocional constituye uno de los ejes centrales de la acción legal. En declaraciones difundidas por la representación legal, la madre de una de las adolescentes, residente en Tennessee, relató que su hija sufrió un ataque de pánico severo al comprender que las imágenes falsas habían sido creadas y distribuidas sin posibilidad real de eliminación total.

"Fue desgarrador verla enfrentar algo que no hizo y que no puede controlar", señaló la progenitora. Otra de las jóvenes afectadas experimenta pesadillas recurrentes, mientras que una tercera requiere tratamiento médico para poder conciliar el sueño. Según la demanda, el temor a nuevos episodios de exposición digital ha llevado a algunas de ellas a reconsiderar actividades cotidianas fundamentales, como asistir a ceremonias de graduación o participar en eventos escolares.

Acusaciones sobre falta de salvaguardas tecnológicas en Grok

Las abogadas argumentan que xAI "diseñó deliberadamente Grok para producir contenidos sexualmente explícitos con fines lucrativos", sosteniendo que la empresa no implementó medidas de protección equivalentes a las adoptadas por otros desarrolladores de modelos generativos para prevenir la creación de pornografía infantil o material sexual no consentido.

Como respaldo, el escrito cita un estudio del Center for Countering Digital Hate (CCDH), que estimó que Grok habría generado aproximadamente tres millones de imágenes sexualizadas en apenas 11 días hacia finales de 2025. De ese total, cerca de 23 mil representarían a menores de edad, según la investigación.

El informe también advierte sobre la facilidad con que usuarios sin conocimientos técnicos avanzados pueden producir deepfakes mediante interfaces conversacionales, lo que ha reducido drásticamente las barreras de entrada para la manipulación visual maliciosa.

Cambios insuficientes y debate regulatorio global

Ante el escándalo público, xAI introdujo modificaciones en la política de uso de Grok a mediados de enero, restringiendo la generación de imágenes únicamente a suscriptores de pago. Sin embargo, organizaciones de la sociedad civil consideran que estas medidas son insuficientes e incompletas, ya que no abordan de manera integral la verificación de identidad ni los mecanismos de detección temprana de contenidos ilegales.

El caso podría sentar precedentes significativos en materia de responsabilidad tecnológica. En Estados Unidos, la regulación sobre inteligencia artificial se encuentra aún en fase de desarrollo, mientras tribunales federales comienzan a recibir litigios destinados a definir el alcance de la responsabilidad empresarial cuando sus sistemas son utilizados para causar daño a terceros.

Preocupación internacional por violencia digital contra menores

Especialistas en derecho digital apuntan que esta demanda podría reavivar el debate global sobre la protección de menores en entornos virtuales, así como sobre la necesidad de normas más estrictas en torno a la generación automatizada de contenido sensible. También plantea interrogantes sobre la capacidad real de las plataformas para retirar material viralizado y evitar su redistribución en redes descentralizadas.

El crecimiento exponencial de los deepfakes sexuales se ha convertido en una preocupación internacional prioritaria. Informes recientes muestran que la mayoría de las víctimas identificadas son mujeres y adolescentes, evidenciando un patrón de violencia digital con implicaciones sociales, psicológicas y legales de largo alcance.

En paralelo, gobiernos de Europa, Asia y América Latina analizan iniciativas legislativas para tipificar penalmente la creación y difusión de pornografía falsa generada por IA, especialmente cuando involucra a menores. Algunas propuestas incluyen:

  • Sanciones económicas elevadas para empresas y creadores
  • Penas de prisión para responsables de difusión maliciosa
  • Obligaciones más severas para compañías tecnológicas en materia de prevención
  • Mecanismos de verificación de identidad más robustos

Mientras avanza el proceso judicial en California, el caso contra xAI pone en primer plano la tensión fundamental entre innovación tecnológica acelerada y protección de derechos fundamentales. El desenlace podría influir no solo en el futuro operativo de Grok, sino también en la forma en que la industria global de inteligencia artificial diseña, supervisa y comercializa sus herramientas en los próximos años, estableciendo estándares de responsabilidad corporativa en la era de la IA generativa.