Demandan a xAI por convertir fotos reales en pornografía con Grok

La compañía de Elon Musk afronta una demanda colectiva en California por presuntamente permitir la creación de imágenes sexuales a partir de fotografías de menores y adultos identificables.
Grok
Grok

xAI entra en su mayor frente de riesgo legal desde el lanzamiento de Grok. Tres demandantes de Tennessee —dos de ellos menores— han presentado una demanda en un tribunal federal de San José (California) en la que acusan a la compañía de Elon Musk de haber diseñado su generador de imágenes para permitir la creación de contenido sexual explícito a partir de fotos reales de terceros. La tesis central no es un fallo puntual: es un incentivo comercial que, según los denunciantes, chocaba de frente con las salvaguardas mínimas exigibles.

El caso llega en el peor momento posible para la industria: cuando la IA generativa deja de medirse solo por capacidad y empieza a medirse por responsabilidad. Y cuando el riesgo reputacional ya no es un problema de comunicación, sino un coste operativo —regulatorio, judicial y financiero— que puede condicionar la expansión.

Un litigio con ambición de acción colectiva

La demanda, presentada el lunes 16 de marzo de 2026, busca certificación como acción colectiva para todas las personas en Estados Unidos que hayan sido “razonablemente identificables” en imágenes o vídeos sexualizados generados por Grok a partir de material real. Ese umbral es clave: el pleito se formula como un problema potencialmente masivo, no como una excepción.

Los demandantes solicitan daños no especificados, costas legales y una orden judicial que obligue a xAI a cesar las prácticas denunciadas. La empresa no respondió de inmediato a solicitudes de comentario.

Las letras de IA (Inteligencia Artificial) y la mano del robot se colocan en la placa base del ordenador, REUTERS/Dado Ruvic
Las letras de IA (Inteligencia Artificial) y la mano del robot se colocan en la placa base del ordenador, REUTERS/Dado Ruvic

Menores y fotos reales: el umbral penal que lo cambia todo

El elemento que eleva el caso a otra categoría es la edad. Según la demanda, los tres eran menores cuando se generaron las imágenes. La abogada Annika Martin lo resumió con una frase de alto voltaje jurídico y reputacional: “fotos escolares y familiares” transformadas en material sexualizado.

El fondo del debate ya no es si la IA puede producir contenido ofensivo, sino si —cuando se trata de menores— la previsibilidad del abuso obliga a un estándar de diligencia muy superior. En términos de mercado, esto introduce una variable que las tecnológicas llevan años intentando evitar: que el “contenido generado por usuarios” deje de ser una coartada y se convierta en un problema de diseño de producto.

El incentivo perverso: crecer primero, controlar después

La demanda sostiene que xAI habría tolerado —o incluso perseguido— capacidades con alto atractivo viral. La controversia se conecta con las funciones de edición y modos “spicy” que permitían “desvestir” imágenes reales, y con la difusión posterior en canales y foros.

El caso describe un patrón que la industria conoce demasiado bien: en un mercado donde la adopción se compra con fricción mínima, los controles se perciben como un freno al crecimiento. Pero cuando el producto escala, el coste de ese atajo no se paga con disculpas: se paga con litigios, investigaciones y restricciones.

El episodio de Tennessee y la propagación del daño

Según la información recogida en la denuncia y en la investigación, un sospechoso arrestado en diciembre de 2025 habría utilizado herramientas vinculadas a Grok para manipular imágenes de adolescentes —incluida la eliminación digital de ropa en fotos reales— y difundir el material en plataformas como Discord y Telegram. El documento menciona imágenes de más de 18 chicas, muchas vinculadas al mismo entorno escolar.

Aquí está el punto que más castiga a la marca: cuando el material circula, el daño deja de ser técnico y pasa a ser social. Y en menores, el impacto se traduce en exposición pública, angustia emocional y una huella digital difícil de borrar.

Las medidas de enero no eliminan el riesgo

Tras el escándalo, xAI y X anunciaron en enero de 2026 restricciones: bloqueo de la edición de imágenes de “personas reales en ropa reveladora” y geobloqueo de ciertas capacidades “en jurisdicciones donde sea ilegal”, además de cambios sobre quién puede crear y editar imágenes.

Pero, desde el punto de vista del pleito, ese giro llega tarde por dos razones. Primero, porque el litigio se centra en hechos previos y daños ya consumados. Segundo, porque una corrección posterior tiende a leerse como prueba indirecta de que el sistema podía haberse limitado antes. Y el enfoque territorial añade otra debilidad: en un entorno global, el daño no respeta fronteras.

Reguladores en alerta: el ciclo ha cambiado

La presión regulatoria ya venía subiendo. En enero, autoridades y supervisores en varias jurisdicciones anunciaron investigaciones y medidas tras la oleada de imágenes sexualizadas generadas con Grok, con menciones a pesquisas del regulador británico y movimientos en Europa, además de investigaciones a nivel estatal en EE. UU.

Este es el cambio de ciclo: cuando la IA entra en el terreno de la explotación sexual no consentida, la discusión deja de ser “innovación” y pasa a ser riesgo sistémico. Y el mercado empieza a descontar que el precio del crecimiento será, cada vez más, cumplimiento, auditoría y limitaciones técnicas.

Nvidia
Nvidia

El ángulo de capital: más dinero, más exposición

La paradoja es evidente: xAI acelera la inversión al mismo tiempo que aumenta su exposición reputacional. En enero de 2026, la compañía anunció una ronda Serie E de 20.000 millones de dólares, con participación de inversores como Fidelity, QIA y otros, además de estratégicos como NVIDIA y Cisco Investments, en un mensaje centrado en el escalado de infraestructura y capacidad de cómputo.

Ese músculo financiero amplifica el listón de exigencia. Cuanto más institucional es el capital, menor es la tolerancia a riesgos que puedan traducirse en prohibiciones, litigios en cascada o un endurecimiento regulatorio que encarezca operar. En la IA, la ventaja competitiva no será solo quién entrena más rápido, sino quién puede desplegar a escala sin abrir un agujero legal imposible de cerrar.

Comentarios