La opaca censura repentina y antieuropea de X

xAI
xAI

Resulta extraño, y curiosamente próximo a la arbitrariedad que caracteriza las decisiones unilaterales de las grandes plataformas digitales, que una red social con la historia controvertida de X haya optado por la censura encubierta como mecanismo de gestión de contenidos. Desde el pasado 17 de febrero, usuarios que acceden a la plataforma desde territorio de la Unión Europea han descubierto que determinadas publicaciones han desaparecido de sus perfiles sin notificación previa, sin explicación posterior y sin posibilidad de recuperación. La medida, aplicada con el sigilo propio de quien teme la confrontación pública, afecta principalmente a contenidos catalogados como "sensibles" que previamente requerían confirmación explícita del usuario para ser visualizados.

La naturaleza de lo suprimido resulta reveladora: ilustraciones y fotografías de carácter sexual o erótico, siempre que involucren a personas o personajes adultos. El contenido generado por inteligencia artificial, específicamente las imágenes de desnudez femenina producidas por Grok —incluyendo representaciones de menores de edad que han provocado la intervención de autoridades judiciales— permanece aparentemente accesible, al menos en lo que respecta a su detección y eliminación sistemática. La paradoja no es casual. X parece responder a la presión regulatoria europea no mediante el reforzamiento de sus filtros contra el contenido realmente problemático, sino mediante la eliminación indiscriminada de material legítimo que pudiera generar conflictos legales adicionales.

II. El contexto regulatorio que precede a la medida

La temporalidad de esta censura encubierta no admite interpretaciones ingenuas. La misma semana en que la plataforma comenzaba a ocultar publicaciones, el presidente del Gobierno español, Pedro Sánchez, anunciaba su intención de solicitar a la Fiscalía la investigación de X, Meta y TikTok por "creación y difusión de pornografía infantil mediante sus inteligencias artificiales". Esta iniciativa se sumaba a la apertura de un expediente sancionador por parte de la Comisión Europea en enero, dirigido específicamente contra X por la generación de imágenes de menores desnudos mediante su sistema Grok.

La respuesta de la plataforma, lejos de adoptar la forma de una política pública transparente, ha consistido en una intervención técnica opaca aplicada exclusivamente al territorio europeo. Los usuarios de otras regiones mantienen acceso a contenidos idénticos que los europeos ya no pueden visualizar ni siquiera en los perfiles de sus propios creadores. Esta segmentación geográfica de la visibilidad, ejecutada sin modificación de los términos de servicio ni comunicación oficial, constituye una forma de conformidad regulatoria que elude el escrutinio democrático.

La ausencia de declaraciones por parte de Elon Musk o de la dirección de X resulta particularmente significativa. En otros contextos, el propietario de la plataforma ha exhibido una voluntad expresiva casi compulsiva, utilizando su cuenta para anunciar cambios de política, responder a críticas o provocar controversias deliberadas. El silencio que acompaña a esta censura sugiere una estrategia calculada: implementar las restricciones necesarias para evitar sanciones europeas sin otorgar a los reguladores ni a los usuarios elementos de juicio sobre su alcance o sus criterios.

III. La revelación accidental y la reacción de los creadores

La existencia de esta práctica de ocultamiento no habría trascendido de no ser por la publicación de una streamer francesa, Saurei, cuyo vídeo documentando la desaparición de sus propias publicaciones se volvió viral en la propia plataforma. Este patrón de revelación —la denuncia ciudadana que precede al reconocimiento institucional— resulta característico de las políticas de moderación opacas de X, donde las decisiones algorítmicas y humanas operan bajo capas de invisibilidad técnica.

La respuesta de otros creadores de contenido europeos ha confirmado la extensión del fenómeno. Múltiples usuarios han documentado la eliminación de publicaciones que durante años habían estado disponibles bajo advertencias de contenido sensible, cumpliendo así con los mecanismos de restricción por edad que la propia plataforma había establecido. La retroactividad selectiva de la medida —las publicaciones anteriores al 17 de febrero permanecen visibles, las posteriores son suprimidas— añade una capa adicional de arbitrariedad que dificulta cualquier intento de adaptación por parte de los usuarios.

La crítica central que han formulado estos creadores apunta a la ausencia de transparencia. X no ha modificado sus términos de servicio, no ha establecido nuevas directrices de comunidad, no ha comunicado a los afectados las razones específicas de la supresión ni ha ofrecido vías de recurso o restauración. La plataforma actúa como censor sin asumir la responsabilidad de tal designación, manteniendo la ficción de que el contenido eliminado ha desaparecido por voluntad propia de sus creadores o por fallos técnicos inespecificados.

IV. La distinción problemática entre contenido humano y generado por inteligencia artificial

Un aspecto particularmente revelador de esta censura geográfica es su selectividad respecto del origen del contenido. La plataforma está eliminando material creado por artistas humanos —ilustraciones, fotografías, expresiones artísticas legítimas— mientras persisten las denuncias sobre la proliferación de imágenes generadas por Grok que representan desnudez femenina, en ocasiones con características que sugieren edades infantiles. Esta asimetría resulta incomprensible desde cualquier perspectiva de protección de usuarios o cumplimiento normativo razonable.

La explicación plausible apunta hacia una lógica de riesgo legal diferenciado. El contenido humano, creado por usuarios identificables y potencialmente asistidos por asesoramiento jurídico, genera responsabilidades claras para la plataforma si se considera ilegal en alguna jurisdicción. El contenido generado por inteligencia artificial, atribuible difusamente al sistema técnico de la propia empresa, permite una estrategia defensiva basada en la novedad tecnológica y la ausencia de intencionalidad humana directa. X parece preferir eliminar el material sobre el que podría exigirsele responsabilidad directa antes que restringir las funcionalidades de su propia inteligencia artificial, pese a que esta última constituye el origen de las investigaciones judiciales que presionan a la compañía.

Ni la empresa ni su propietario han explicado las directrices que determinan qué contenido se bloquea y qué permanece accesible. Esta opacidad deliberada impide a los usuarios europeos comprender los límites de la expresión permitida en la plataforma, generando un efecto paralizador sobre la creación y publicación de material legítimo. El miedo a la eliminación invisible sin posibilidad de apelación opera como censura preventiva más efectiva que cualquier regulación explícita.

V. Las implicaciones para la gobernanza digital europea

La actuación de X plantea interrogantes fundamentales sobre la eficacia del marco regulatorio europeo en materia de plataformas digitales. El Digital Services Act, vigente desde 2024, establece obligaciones de transparencia en las decisiones de moderación de contenidos, requiere mecanismos de apelación efectivos y somete a las grandes plataformas a supervisión reforzada por parte de la Comisión Europea. La censura encubierta implementada por X parece diseñada precisamente para eludir estos mecanismos, operando técnicamente como restricción de visibilidad sin generar los registros auditable que la normativa exige.

La segmentación geográfica del acceso a contenidos, práctica que X ha llevado a extremos inéditos con esta medida, socava el principio de unidad del mercado digital europeo. Un ciudadano español y un ciudadano estadounidense acceden a plataformas técnicamente idénticas pero experimentan realidades informativas radicalmente divergentes, sin que exista notificación clara de tales diferencias ni posibilidad de optar conscientemente por una u otra versión del servicio.

La respuesta institucional no se ha hecho esperar, aunque sus efectos prácticos permanecen inciertos. La apertura de expedientes sancionadores por parte de la Comisión Europea y la solicitud de investigación fiscal española indican que las autoridades han identificado la gravedad del problema. Sin embargo, la velocidad de implementación de las restricciones por parte de X y su carácter técnico de difícil verificación externa sugieren que la regulación tradicional puede resultar insuficiente frente a plataformas dispuestas a operar en los intersticios de la legalidad.

VI. Reflexiones sobre la transparencia como valor regulativo

El caso de la censura europea de X ilustra una tensión estructural de la gobernanza digital contemporánea. Las plataformas han asumido funciones de regulación de la expresión que tradicionalmente correspondían a Estados democráticos, pero lo hacen sin las garantías de transparencia, participación y responsabilidad que caracterizan al poder público. Cuando una decisión de eliminación de contenido es tomada por un tribunal, existe motivación explícita, posibilidad de recurso y publicidad del fallo. Cuando es tomada por un algoritmo o un moderador anónimo de X, no existe ninguna de estas garantías.

La opacidad de la medida implementada desde el 17 de febrero no es un defecto accidental sino una característica funcional. Permite a la plataforma negociar con los reguladores sin reconocer públicamente la existencia de prácticas problemáticas, modificar su comportamiento sin asumir responsabilidades, y mantener simultáneamente discursos contradictorios sobre libertad de expresión en distintos mercados. El usuario europeo que descubre la desaparición de sus publicaciones no sabe si ha cometido una infracción, si ha sido víctima de un error técnico, o si simplemente habita una versión degradada de la plataforma por razones geográficas.

La transparencia, en este contexto, no es un valor abstracto sino una condición de posibilidad para la ciudadanía digital. Sin conocimiento de qué se censura y por qué, los usuarios no pueden ejercer sus derechos de forma informada, los reguladores no pueden evaluar el cumplimiento normativo, y la sociedad no puede debatir los límites legítimos de la expresión. X ha optado por la oscuridad, y en esa oscuridad la democracia pierde una de sus herramientas esenciales: la capacidad de nombrar y discutir las restricciones que se imponen a la palabra pública.

Comentarios