Bruselas acusa a TikTok y abre la vía a multas del 6%
La Comisión Europea ha dado un paso que puede redefinir la economía de las grandes plataformas digitales. En sus conclusiones preliminares, el Ejecutivo comunitario considera que TikTok ha vulnerado el Reglamento de Servicios Digitales (DSA) por el carácter adictivo de su diseño, basado en el scroll infinito, el autoplay, las notificaciones persistentes y un algoritmo de recomendaciones hipersonalizado. Según Bruselas, estas funciones generan “riesgos sistémicos” para la salud mental y física de los usuarios, especialmente de los menores, y la empresa no ha evaluado ni mitigado adecuadamente esos efectos. Si el incumplimiento se confirma, la plataforma se enfrenta a multas de hasta el 6% de su facturación global y a la obligación de rediseñar su producto en Europa.
Un dictamen preliminar que pone a TikTok contra las cuerdas
El documento hecho público por la Comisión no es todavía una decisión definitiva, pero su tono deja poco margen para la duda. Bruselas sostiene que TikTok ha construido un “diseño adictivo” que empuja a los usuarios a consumir contenido durante largos periodos, con especial impacto en niños y adolescentes. La investigación, enmarcada en el nuevo régimen del DSA para las grandes plataformas, concluye que la compañía no ha llevado a cabo una evaluación seria de esos riesgos ni ha desplegado salvaguardas proporcionales.
El diagnóstico es inequívoco: las funciones de la aplicación no son neutrales, sino que “premian” el uso continuado y dificultan que el usuario recupere el control sobre su tiempo de conexión. El caso se inscribe en la primera oleada de aplicación dura del DSA, tras las sanciones a X por desinformación y publicidad política. Si el procedimiento avanza, la Comisión podría imponer no solo sanciones económicas, sino también órdenes vinculantes para modificar la arquitectura del producto en la Unión Europea.
Un diseño pensado para enganchar: scroll infinito, autoplay y notificaciones
El corazón del caso está en la mecánica de la aplicación. Bruselas cuestiona el scroll infinito, que presenta vídeos sin pausa y sin necesidad de que el usuario tome decisiones conscientes; el autoplay, que reproduce el siguiente contenido de forma automática; las notificaciones “empujadas”, diseñadas para atraer de nuevo al usuario cuando se desconecta; y un recomendador altamente personalizado que aprende qué engancha a cada perfil para ofrecérselo de forma constante.
Según la Comisión, esta combinación desplaza al usuario a una especie de “modo piloto automático”, en el que la gratificación inmediata —un vídeo más, un estímulo más— dificulta interrumpir la sesión incluso cuando el propio usuario querría hacerlo. El problema se agrava en menores, cuyo autocontrol y capacidad de planificación todavía están en desarrollo.
Los reguladores apuntan a datos internos y estudios externos que muestran que una parte relevante de adolescentes pasa entre cuatro y cinco horas diarias en la plataforma, y que TikTok es, con diferencia, la red más utilizada de madrugada entre los 13 y los 18 años. Este hecho revela un patrón de consumo especialmente preocupante para el descanso y el rendimiento escolar.
Qué exige el DSA a las grandes plataformas digitales
El Reglamento de Servicios Digitales, en vigor plenamente desde febrero de 2024 para las grandes plataformas, obliga a servicios como TikTok a identificar, evaluar y mitigar los riesgos sistémicos derivados de su funcionamiento: desde la difusión de desinformación hasta impactos sobre la salud mental y la protección de menores. Las llamadas plataformas muy grandes deben realizar auditorías independientes, ofrecer más transparencia a los investigadores y adaptar sus sistemas cuando se detectan daños significativos.
Lo más grave para las empresas es el nuevo arsenal sancionador. El DSA permite imponer multas de hasta el 6% del volumen de negocio global anual del proveedor en caso de incumplimiento grave y reiterado. En situaciones extremas, la Comisión puede incluso solicitar la suspensión temporal del servicio en el territorio europeo.
La reciente multa de 120 millones de euros a X por incumplimientos relacionados con desinformación y falta de transparencia ha demostrado que Bruselas está dispuesta a utilizar estas herramientas. El mensaje al conjunto del sector es claro: el DSA no es un marco declarativo, sino un régimen de cumplimiento duro con consecuencias económicas tangibles.
Los números de TikTok en Europa y el tamaño del riesgo económico
La dimensión del caso se entiende mejor con las cifras. TikTok reconoce que 170 millones de personas utilizan la plataforma en la UE, y más de 200 millones en Europa, lo que supone aproximadamente un tercio de la población del continente. A escala global, el servicio se ha convertido en una de las redes más utilizadas del mundo, con estimaciones que apuntan a alrededor de 1.9 miles de millones de usuarios activos y un crecimiento todavía robusto.
En el plano económico, los datos públicos sitúan los ingresos de TikTok en torno a 23.000 millones de dólares en 2024, con incrementos anuales superiores al 40%. Aplicado al máximo sancionador del DSA, un 6% de esa cifra equivaldría a casi 1.400 millones de dólares en multa potencial. La consecuencia es clara: para plataformas de este tamaño, el cumplimiento regulatorio deja de ser un coste marginal para convertirse en un riesgo estratégico de primera magnitud.
Además, cualquier obligación de rediseñar la aplicación —por ejemplo limitando el scroll infinito por defecto o introduciendo pausas obligatorias— impactaría directamente en el tiempo de uso, la venta de publicidad y el atractivo de TikTok para marcas y creadores en el mercado europeo.
La ofensiva política de Bruselas para proteger a los menores
El expediente a TikTok se inscribe en una agenda política más amplia de la UE: reivindicar su capacidad regulatoria frente a las grandes tecnológicas y colocar la protección de menores en el centro de la política digital. La vicepresidenta ejecutiva para Soberanía Tecnológica, Seguridad y Democracia, Henna Virkkunen, ha sintetizado la preocupación de Bruselas en un mensaje nítido: «La adicción a las redes sociales puede tener efectos perjudiciales en las mentes en desarrollo de niños y adolescentes. El DSA hace responsables a las plataformas de los efectos que tienen sobre sus usuarios».
Más allá de la retórica, la Comisión ha ido tejiendo en los últimos meses una red de requerimientos formales a plataformas, tiendas de aplicaciones y servicios de vídeo para que detallen sus mecanismos de verificación de edad, control de contenidos nocivos y herramientas de supervisión parental. El contraste con etapas anteriores, en las que Bruselas se limitaba a lanzar códigos de conducta voluntarios, resulta demoledor: ahora hay reglas, plazos y sanciones.
La respuesta de TikTok y la batalla jurídica que viene
TikTok ha rechazado de plano las conclusiones preliminares, calificándolas de “falsas” y “sin fundamento”, y ha anunciado que peleará el caso en todas las instancias. La compañía sostiene que ya ha introducido límites de tiempo para menores, modos de descanso, opciones de control parental y herramientas de reporte de contenidos, y que el análisis de la Comisión no reflejaría los cambios más recientes en el producto.
En términos jurídicos, el procedimiento prevé que la empresa pueda presentar alegaciones escritas y solicitar audiencias orales antes de que se adopte una decisión definitiva. Si Bruselas confirma la infracción, TikTok aún podría recurrir ante el Tribunal General de la UE, un proceso que puede prolongarse varios años.
Sin embargo, incluso antes de una resolución firme, el mero hecho de estar bajo el foco del DSA tiene efectos reputacionales y comerciales. Este hecho revela hasta qué punto la etiqueta de “plataforma adictiva para menores” puede lastrar acuerdos publicitarios, relaciones con reguladores nacionales y decisiones de padres y colegios sobre el uso de la aplicación.
Un efecto dominó sobre el resto de redes sociales
El caso TikTok no se produce en el vacío. La Comisión mantiene abiertos otros expedientes DSA contra plataformas como Meta, Facebook, Instagram o la propia X por cuestiones de transparencia, acceso de investigadores y moderación de contenidos.
Además, Bruselas ha reclamado información a tiendas de aplicaciones y sistemas operativos móviles —como los de Apple y Google— sobre cómo impiden que los menores accedan a contenidos ilegales o nocivos, desde drogas hasta material que promueve trastornos alimentarios. La consecuencia es un efecto dominó regulatorio: cualquier criterio que se consolide en el caso TikTok sobre qué es un diseño “manipulador” o “adictivo” terminará proyectándose sobre el resto de servicios.
Para el sector, el riesgo no se limita a una multa. Se abre la puerta a una redefinición completa de los patrones de diseño de las interfaces, desde cómo se presenta la cola de contenidos hasta la cadencia de las notificaciones o la obligatoriedad de pausas y avisos de descanso para jóvenes.