Notas de urgencia sobre la anunciada restricción a redes sociales para menores de 16 años

tech cc pexels-pavel-danilyuk-8294650

I. La ilusión de las fronteras digitales

El derecho administrativo contemporáneo ha desarrollado sofisticados instrumentos para la protección de menores en entornos complejos: desde la regulación de contenidos audiovisuales hasta la restricción de productos nocivos para la salud. Sin embargo, el anuncio efectuado por el presidente del Gobierno español el 3 de febrero de 2026 —la prohibición del acceso a redes sociales para menores de 16 años— introduce una novedad paradigmática que merece examen jurídico detenido. No se trata de limitar la comercialización de un bien o de establecer requisitos de calidad para un servicio, sino de impedir la participación en espacios de interacción social que han devenido consustanciales a la vida contemporánea. La medida, presentada con la retórica de la protección frente a los "abusos de las grandes plataformas", encierra una tensión constitutiva que los textos legales apenas comienzan a articular: la imposibilidad técnica de definir con precisión qué constituye una red social en un ecosistema digital donde la mensajería instantánea, los videojuegos multijugador y las plataformas de contenido han convergido en una realidad indiferenciada.

La experiencia de Australia y Francia, jurisdicciones pioneras en esta senda regulatoria, resulta ilustrativa de las dificultades operativas que aguardan a la normativa española. Australia optó por una prohibición total para menores de 16 años, abarcando plataformas tan diversas como TikTok, Instagram, Facebook, Snapchat, X, Reddit, YouTube y Twitch, pero excluyendo explícitamente los videojuegos en línea como Fortnite o Roblox. Francia, mediante su Ley de Mayoría Digital de 2023, estableció restricciones similares pero mantuvo fuera del ámbito prohibitorio la mensajería instantánea. En ambos casos, la línea divisoria entre lo prohibido y lo permitido responde a criterios convencionales más que sustanciales: el chat de Fortnite, con sus millones de menores interactuando sin supervisión, resulta funcionalmente indistinguible de una red social, pero queda al margen por su clasificación formal de videojuego. Lo anterior me sugiere que estamos ante un ejercicio de nominalismo jurídico, donde la etiqueta técnica prevalece sobre la realidad de uso.

II. La anatomía de una regulación en construcción

El Proyecto de Ley Orgánica para la Protección de las Personas Menores de Edad en los Entornos Digitales, aprobado inicialmente en Consejo de Ministros en 2025 y actualmente en fase de enmiendas parlamentarias, contempla modificaciones sustanciales respecto al marco vigente. En primer lugar, eleva de 14 a 16 años la edad mínima para consentir el tratamiento de datos personales en servicios de la sociedad de la información, generando una tensión con la Ley Orgánica de Protección de Datos Personales que será necesario resolver. En segundo lugar, impone a las plataformas la obligación de implementar sistemas de verificación de edad "fehacientes", eliminando la actual referencia a "esfuerzos razonables" que caracterizaba el estándar anterior. En tercer lugar, y de particular relevancia, establece la responsabilidad legal directa de los directivos de plataformas por infracciones relativas a contenidos ilícitos, tipificando como delito la manipulación algorítmica y ampliando el catálogo de materias prohibidas.

Esta arquitectura normativa, aunque ambiciosa en sus objetivos, enfrenta un obstáculo técnico de primera magnitud: la inexistencia, a fecha de hoy, de sistemas de verificación de edad que simultáneamente sean seguros, respetuosos con la privacidad, escalables e interoperables. La Agencia Española de Protección de Datos ha propuesto un enfoque basado en inteligencia artificial que estime la edad mediante análisis de selfies con verificación de vivacidad, complementado con respaldo documental en casos de baja confianza. Sin embargo, la propia Agencia ha alertado sobre riesgos significativos asociados: perfilado masivo de menores, captura de datos biométricos a escala nacional, vinculación con información de geolocalización, y tercerización del control hacia intermediarios privados. Debe tenerse presente que la protección de menores mediante la recopilación masiva de sus datos biométricos constituye una paradoja regulatoria preocupante: en nombre de la seguridad, se configura un sistema de vigilancia preventiva cuyas externalidades para la autonomía y la privacidad resultan difícilmente calculables.

III. La convergencia tecnológica y el fracaso de las categorías

El anuncio gubernamental ha generado dudas específicas sobre la inclusión de plataformas como YouTube o WhatsApp dentro del ámbito prohibitorio. El Gobierno ha señalado que no se saldrá del marco de la directiva europea sobre servicios digitales, donde YouTube ingresa explícitamente como plataforma de redes sociales, mientras que WhatsApp queda excluido por su clasificación de servicio de mensajería. Esta distinción, heredada de una taxonomía tecnológica obsoleta, resulta operativamente insostenible. Los canales de WhatsApp, las comunidades de la aplicación y sus funciones de estado comparten la lógica de publicación y seguimiento característica de las redes sociales tradicionales. YouTube, por su parte, funciona simultáneamente como repositorio de video, plataforma de comunidades y espacio de interacción social en directo. Discord, popular entre menores, combina mensajería, foros temáticos y llamadas en una arquitectura híbrida que desafía cualquier clasificación binaria.

Hay que reseñar que la migración de usuarios entre plataformas es un fenómeno endémico de la ecología digital. Cuando una vía de acceso se cierra, los menores no desaparecen de internet; simplemente se desplazan hacia espacios menos visibles y menos regulados. La investigación académica europea, particularmente el proyecto EU Kids Online desarrollado en 21 países durante dos décadas, demuestra una correlación que desafía la intuición prohibitiva: los menores no desaparecen de internet cuando se les cierra el acceso a plataformas mainstream, sino que migran hacia aplicaciones descentralizadas, grupos privados en Telegram, servidores bajo invitación en Discord y espacios completamente opacos para la supervisión parental. El efecto neto potencial no es una reducción del riesgo, sino su desplazamiento hacia entornos carentes de herramientas de moderación, reportería y protección que poseen las plataformas mayores.

IV. El marco de derechos fundamentales en juego

La regulación de menores en entornos digitales confronta cuatro derechos fundamentales aparentemente en tensión: la participación digital, la privacidad, el acceso a la información y la protección contra contenidos dañinos. La prohibición propuesta resuelve el último a costa de los tres primeros, lo que plantea interrogantes de proporcionalidad que el Tribunal Constitucional y el Tribunal de Justicia de la Unión Europea eventualmente deberán examinar. La doctrina de la Unión Europea sobre restricciones al acceso a internet, desarrollada particularmente en relación con el bloqueo de sitios web por infracciones de propiedad intelectual, ha exigido siempre que tales medidas sean adecuadas, necesarias y proporcionadas en una sociedad democrática. La extensión de esta doctrina a restricciones basadas en edad resulta jurídicamente incierta, pero inevitable en el mediano plazo.

Considero que existe una dimensión distributiva del problema frecuentemente omitida en los debates públicos. La prohibición no afecta a todos los menores por igual. Los adolescentes de familias con recursos técnicos y educativos disponen de mecanismos para sortear las restricciones: redes privadas virtuales, cuentas compartidas con mayores de edad, aplicaciones alternativas accesibles mediante descargas laterales. Los menores en situación de vulnerabilidad socioeconómica, en cambio, pierden acceso a espacios que para ellos tienen valor sustantivo: comunidades de apoyo, información sobre salud mental, canales de expresión donde encuentran visibilidad. Según informes de Save the Children, estas regulaciones tienden a amplificar las desigualdades digitales existentes, protegiendo efectivamente a unos menores mientras excluyen a otros del beneficio de la conectividad social contemporánea.

V. La responsabilidad de plataformas y la arquitectura algorítmica

El proyecto de ley español introduce novedades significativas en materia de responsabilidad, tipificando como infracción grave la manipulación de algoritmos y estableciendo responsabilidad legal directa para directivos de plataformas que incumplan órdenes de retirada de contenidos ilícitos. Estas previsiones, aunque técnicamente complejas en su implementación, representan un giro hacia la rendición de cuentas estructural que el marco anterior, centrado en la mera notificación y retirada, no alcanzaba a garantizar. La psicóloga Paula Miralles, directora del programa Desconect@ Madrid, ha enumerado los riesgos específicos para menores: adicción, fobia social, trastornos alimentarios, autolesiones, todos ellos vinculados a dinámicas de plataformas diseñadas para maximizar el tiempo de uso mediante mecanismos de refuerzo intermitente.

Asumo que la verdadera protección requiere intervención sobre la arquitectura de los servicios, no únicamente sobre el acceso a ellos. Las plataformas podrían rediseñarse para limitar mecanismos de dependencia, adaptar interfaces al desarrollo cognitivo de diferentes grupos de edad, y proporcionar herramientas de control parental efectivas sin requerir la captura masiva de datos biométricos. Ello me obliga a deducir que la prohibición total constituye una solución de segundo orden, preferible únicamente cuando fallan los mecanismos de regulación arquitectónica y educativa. La evidencia académica acumulada sugiere, contraintuitivamente, que los países con mayor alfabetización digital presentan simultáneamente mayor uso de redes sociales y menor victimización grave, indicando que la exposición progresiva y educada resulta más protectora que el aislamiento binario.

VI. Reflexiones finales sobre la velocidad y la prudencia

El anuncio en Dubái, lejos de cerrar el debate, lo ha abierto en toda su complejidad. Las reacciones políticas inmediatas —el malestar de Sumar por la superposición con iniciativas legislativas en trámite, la crítica de Vox en términos de control estatal, la reivindicación del Partido Popular de haber propuesto primero una edad más baja— revelan que la cuestión trasciende el arco parlamentario convencional. La implementación prevista para 2026 ofrece una ventana de oportunidad para el refinamiento técnico, pero también el riesgo de inercia normativa que concrete prohibiciones mal diseñadas por la presión de la urgencia política.

El derecho debe navegar entre dos escollos igualmente peligrosos: la inacción frente a daños juveniles documentados, y la adopción de medidas simbólicas que generan costes de privacidad y autonomía sin mejorar sustancialmente la protección efectiva. La experiencia comparada y la evidencia científica disponible apuntan hacia un tercer camino, más exigente en su diseño pero más respetuoso con la dignidad de los menores: la inversión en educación digital crítica desde edades tempranas, la supervisión parental real y transparente, la regulación arquitectónica de plataformas para limitar mecanismos adictivos, y sistemas de verificación de edad que minimicen la captura de datos biométricos. Este enfoque rechaza tanto la protección mediante aislamiento como la libertad sin fronteras, proponiendo una regulación inteligente que acompañe a los menores en su desarrollo como agentes digitales autónomos.

La oportunidad está abierta. Cuando estas normas entren en vigor, gobiernos y reguladores podrán haber optado por prohibiciones que probablemente generen migración hacia espacios opacos, o habrán construido sistemas que equilibran genuinamente protección, privacidad, participación y equidad. Esa decisión no puede dejarse en manos de la inercia política ni de la urgencia mediática, pues requiere rigor técnico, deliberación inclusiva y, sobre todo, un compromiso ético real con la dignidad digital de la generación que está creciendo en la intersección entre lo humano y lo algorítmico, a fin de que se busque proteger a los menores y no tener controlada a la sociedad en su conjunto.