Chat Control y los 3 riesgos de la nueva vigilancia digital
Europa abre la puerta al escaneo masivo de chats mientras la IA se consolida como herramienta de control, la generación Z levanta la voz y juristas como Covadonga Torres Assiego alertan de un posible punto de no retorno en nuestros derechos fundamentales.
La batalla por la libertad digital ha dejado de ser una cuestión de expertos para convertirse en un asunto de supervivencia democrática. La propuesta europea conocida como Chat Control cuestiona el cifrado de extremo a extremo que protege a más de 450 millones de usuarios en la UE.
Bajo el argumento de perseguir delitos graves, se plantea que algoritmos revisen de forma automática mensajes privados, audios e imágenes.
La profesora de Derecho Covadonga Torres Assiego advierte que ese salto puede redefinir, de facto, la frontera entre seguridad y vigilancia permanente, y contamos con ella en nuestro TechTalk de Skiller Academy. En paralelo, la inteligencia artificial se incrusta en decisiones públicas y privadas, mientras la generación Z organiza nuevas formas de resistencia digital. El diagnóstico es inquietante: lo que hoy se vende como protección puede convertirse mañana en una infraestructura silenciosa de control social.
Chat Control: del pretexto de la seguridad al escaneo masivo
El proyecto Chat Control nace envuelto en una narrativa incontestable: combatir abusos, terrorismo y delitos graves. El problema, como subraya Torres Assiego, no es el objetivo declarado, sino el método elegido. La iniciativa plantea que los proveedores de mensajería puedan verse obligados a escudriñar los contenidos privados de sus usuarios usando sistemas automatizados, con autorización legal pero con un margen de discrecionalidad inquietante.
El debate no es teórico. Si se aprueba en sus términos más duros, el Chat Control abriría la puerta a que cualquier mensaje —texto, imagen o audio— pueda ser analizado por algoritmos en busca de patrones sospechosos. No hablamos de órdenes judiciales individualizadas, sino de vigilancia preventiva y generalizada.
La profesora recuerda que la historia reciente está llena de leyes “temporales” que acabaron siendo permanentes. “Lo excepcional tiende a consolidarse cuando la ciudadanía se acostumbra al miedo”, advierte. Y esa es quizá la clave: el uso del miedo como palanca para normalizar mecanismos de inspección que, en otro contexto, serían vistos como inadmisibles.
El fin del cifrado de extremo a extremo, la línea roja
Uno de los puntos más polémicos del debate es el ataque frontal al cifrado de extremo a extremo, la tecnología que impide que terceros —incluidas las propias plataformas— accedan al contenido de los mensajes. Romper esa protección, incluso parcialmente, equivale a abrir una ventana permanente en lo que hasta ahora era una habitación blindada.
Torres Assiego lo plantea en términos jurídicos claros: el cifrado no es un capricho técnico, es una garantía funcional del derecho al secreto de las comunicaciones. Sin esa capa, cualquier promesa de privacidad se convierte en un acto de fe. La posibilidad de implantar puertas traseras o escáneres automáticos supone, de facto, admitir que todas las conversaciones pueden ser leídas, aunque se insista en que solo se hará en casos graves.
El riesgo va más allá de Europa. Romper el cifrado en la UE puede sentar un precedente global, alentando a otros gobiernos —democráticos o no— a exigir herramientas similares. La consecuencia es clara: si se debilita el cifrado para unos, se debilita para todos, incluidos periodistas, activistas, abogados o minorías perseguidas que dependen de estas tecnologías para sobrevivir.
Algoritmos que leen conversaciones: errores, sesgos y ausencia de garantías
El Chat Control descansa en una premisa tecnológica: confiar a algoritmos e inteligencia artificial la detección de contenidos ilícitos en tiempo real. Sobre el papel suena eficiente; en la práctica, abre un campo de minas jurídico y social. Los sistemas de detección automática trabajan con probabilidades, no con certezas. Incluso con tasas de acierto del 95%, un volumen de miles de millones de mensajes diarios generaría millones de falsos positivos.
Torres Assiego subraya el peligro de delegar en máquinas decisiones que afectan a derechos fundamentales. “Cuando el filtro inicial lo hace un algoritmo opaco, ¿quién responde por sus errores?”, plantea. El problema no es solo técnico, sino de gobernanza: quién diseña esos modelos, con qué datos, bajo qué supervisión y con qué mecanismos de apelación para el ciudadano al que se le bloquea una cuenta o se le abre un expediente penal.
Además, los sesgos incorporados en los modelos —lingüísticos, culturales, ideológicos— pueden castigar de manera desproporcionada a determinados colectivos. Un término irónico, una broma interna o un contexto cultural específico pueden ser leídos como “peligrosos” por sistemas entrenados con patrones simplistas. El resultado es un entorno donde los usuarios interiorizan la vigilancia y se autocensuran antes incluso de escribir.
Del Reino Unido a Bruselas: detenciones, censura y autocontrol
Los ejemplos no son hipotéticos. En Reino Unido, el endurecimiento de leyes sobre discurso de odio y seguridad ha derivado en centenares de detenciones por comentarios en redes sociales en los últimos años. Muchos casos afectan a publicaciones que, en otro contexto, habrían sido objeto de debate público, no de intervención penal.
Este tipo de actuaciones, recuerda Torres, tiene un efecto doble. Por un lado, judicializa la conversación pública, trasladando a los tribunales conflictos que antes se dirimían en el espacio del debate y la crítica. Por otro, genera un clima de miedo difuso: el usuario medio ya no sabe dónde está el límite y opta por callar antes que arriesgarse.
Si a este contexto se le suma un sistema europeo de vigilancia automatizada como el Chat Control, el resultado puede ser devastador para la libertad de expresión. Las plataformas, temerosas de sanciones, tenderán a sobreactuar, retirando contenidos dudosos para “curarse en salud”. La consecuencia es una censura blanda, difícil de rastrear, pero muy eficaz para recortar el espacio de disidencia.
Europa entre dos fuegos: regular a las ‘big tech’ sin matar la innovación
Europa se encuentra atrapada entre dos obsesiones legítimas pero contradictorias: frenar el poder de las grandes tecnológicas y, al mismo tiempo, no quedarse atrás en innovación frente a Estados Unidos y Asia. Normas como el Reglamento de Servicios Digitales o la futura regulación de IA buscan acotar prácticas abusivas, pero el Chat Control apunta en otra dirección: pedir a las plataformas que se conviertan en brazos ejecutores del Estado.
Torres Assiego alerta de la paradoja: mientras se acusa a las big tech de acumular datos y poder desmedido, se les exige a la vez que desplieguen herramientas intrusivas de escaneo masivo, con el Estado como beneficiario indirecto. El riesgo es acabar con una alianza perversa entre regulación y tecnología que sacrifique derechos en nombre de una seguridad mal entendida.
Al mismo tiempo, un exceso de carga regulatoria puede empujar a empresas innovadoras a instalarse definitivamente fuera de la UE. Si Europa se percibe como un entorno donde el margen para nuevos modelos de comunicación cifrada, IA responsable o servicios descentralizados es cada vez más estrecho, la factura en términos de competitividad puede sentirse en la próxima década, no en los próximos titulares.
Inteligencia artificial, empleo y democracia: el otro frente del control
La conversación sobre IA no se limita a la vigilancia. La automatización amenaza entre un 20% y un 30% de tareas en sectores como servicios administrativos, atención al cliente o análisis básico de datos. Eso implica reestructuraciones laborales, reconversiones forzosas y una presión creciente sobre los eslabones más débiles del mercado de trabajo.
Torres destaca que, en este contexto, la IA puede ser tanto herramienta de emancipación como nuevo yugo. Si las decisiones sobre contratación, crédito, acceso a servicios públicos o evaluación escolar se automatizan sin supervisión, el ciudadano queda expuesto a “cajas negras” algorítmicas de las que no sabe cómo defenderse. “No es solo un problema de empleo, es un problema de poder”, resume.
La brecha entre regiones que abrazan la IA para reforzar su productividad y aquellas que la usan como mera herramienta de control puede hacerse visible en pocos años. Europa, que ya va un paso por detrás en capacidad computacional frente a Estados Unidos y China, corre el riesgo de convertirse en un usuario regulado de tecnologías ajenas en lugar de en un productor soberano de sus propias soluciones.
Generación Z: resistencia digital en un ecosistema vigilado
En medio de este panorama, la generación Z emerge como actor incómodo para el statu quo. Son los primeros que han crecido con un móvil en la mano y que pasan, de media, más de cuatro horas al día conectados. Pero lejos de ser pasivos, muchos se han convertido en curadores críticos de su propio entorno digital.
Utilizan redes sociales para organizarse, esquivar censuras, documentar abusos y difundir narrativas alternativas. Han entendido, quizá mejor que sus mayores, que los algoritmos no son neutrales y que cada “me gusta” alimenta perfiles de comportamiento. Al mismo tiempo, sufren de primera mano los efectos del control: perfiles bloqueados, contenidos desmonetizados, sombras de veto informativo.
Torres subraya que el futuro de la libertad digital se jugará en buena medida en la capacidad de esta generación para defender sus espacios de autonomía frente a gobiernos y plataformas. Si las nuevas leyes convierten a la juventud hiperconectada en población permanentemente monitorizada, el impacto no será solo jurídico, sino cultural y político.
Lo que está en juego: derechos fundamentales en versión beta permanente
La reflexión final que deja la conversación con Covadonga Torres Assiego es tan sencilla como perturbadora: nuestros derechos fundamentales han entrado en fase beta permanente. Proyectos como el Chat Control, combinados con una IA cada vez más invasiva y un ecosistema de plataformas opaco, convierten la privacidad y la libertad de expresión en variables negociables.
La línea entre legítima persecución de delitos y vigilancia masiva se difumina cuando los controles dejan de ser excepcionales y se convierten en parte de la infraestructura cotidiana. Cada nuevo caso de detención por comentarios en redes, cada filtración de datos, cada ajuste silencioso en algoritmos de moderación refuerza la sensación de vivir en un entorno densamente vigilado.
Frente a ello, el reto no pasa solo por oponerse, sino por exigir transparencia, límites claros, supervisión independiente y educación digital real. Como recuerda la propia Torres, “la tecnología no es neutra ni inevitable; lo que está en juego es quién la diseña, con qué objetivos y bajo qué reglas”. El futuro de nuestra libertad digital se decidirá, en buena medida, en debates como este… y en cada clic que aceptamos sin leer.
