Reglamento Europeo de IA (IA Act)

Deepfakes, filigranas y delitos de honor: así llega España tarde y mal a la revolución IA

El Reglamento europeo obliga a marcar el contenido sintético, pero el anteproyecto español tras el caso Grok desplaza el foco al honor… y a la responsabilidad penal del usuario
Grok
Grok

La regulación de la inteligencia artificial y, en particular, de los deepfakes ha entrado en la agenda política española de la peor manera posible: a golpe de escándalo. Tras la polémica por el uso de herramientas como Grok y la proliferación de contenidos manipulados, el Gobierno ha reaccionado con un anteproyecto que, según los expertos, nace improvisado y se apoya casi por completo en el derecho al honor, la intimidad y la propia imagen.
Mientras tanto, en Bruselas, el Reglamento Europeo de IA (IA Act) ya ha fijado el marco técnico: el artículo 50 obliga a marcar todos los contenidos sintéticos con una “filigrana” detectable por máquina a partir del 2 de agosto de 2026.
La conexión entre ambas normas parece clara: Europa actúa sobre la prevención (transparencia, etiquetado, watermarking); España sobre el daño (honor, consentimiento, responsabilidad civil y penal). Pero, como advierte el jurista y experto en regulación digital Juan Antonio Muñoz-Gallego, ni el artículo 50 va a ser suficiente por sí solo, ni la respuesta española será eficaz si se limita a castigar al que “se pasa de la raya” sin educar al usuario.

Un Gobierno a remolque del escándalo Grok

El punto de partida no es precisamente el de una estrategia serena. Lo que hemos visto con Grok demuestra que estamos ante un Gobierno que improvisa. Primero llega el escándalo —contenidos sintéticos circulando sin etiquetado, suplantaciones virales, desinformación— y después, a toda prisa, la reacción legislativa.

En lugar de abordar la IA desde una visión integral —riesgos sistémicos, impacto económico, neutralidad tecnológica—, la respuesta española se concentra en lo más visible y políticamente rentable: el daño al honor y a la reputación. Este hecho revela un sesgo evidente: se legisla contra el último escándalo, no contra el problema de fondo. Y el problema de fondo es que, con herramientas cada vez más accesibles, cualquier usuario puede generar un deepfake verosímil en minutos, con capacidad real para destruir la credibilidad de una persona, un medio o una institución.

La “filigrana” obligatoria: lo que realmente exige el artículo 50

En paralelo, el Reglamento Europeo de IA ya ha fijado una base técnica muy ambiciosa. El artículo 50 —el corazón de la transparencia en contenido sintético— impone obligaciones a dos niveles:

  • A los proveedores de sistemas de IA que generan o manipulan contenido (imagen, audio, vídeo, texto):
    deben marcar todos los resultados en un formato legible por máquina, mediante filigranas técnicas, metadatos o técnicas criptográficas, de forma que puedan detectarse como generados o alterados artificialmente.

  • A quienes despliegan esos sistemas (los deployers) cuando el resultado es un deepfake:
    tienen que informar de manera clara al usuario de que se trata de contenido sintético o manipulado, salvo en algunas excepciones muy concretas.

El calendario también está definido: todas estas obligaciones empiezan a aplicarse en la UE desde el 2 de agosto de 2026. A partir de esa fecha, la regla será clara:

Todo output generado por un sistema de IA debe llevar una “filigrana” detectable. No es opcional; es parte del diseño del sistema.

Sobre el papel, el enfoque es impecable: seguridad por diseño y transparencia por defecto. Pero, no basta con imponer una marca técnica si luego cualquiera puede borrarla o alterarla con otra herramienta de IA. La batalla no será sólo jurídica, sino también tecnológica.

Grok
Grok

Por qué el Reglamento europeo no basta

Ni el artículo 50 va a ser suficiente, porque el indicador técnico se puede quitar. Y las previsiones legales no son tan novedosas como se pretende vender»

En la práctica, esto significa que:

  • Habrá proveedores que cumplan escrupulosamente con el watermarking… y otros que operen desde jurisdicciones laxas o directamente al margen de la norma.

  • Aunque los modelos europeos incluyan siempre filigrana, existirán herramientas de terceros que intenten borrarla, distorsionarla o “lavar” el contenido, igual que hoy se hace con metadatos en fotografía digital.

  • Los mecanismos de detección forense necesitarán evolucionar tan rápido como las técnicas de generación y borrado, en un juego del gato y el ratón permanente.

El diagnóstico es inequívoco: el Reglamento de IA reduce el engaño masivo, pero no lo elimina. Y, sobre todo, no sustituye la necesidad de un marco nacional que defina claramente qué conductas son ilícitas y qué consecuencias tienen.

España lleva los deepfakes al terreno del honor

Ahí entra en juego el anteproyecto español. Según lo adelantado por fuentes oficiales, la propuesta del Gobierno incorpora expresamente los deepfakes como forma de intromisión ilegítima en el derecho al honor, la intimidad y la propia imagen.

En la práctica, esto supone:

  • Tratar los deepfakes lesivos como ataques contra la reputación o la dignidad, equiparándolos a publicaciones difamatorias o humillantes.

  • Reforzar la exigencia de consentimiento expreso, especialmente cuando se utilice la imagen o la voz de una persona para fines sexuales, políticos o comerciales.

  • Establecer protecciones específicas para menores, donde cualquier manipulación sin autorización podría tener un agravante claro.

El legislador español está llevando todo al terreno del honor. En lugar de construir una regulación sectorial de la IA, se recurre a un terreno jurídico conocido: el daño a la reputación, la humillación pública, la intromisión en la vida privada. No es irrelevante que ya se hable de perseguir estos casos como delitos contra el honor, con responsabilidad incluso penal para quienes crean o difunden ciertos deepfakes.

Del modelo al usuario: quién responde cuando todo es IA

El usuario es quien debe responsabilizarse. No se puede pensar que todo se limita al programador o a la plataforma. También habrá casos de delito a nivel penal por el uso de estas herramientas.

En otras palabras:

  • El proveedor de IA responde si no marca los contenidos o si diseña un sistema para el engaño.

  • Pero el usuario que decide utilizar la herramienta para difamar, extorsionar, suplantar o humillar no puede esconderse detrás del código. Será, en muchos casos, autor directo de un ilícito civil o penal.

La combinación de Reglamento europeo (prevención/técnica) y reforma española (daño/penalización) configura un modelo claro:

Si un deepfake te suplanta o te humilla sin consentimiento, habrá herramientas para probar que el contenido es sintético (filigrana y detección) y vías jurídicas para proteger tu honor y tu intimidad.

Pero, esto no exime de la necesidad de una apuesta seria y decidida por la educación digital.

Educación digital o colapso de la confianza pública

La parte más débil de todo el edificio no está en Bruselas ni en el BOE, sino en la manera en que los ciudadanos consumen y comparten contenido. Se tiene que educar e informar a la ciudadanía. Si no, cualquier marco legal se queda corto.

Los riesgos no son teóricos:

  • Pérdida de confianza informativa: si la población asume que cualquier vídeo puede ser falso, todo el ecosistema mediático se resiente.

  • Normalización del engaño: compartir deepfakes “por bromas” sin medir el daño real puede alimentar comportamientos tóxicos, especialmente entre jóvenes.

  • “Fatiga regulatoria”: si cada escándalo se responde con una nueva ley, pero no cambia el comportamiento, el ciudadano acaba percibiendo la regulación como puro ruido político.

La consecuencia es clara: sin alfabetización mediática y digital, ni el artículo 50 ni el anteproyecto español alcanzarán sus objetivos. La tecnología puede obligar a marcar, la ley puede castigar, pero la primera barrera sigue siendo un usuario que sabe identificar, desconfiar y no amplificar el contenido tóxico.

Sátira, arte y la fina línea del engaño

Un punto sensible en este debate es el de la creación artística, la parodia y la sátira política. Tanto el Reglamento europeo como el enfoque avanzado por el Gobierno español admiten que no todo uso de un deepfake es ilegítimo.

El IA Act prevé excepciones para obras creativas, satíricas o de ficción, siempre con una condición explícita:

  • Debe quedar claro para el público que el contenido no es real.

De forma similar, el anteproyecto español introduce límites y matices para no estrangular el humor gráfico, el arte digital o la crítica política, siempre que no se cruce la línea hacia el engaño deliberado o la difamación.

La línea roja, es nítida en teoría y difusa en la práctica:

La transparencia convierte una recreación en sátira; el engaño la convierte en arma contra el honor.

2026: la fecha en que Europa pone la filigrana… y España el código penal

Con todo, el horizonte temporal ya está definido. A partir del 2 de agosto de 2026, todos los sistemas de IA que generen contenido sintético en la UE estarán obligados a marcarlo técnicamente. Para entonces, España habrá avanzado —salvo giro político— en su reforma del marco de protección del honor, la intimidad y la propia imagen, incorporando explícitamente los deepfakes.

Queda por ver si ese doble movimiento será suficiente para frenar la próxima ola de escándalos tipo Grok, o si volveremos a asistir a un patrón ya conocido: tecnología que se despliega a gran velocidad, regulación que llega tarde y ciudadanos que descubren, una vez más, que el daño ya está hecho.

Comentarios