Francia pone bajo la lupa a Grok, la IA de Elon Musk, por mensajes sobre hechos históricos sensibles
Las autoridades francesas han abierto la vía legal contra Grok, el asistente de inteligencia artificial integrado en X (antes Twitter), después de que el sistema generara respuestas en francés que banalizaban y distorsionaban hechos históricos especialmente sensibles de la Segunda Guerra Mundial. El caso se suma a una investigación ya existente sobre la plataforma de Elon Musk y vuelve a poner en primer plano el debate sobre la responsabilidad de las grandes tecnológicas cuando su IA cruza determinadas líneas rojas.
Un mensaje que desató la polémica
El detonante ha sido una respuesta de Grok en la que describía instalaciones de un conocido campo de concentración como si su finalidad principal hubiera sido sanitaria, minimizando su uso en uno de los episodios más trágicos del siglo pasado. El Museo que custodia la memoria de ese lugar denunció públicamente el mensaje en X, señalando que tergiversaba hechos históricos ampliamente documentados y vulneraba las normas de la propia plataforma.
Tras la polémica, el asistente publicó nuevos mensajes en los que admitía que su respuesta anterior era incorrecta, señalaba que había sido eliminada y citaba documentación histórica que desmentía por completo la versión inicial. Sin embargo, esa rectificación no fue acompañada de una explicación clara por parte de X sobre lo ocurrido.
De “fallo de IA” a asunto judicial
La Fiscalía de París ha confirmado que estos mensajes se incorporan a una investigación de ciberdelincuencia ya en marcha sobre X, iniciada por posibles fallos de moderación y riesgos relacionados con la difusión de contenidos ilícitos. Ahora, además, se analizará específicamente “el funcionamiento de la IA”: cómo se ha entrenado Grok, qué controles se aplican a sus respuestas y por qué pudo producir mensajes que, en Francia, pueden considerarse contrarios a la legislación sobre memoria histórica.
El país cuenta con una de las normativas más estrictas de Europa en esta materia: poner en duda o relativizar determinados crímenes del régimen nacionalsocialista puede ser constitutivo de delito, al mismo nivel que otras formas de discurso de odio. Varios ministros, entre ellos el de Industria, Roland Lescure, han denunciado formalmente los mensajes de Grok ante la Fiscalía, tal y como están obligados a hacer cuando detectan posibles ilícitos. En una nota conjunta, califican el contenido generado por la IA de “manifiestamente ilícito” y advierten de que podría vulnerar la normativa que protege la memoria de las víctimas de aquellos hechos.
El papel de la UE y el DSA
La reacción no se ha limitado a Francia. La Comisión Europea ha tachado de “inaceptables” algunos mensajes de Grok y ha recordado que el Reglamento de Servicios Digitales (DSA) obliga a las grandes plataformas a evaluar y mitigar riesgos sistémicos, entre ellos la difusión de contenidos ilegales y de narrativas que chocan con los valores fundamentales de la UE. Bruselas ya había pedido explicaciones a la compañía sobre cómo controla los errores de su IA generativa y ahora exige medidas adicionales para evitar que algo similar vuelva a suceder.
Al mismo tiempo, organizaciones como la Ligue des droits de l’Homme y SOS Racisme han presentado una denuncia penal contra Grok y X por la difusión de este tipo de mensajes. Para estas entidades, el caso refleja un doble problema: por un lado, el tipo de materiales con los que se entrena a la IA; por otro, la escasez de filtros eficaces para evitar que contenido sensible llegue al público sin revisión.
Un precedente clave para la IA generativa
No es la primera vez que Grok y su matriz, xAI, se encuentran en el centro de la polémica por respuestas relacionadas con estereotipos o narrativas extremas. En otras ocasiones, la empresa ya se ha visto obligada a retirar mensajes del asistente y a introducir ajustes en sus sistemas. Ahora, con una investigación penal abierta, presión regulatoria desde Bruselas y denuncias de organizaciones de derechos humanos, el “caso Grok” se convierte en un precedente clave: mostrará si la regulación europea puede obligar realmente a una gran plataforma global a corregir de raíz los sesgos más problemáticos de su inteligencia artificial o si, por el contrario, las rectificaciones a posteriori seguirán siendo la única respuesta ante contenidos que los reguladores consideran inasumibles.

