Bruselas prepara el corsé DSA para ChatGPT como buscador
Bruselas pone la lupa en ChatGPT.
El umbral son 45 millones de usuarios mensuales.
OpenAI declara 120,4 millones en su función de búsqueda.
Eso activa auditorías y riesgos sistémicos.
Y multas de hasta el 6% del negocio global.
La noticia adelantada por Handelsblatt y recogida por Reuters no es un cambio de etiqueta: es un cambio de régimen. OpenAI y su chatbot ChatGPT estarían a un paso de ser considerados en Bruselas como very large online search engine (VLOSE), un “buscador muy grande” a efectos de la Digital Services Act (DSA).
El matiz es decisivo porque desplaza el foco desde la IA como producto hacia la IA como infraestructura: no tanto qué responde ChatGPT, sino cuánta gente lo usa ya como puerta de entrada a la información. Y en esa frontera, Europa no discute opiniones: discute escala, trazabilidad y riesgo sistémico.
El número que cambia el caso
El detonante está en la propia métrica de cumplimiento de OpenAI bajo la DSA: “average monthly active recipients” (destinatarios activos mensuales de media) en la UE para sus funciones de búsqueda. La cifra no deja margen a la ambigüedad: 120,4 millones de media mensual en la Unión Europea para el periodo de seis meses cerrado el 30 de septiembre de 2025.
Ese dato no solo supera el umbral comunitario: lo pulveriza. La DSA fija el salto a la categoría de “muy grande” en 45 millones. Es la cifra que activa el régimen de supervisión reforzada y el paquete de obligaciones más intrusivo del marco europeo.
Según Reuters, la Comisión estaría revisando los datos disponibles antes de adoptar una decisión formal, mientras OpenAI declinó hacer comentarios. La política es importante, pero la aritmética lo es más: si Bruselas valida esa escala, ChatGPT deja de ser “un servicio más” y pasa a ser tratado como lo que ya es para millones de usuarios: un sustituto funcional del buscador tradicional.
Qué implica entrar en el régimen VLOSE
Ser VLOSE no significa “más papeles”. Significa que el producto entra en un ciclo permanente de riesgo, auditoría y evidencia. Desde la designación, el servicio dispone de 4 meses para cumplir con el paquete reforzado. Y ese paquete no es cosmético: afecta al diseño.
La obligación central es operacional: identificar, medir y mitigar riesgos sistémicos ligados al servicio. La DSA enumera frentes que van desde contenido ilegal hasta derechos fundamentales, protección de menores, procesos electorales, salud pública o seguridad. También exige transparencia sobre decisiones de moderación, publicidad y sistemas de recomendación, además de auditorías independientes y una función interna de compliance.
Aquí aparece el choque estructural con la IA generativa: un buscador clásico ordena enlaces; un asistente sintetiza respuestas. Y esa síntesis concentra el riesgo: atribución difusa, sesgos de selección, posibilidad de errores con apariencia de certeza y una capacidad de persuasión superior a un listado de resultados. Regulación y producto dejan de ser carriles paralelos: empiezan a ser el mismo carril.
Bing como referencia, Google como techo
El precedente existe, pero el formato no. La Comisión ya supervisa buscadores bajo la DSA y mantiene una lista pública de servicios designados, actualizada el 1 de abril de 2026. En ella aparece Google Search con 364 millones de usuarios activos mensuales en la UE y Bing con 119 millones.
La implicación es directa: con 120,4 millones, la búsqueda de ChatGPT se situaría en el rango de Bing, aún lejos del dominio de Google, pero ya dentro del “club” que Bruselas considera capaz de generar impactos sistémicos. Y ese es el punto político: la Comisión no necesita que ChatGPT destrone a Google para intervenir; le basta con que tenga escala suficiente para exigir gobernanza reforzada.
Multas, plazos y el coste real del cumplimiento
La DSA no está diseñada para “dar avisos”, sino para imponer disciplina. El marco contempla sanciones de hasta el 6% del volumen de negocio mundial anual en caso de incumplimiento, además de penalizaciones periódicas de hasta el 5% del volumen de negocio diario medio por cada día de retraso en el cumplimiento de determinadas órdenes o medidas.
En términos empresariales, una designación como VLOSE obliga a montar una arquitectura de cumplimiento continua: auditorías, informes, equipos legales y de seguridad, procedimientos internos, canales de reporte y coordinación con autoridades. Es coste fijo y, sobre todo, fricción de producto. La paradoja es evidente: el crecimiento —el objetivo natural de cualquier plataforma— pasa a ser también una variable regulatoria. Cuanto más rápido escala el servicio, antes entra en el régimen más duro.
Ese incentivo puede empujar a decisiones defensivas: restringir funciones en Europa, segmentar capacidades o endurecer la experiencia para reducir exposición. Justo en el momento en que el mercado se mueve hacia interfaces conversacionales y la batalla por la búsqueda vuelve a abrirse.
La doctrina que viene para la IA
Si Bruselas confirma la designación, el precedente será más amplio que OpenAI. La UE estaría fijando doctrina: no se mira solo el modelo, sino su papel como puerta de entrada a la información. Eso coloca bajo el radar a otros asistentes que integren navegación, búsqueda o agregación de contenidos, desde copilotos en sistemas operativos hasta productos empresariales conectados a fuentes externas.
Europa, además, opera en doble carril: la DSA regula gobernanza y riesgos del servicio; el resto del paquete regulatorio aborda la IA como tecnología. El resultado es un entorno donde ya no basta con “ser mejor” o “tener más usuarios”. Hay que demostrar cómo se controla el daño, cómo se audita el sistema y cómo se responde ante el regulador con trazabilidad.
La señal para el mercado es clara: la próxima fase de la competencia en IA no se jugará solo en modelos y distribución. Se jugará en capacidad de cumplimiento, en evidencia, y en la velocidad a la que una compañía puede convertir un producto que crece como software en una infraestructura que debe rendir cuentas como si fuera un servicio público. Y, a partir de aquí, lo que Bruselas decida sobre ChatGPT será menos una excepción y más un manual para todos.
