Notas sobre la primera cátedra de empresa en torno al Derecho público y la inteligencia artificial
Descubre cómo la inteligencia artificial está transformando el Derecho público en la primera cátedra de empresa, explorando retos y oportunidades para el futuro
La convergencia entre la inteligencia artificial y el Derecho público emerge como uno de los dilemas más profundos del ordenamiento jurídico actual, donde los avances tecnológicos no solo reconfiguran los mecanismos administrativos, sino que también interrogan la esencia misma de la protección de derechos fundamentales, la responsabilidad pública y la equidad en la distribución de poder. En este contexto, la creación de la primera cátedra de empresa en España dedicada a esta intersección, impulsada por la Universidad de Sevilla en alianza con la entidad tecnológica Soltel, representa un paso ambicioso que invita a un escrutinio detallado.
La génesis de la Cátedra Soltel de Inteligencia Artificial y Derecho Público se remonta a un convenio formal entre la Universidad de Sevilla y Soltel, una firma especializada en soluciones tecnológicas y desarrollo de inteligencia artificial, firmado en un momento en que el debate sobre la regulación de esta tecnología gana urgencia en el panorama europeo y nacional. Esta cátedra, al ser la primera de su índole en España enfocada específicamente en la interfaz entre inteligencia artificial y Derecho público —con particular acento en el Derecho administrativo—, busca trascender el mero ámbito académico para convertirse en un catalizador de cambio. Sus objetivos primordiales incluyen no solo la promoción de programas formativos avanzados, sino también el fomento de investigaciones colaborativas que aborden las complejidades de integrar algoritmos en procesos públicos, y la facilitación de una transferencia de conocimiento que permee tanto al sector privado como a las administraciones estatales.
En detalle, el convenio prevé una gama diversa de actividades que enriquecen el ecosistema jurídico: desde la organización de congresos internacionales que reúnan a expertos en Derecho, informática y ética, hasta encuentros sectoriales que diseccionen casos reales de implementación de inteligencia artificial en administraciones locales o nacionales. Estas jornadas temáticas podrían, por ejemplo, analizar cómo los sistemas de toma de decisiones automatizadas en el ámbito de la contratación pública podrían optimizar la eficiencia, pero también generar sesgos discriminatorios si no se calibran adecuadamente, evocando analogías con la doctrina del control judicial de la discrecionalidad administrativa, donde el principio de igualdad actúa como freno a arbitrariedades. Además, se incorporan programas de prácticas para estudiantes de la Facultad de Derecho en las instalaciones de Soltel, permitiendo que los futuros juristas experimenten de primera mano el diseño de herramientas de legal tech, como software para la automatización de expedientes administrativos. Esta inmersión práctica no solo fortalece la preparación profesional, sino que también instaura un diálogo bidireccional: la universidad aporta rigor teórico, mientras la empresa inyecta perspectivas aplicadas, similar a cómo en el Derecho mercantil las sociedades mixtas equilibran intereses públicos y privados mediante cláusulas de gobernanza compartida.
Lo anterior me sugiere que esta cátedra podría erigirse como un modelo para otras instituciones, pero ello obliga a deducir que su éxito dependerá de salvaguardas contra posibles desequilibrios, como la influencia predominante de intereses empresariales que podrían priorizar la innovación tecnológica sobre la equidad jurídica. En un escenario donde la inteligencia artificial ya se emplea en sistemas de vigilancia pública o evaluación de solicitudes de prestaciones sociales, la cátedra debe evitar convertirse en un mero avalador de avances que, sin controles, podrían erosionar derechos como la privacidad o la no discriminación, recordando casos europeos donde algoritmos defectuosos han generado litigios masivos ante tribunales administrativos.
II. Declaraciones de los protagonistas y su significado
La ceremonia de firma del convenio sirvió de plataforma para que los actores clave articularan visiones que revelan las capas multifacéticas de esta iniciativa. El director ejecutivo de Soltel, Julio Miguel Pérez López, enfatizó la trascendencia de esta alianza como un puente entre el mundo empresarial y el académico, destacando cómo la empresa puede "acercarse" a la universidad para nutrirse de su "conocimiento de alto nivel". Esta declaración no es anodina; refleja una estrategia corporativa que busca legitimidad a través de la asociación con instituciones públicas, similar a cómo en el Derecho de la competencia las colaboraciones universidad-empresa pueden fomentar innovación, pero también suscitar escrutinio por posibles conflictos de interés si los fondos privados orientan la agenda investigativa hacia fines comerciales.
Complementando esta perspectiva, el decano de la Facultad de Derecho de la Universidad de Sevilla, Fernando Llano, resaltó la singularidad de la cátedra al afirmar que "no existe ninguna cátedra de esta categoría" en el país, posicionándola como una "apuesta decidida" por la investigación y formación en inteligencia artificial aplicada al ámbito legal. Esta novedad implica no solo un avance en la preparación de letrados capaces de navegar entornos digitales, sino también una respuesta proactiva a regulaciones como el Reglamento Europeo de Inteligencia Artificial, que clasifica sistemas de alto riesgo y exige evaluaciones de impacto. El rector de la Universidad de Sevilla, Miguel Ángel Castro, amplió esta narrativa al valorar la alianza como un generador de "frutos" para la institución y la facultad, proyectando un "futuro y proyección" que contribuya al avance de la inteligencia artificial en el Derecho. Estas palabras evocan la doctrina de la responsabilidad social universitaria, donde las instituciones educativas asumen un rol en la resolución de problemas sociales, pero también invitan a cautela: si la cátedra no establece mecanismos independientes de evaluación, podría inadvertidamente promover narrativas que minimicen riesgos, como la opacidad algorítmica.
Considero que estas declaraciones, aunque optimistas, subrayan la necesidad de un equilibrio delicado. En un contexto donde empresas tecnológicas financian cátedras similares en otros países, se han observado sesgos en la producción de conocimiento, priorizando beneficios económicos sobre la crítica regulatoria. Así, la cátedra debe incorporar protocolos de transparencia para asegurar que su influencia no erosione los fundamentos del Derecho público, como el principio de legalidad, que exige que toda actuación administrativa sea previsible y justificada.
III. Dirección académica y enfoque en los retos jurídicos
Bajo la dirección de Antonio José Sánchez Sáez, catedrático del Departamento de Derecho Administrativo de la Universidad de Sevilla, la cátedra adopta un enfoque meticuloso en los retos que la inteligencia artificial plantea al Derecho público, posicionando al Derecho administrativo como un "sistema de garantías" contra abusos. Sánchez Sáez ha enfatizado cómo este rama jurídica proporciona procedimientos y elementos preventivos para mitigar daños a derechos fundamentales en ámbitos de alto riesgo, tales como infraestructuras críticas —donde fallos en sistemas de inteligencia artificial podrían comprometer la seguridad nacional—, servicios públicos esenciales o la identificación biométrica, que ha generado controversias en aplicaciones policiales por vulnerar la proporcionalidad y el debido proceso.
Esta orientación invita a analogías con el principio de precaución en el Derecho europeo, aplicado tradicionalmente a riesgos ambientales pero extensible a tecnologías emergentes, donde se anticipan impactos negativos mediante evaluaciones rigurosas. La cátedra, por ende, planea indagar en temas como la regulación normativa de la inteligencia artificial, analizando cómo el marco jurídico-administrativo puede modular su implementación en el sector público para evitar desigualdades. Por ejemplo, en la automatización de procedimientos administrativos, se podría estudiar casos prácticos como el uso de chatbots en trámites fiscales, que aceleran respuestas pero arriesgan errores interpretativos si no se someten a revisión humana, recordando sentencias del Tribunal Constitucional español que invalidan decisiones automatizadas por falta de motivación. Asimismo, se abordarán la difusión de aplicaciones para mejorar la eficiencia en la toma de decisiones, los estudios sobre derechos digitales —incluyendo la soberanía de datos en entornos cloud—, la protección de información personal bajo el Reglamento General de Protección de Datos, y la asignación de responsabilidades en incidentes causados por sistemas de inteligencia artificial, donde la doctrina de la imputación objetiva podría aplicarse a administraciones que delegan en algoritmos.
Entiendo que este enfoque es crucial, pero ello me obliga a deducir que sin una independencia robusta, la cátedra podría fallar en su rol garante. Si la influencia de Soltel inclina el análisis hacia optimizaciones empresariales, ignorando críticas como las derivadas de sesgos en algoritmos de selección de personal público, se podría erosionar la confianza en el Derecho público como baluarte contra desigualdades tecnológicas. Ejemplos internacionales, como controversias en Estados Unidos donde cátedras financiadas por big tech han minimizado riesgos éticos, ilustran esta cautela necesaria.
IV. Contribuciones de Soltel y colaboraciones ampliadas
Soltel, con su expertise en herramientas de tecnología legal, enriquece la cátedra al proporcionar asistencia práctica a juristas, abogados, letrados, fiscales y estudiantes en la elaboración de documentos jurídicos mediante el uso ético de legal tech. Esto incluye el desarrollo de software que automatiza revisiones contractuales o análisis de jurisprudencia, facilitando una eficiencia que, en teoría, libera recursos para tareas de mayor valor interpretativo. Sin embargo, esta contribución debe manejarse con prudencia, ya que herramientas de inteligencia artificial en el Derecho pueden generar "alucinaciones" —información ficticia—, como se ha visto en casos judiciales donde citas erróneas han comprometido fallos, evocando la responsabilidad civil por productos defectuosos en el Derecho de daños.
La colaboración se extiende a iniciativas previas, como la Semana de la Inteligencia Artificial, que podría incluir talleres sobre ética algorítmica; seminarios especializados en ciberseguridad administrativa; y el Máster en Derecho y Ética de la Inteligencia Artificial, iniciado en el curso 2025-2026 con la Universidad de Granada y la Universidad Internacional de Andalucía. Este máster, por instancia, podría incorporar módulos sobre impacto ético en políticas públicas, fomentando publicaciones de libros que diseccionen regulaciones comparadas o la creación de foros interdisciplinarios que integren perspectivas de filósofos, ingenieros y juristas. Estas actividades no solo amplían el alcance académico, sino que también promueven investigaciones que aborden vacíos normativos, como la responsabilidad en cadenas de suministro de datos para inteligencia artificial pública.
Asumo que estas colaboraciones fortalecen el ecosistema, pero la cautela es imperativa: si la cátedra no implementa auditorías independientes, podría no actuar como garante, permitiendo que intereses privados diluyan el escrutinio sobre riesgos como la concentración de poder en manos de pocas empresas tecnológicas, erosionando así los fundamentos democráticos del Derecho público.
V. Reflexiones finales
La instauración de la Cátedra Soltel de Inteligencia Artificial y Derecho Público suscita una reflexión extendida sobre su capacidad para moldear el futuro jurídico en España, priorizando la formación e investigación en un dominio donde la tecnología desafía paradigmas establecidos. Al enfatizar la integración ética de la inteligencia artificial, esta estructura podría establecer precedentes valiosos, equilibrando innovación con la salvaguarda de derechos, similar a cómo el Derecho constitucional adapta principios rectores a nuevas realidades sociales. No obstante, esta promesa debe temperarse con una cautela sustancial: la cátedra, al ser de empresa, enfrenta riesgos inherentes de que no cumpla plenamente su rol como garante del interés público, potencialmente permitiendo que la inteligencia artificial avance sin contrapesos adecuados y erosione fundamentos como la transparencia administrativa o la igualdad ante la ley.
Por ejemplo, si la agenda se ve sesgada por el capital privado en exceso, podría subestimar críticas a sistemas de alto riesgo que vulneran derechos fundamentales, como ha ocurrido en otros contextos donde alianzas similares han priorizado eficiencia sobre equidad. Esta preocupación no busca deslegitimar la iniciativa, sino instar a mecanismos de control, tales como comités éticos independientes o evaluaciones periódicas de impacto, para asegurar que la tecnología sirva al bien común. En última instancia, el éxito de la cátedra radicará en una implementación que integre rigor jurídico, ética aplicada y colaboración genuina, forjando un Derecho público resiliente que no solo adapte, sino que lidere la gobernanza de la inteligencia artificial sin comprometer sus pilares esenciales. Solo así se mitigarán los riesgos de erosión normativa, transformando desafíos en oportunidades para una justicia más inclusiva y tecnológicamente informada.