Sobre los límites de la inteligencia artificial sustitutiva en las resoluciones procesales

tech

El reciente artículo de mi estimado compañero Adrián Gómez Linacero, publicado en Confilegal bajo el título "Inteligencia artificial complementaria vs sustitutiva en la toma de decisiones judiciales: un sistema intermedio aliado de la objetividad", plantea una posición innovadora y provocadora que, sin duda, demanda una contestación rigurosa y detallada. En su exposición, Gómez Linacero defiende con vehemencia un modelo de inteligencia artificial con una clara vocación sustitutiva en el ámbito de la decisión judicial, al tiempo que critica con agudeza las propuestas que se limitan a diseños meramente complementarios, argumentando que estos últimos perpetúan ineficiencias y subjetividades inherentes al sistema actual. Esta perspectiva invita, inevitablemente, a examinar con profundidad los presupuestos teóricos y prácticos de los que parte su razonamiento, no solo para contrastar ideas, sino para enriquecer el debate sobre el futuro de la administración de justicia en una era dominada por la tecnología.

Entiendo que la reflexión de Gómez Linacero nace de un afán legítimo y loable por mejorar el funcionamiento del sistema judicial, reconociendo los problemas crónicos como la congestión de los tribunales, la variabilidad en las sentencias y la posible influencia de sesgos humanos en las decisiones. Sin embargo, los riesgos inherentes a su planteamiento deben ser expuestos con precisión y exhaustividad, ya que podrían comprometer principios fundamentales del Estado de Derecho. Por ejemplo, al proponer una inteligencia artificial que asuma roles decisivos, se corre el peligro de subestimar la complejidad inherente al juicio humano, que no solo procesa hechos y normas, sino que integra valores éticos, contextos sociales y consideraciones morales que escapan a la mera computación.

Lo anterior me sugiere que el entusiasmo que deposita en la supuesta superioridad técnica de la inteligencia artificial podría conducir a una lectura excesivamente confiada de sus capacidades reales, ignorando limitaciones actuales como la opacidad de los algoritmos de aprendizaje profundo o la dependencia de datos históricos que podrían perpetuar desigualdades. La idea de sustituir el juicio humano por un procedimiento algorítmico no asegura, por sí sola, una justicia más coherente; al contrario, podría generar inconsistencias si el sistema no se adapta adecuadamente a la evolución del derecho. Para ilustrar esto, basta pensar en casos reales donde herramientas de inteligencia artificial en sistemas judiciales, como el algoritmo COMPAS en Estados Unidos, han demostrado reproducir sesgos raciales, lo que cuestiona la premisa de una neutralidad inherente. Así, mi respuesta busca no solo refutar, sino profundizar en estos aspectos, proponiendo un análisis equilibrado que considere tanto los beneficios potenciales como los peligros latentes de una adopción precipitada de la inteligencia artificial sustitutiva.

II. La objetividad técnica como premisa cuestionable

Adrián Gómez Linacero sostiene con convicción que la técnica, por su fundamento matemático y lógico, ofrece una mayor objetividad que la valoración humana, argumentando que los algoritmos pueden procesar volúmenes masivos de datos sin las fluctuaciones emocionales o cognitivas que afectan a los jueces. Sin embargo, ello me obliga a deducir que su tesis atribuye al algoritmo un grado de neutralidad que no se corresponde con su naturaleza intrínseca, ya que ignora el rol pivotal de los humanos en cada etapa de su desarrollo. Todo sistema informático es el resultado directo de decisiones humanas, tanto en su diseño arquitectónico —donde se eligen modelos de machine learning, hiperparámetros y funciones de pérdida— como en la selección, curación y estructuración de los datos que lo alimentan, lo que introduce inevitablemente subjetividades y prejuicios.

Considero que afirmar que estos sistemas garantizarían una mejora sustancial en la imparcialidad supone pasar por alto que muchos de los sesgos presentes en los datos formativos proceden, precisamente, del comportamiento histórico de nuestras instituciones judiciales, que han reflejado desigualdades sociales, económicas y culturales a lo largo del tiempo. Por instancia, si un algoritmo se entrena con sentencias pasadas que muestran disparidades en el tratamiento de minorías étnicas o de género, no hará más que amplificar esas distorsiones, creando una ilusión de objetividad que en realidad perpetúa injusticias sistémicas. La aparente objetividad técnica puede transformarse en una reproducción amplificada de distorsiones previas, como se ha evidenciado en estudios académicos.

Además, profundizando en este análisis, es crucial considerar la "caja negra" de muchos modelos de inteligencia artificial, donde las decisiones algorítmicas no son transparentes ni explicables fácilmente, lo que contrasta con la exigencia de motivación en las resoluciones judiciales. Si un juez humano debe justificar cada paso de su razonamiento, un algoritmo que opera en base a correlaciones estadísticas opacas no ofrece la misma responsabilidad. Esto no solo cuestiona la premisa de superioridad objetiva, sino que invita a reflexionar sobre alternativas híbridas donde la inteligencia artificial sirva para identificar patrones, pero el humano retenga el control final, evitando así una confianza ciega en la técnica que podría derivar en errores catastróficos.

III. La función jurisdiccional y sus exigencias constitucionales

El artículo publicado en Confilegal interpreta las reservas frente a la automatización decisoria como una defensa encubierta del estado existente, sugiriendo que los críticos de la inteligencia artificial sustitutiva están motivados por un conservadurismo profesional en lugar de por principios sólidos. Sin embargo, tal enfoque no atiende al carácter constitucional del acto de juzgar, que en sistemas como el español se ancla en artículos como el 117 de la Constitución, que garantiza la independencia judicial y la responsabilidad de los jueces. La jurisdicción no es meramente un espacio de poder a preservar por parte de un colectivo profesional, sino una garantía institucional esencial para la democracia, que asegura que las decisiones se tomen con imparcialidad, motivación y sujeción al ordenamiento jurídico.

Asumo que delegar de forma sustantiva el núcleo del razonamiento judicial en algoritmos provocaría tensiones inevitables con los principios de independencia, responsabilidad personal y motivación razonada, ya que un sistema automatizado podría erosionar la autonomía del juez al imponer resultados precomputados. La ciudadanía tiene derecho a comprender las decisiones que le afectan, y esa comprensión se funda en la exposición clara del juicio humano, que permite apelaciones basadas en argumentos lógicos y no en códigos informáticos incomprensibles. Sustituirlo por una secuencia técnica diluye la trazabilidad y dificulta el control democrático, ya que ¿cómo impugnar una decisión si su origen radica en un modelo de inteligencia artificial cuya lógica interna es inaccesible para la mayoría?

La atribución de responsabilidad por errores decisorios sería, además, más incierta en un escenario sustitutivo. Cuando la elección depende de interacciones complejas entre programadores, órganos administrativos, proveedores de datos y decisores humanos residuales, la delimitación efectiva de obligaciones se vuelve más difusa, potencialmente violando principios como el de responsabilidad civil o penal establecidos en el ordenamiento. Para profundizar, consideremos ejemplos internacionales: en la Unión Europea, el Reglamento General de Protección de Datos exige explicabilidad en decisiones automatizadas que afecten derechos fundamentales, lo que choca con muchos algoritmos actuales. Así, un análisis más profundo revela que la inteligencia artificial sustitutiva no solo amenaza la constitucionalidad, sino que podría requerir reformas legislativas masivas para alinear la tecnología con los derechos humanos, un proceso que Gómez Linacero parece subestimar en su propuesta.

IV. Los límites de la parametrización del derecho

La argumentación de Adrián Gómez Linacero parte de la convicción de que buena parte de la jurisdicción civil es fácilmente parametrizable, es decir, reducible a variables cuantificables y reglas lógicas que un algoritmo puede procesar eficientemente. No obstante, incluso los conceptos jurídicos más asentados —como el de "buena fe" en contratos o "daño moral" en responsabilidad civil— evolucionan con la práctica judicial, la doctrina académica y los cambios sociales, lo que hace imposible una codificación estática. Entiendo que el razonamiento jurídico no se reduce a patrones fijos: requiere matices contextuales, interpretaciones teleológicas y consideraciones equitativas que ningún cálculo puede integrar sin pérdida de sentido o simplificación excesiva.

La pretensión de estandarizar comportamientos complejos mediante algoritmos crea la apariencia de precisión y eficiencia, pero puede sacrificar la flexibilidad interpretativa que caracteriza al derecho como un sistema vivo y adaptable. El riesgo es introducir una lógica rígida incapaz de acomodar la singularidad de cada conflicto, como en casos donde factores culturales, psicológicos o económicos únicos influyen en la resolución. Por ejemplo, en litigios familiares, un algoritmo podría calcular indemnizaciones basadas en promedios estadísticos, ignorando el impacto emocional individual, lo que derivaría en injusticias. Profundizando, estudios en derecho comparado muestran que jurisdicciones como la common law dependen en gran medida de precedentes interpretativos, que una inteligencia artificial parametrizada lucharía por replicar sin sesgos inherentes a su entrenamiento.

Además, es esencial analizar los límites técnicos actuales: la inteligencia artificial excelsa en tareas repetitivas, pero falla en el "razonamiento abductivo" necesario para inferir intenciones o contextos implícitos. Esto sugiere que, en lugar de sustitución, la parametrización debería limitarse a fases preparatorias, como el análisis de documentos, preservando el núcleo humano del juicio.

V. Una dicotomía insuficiente

En su artículo de Confilegal, mi compañero plantea que la inteligencia artificial complementaria es, en el fondo, una defensa del sistema existente, mientras que la sustitutiva sería la vía hacia una mayor objetividad y eficiencia. Esta oposición simplifica un debate que requiere mayor sutileza y matices, ya que reduce un espectro continuo de posibilidades a una dicotomía binaria que ignora híbridos intermedios. La elección no es, en realidad, entre la imperfección humana —con sus sesgos cognitivos y limitaciones— y la supuesta neutralidad técnica, sino en armonizar ambas dimensiones sin sacrificar la legitimidad del proceso judicial, integrando lo mejor de cada una para un sistema más robusto.

La propia propuesta final que formula —una inteligencia artificial justificativa que obligue a explicar cualquier apartamiento de la respuesta ofrecida por el sistema— contiene una dificultad evidente: la solución técnica podría convertirse en una referencia tácitamente vinculante, condicionando de manera indirecta la libertad de criterio del juez y creando un efecto "anclaje" psicológico donde las sugerencias algorítmicas se perciben como normativas. Profundizando, esto podría generar un efecto "desaliento" en la judicatura, donde los jueces evitan desviarse por temor a escrutinio adicional, erosionando la independencia. Estudios en psicología del derecho respaldan esta preocupación, mostrando cómo herramientas de apoyo pueden influir subconscientemente en decisiones humanas.

Un análisis más profundo invita a considerar modelos alternativos, como los de "inteligencia artificial aumentada", donde la tecnología amplifica el juicio humano sin reemplazarlo, permitiendo revisiones iterativas que incorporen interacción humana para mitigar sesgos. Así, la dicotomía propuesta por Gómez Linacero no captura la complejidad del tema, y un enfoque más profundo podría involucrar experimentos piloto en jurisdicciones específicas para evaluar impactos reales.

VI. Conclusiones

La mejora del sistema judicial constituye un objetivo compartido por todos los actores involucrados, desde académicos hasta profesionales prácticos, reconociendo que la congestión, la lentitud y las inconsistencias actuales demandan innovaciones urgentes. Sin embargo, la propuesta sustitutiva defendida por mi estimado compañero Adrián Gómez Linacero en Confilegal plantea riesgos polifacéticos que conviene analizar con serenidad y profundidad, evitando un optimismo tecnológico que ignore lecciones históricas de innovaciones fallidas en el ámbito público.

La justicia necesita rigor técnico para manejar volúmenes crecientes de casos, pero también necesita la mirada humana, la comprensión empática del contexto social y la responsabilidad personal que asegura la responsabilidad democrática. Confiar en exceso en la técnica puede derivar en un modelo menos transparente, donde la "caja negra" algorítmica complica apelaciones y revisiones, y difícilmente controlable ante fallos sistémicos o ciberataques. Además, un análisis exhaustivo revela implicaciones éticas: ¿quién asume la culpa por una sentencia errónea generada por inteligencia artificial? ¿Cómo garantizar la equidad en un mundo donde el acceso a datos de calidad varía por regiones?

La integración equilibrada de la inteligencia artificial sigue siendo posible y deseable, siempre que no se renuncie al núcleo constitucional del acto de juzgar, priorizando diseños que empoderen al humano en lugar de suplantarlo. Propuestas como auditorías independientes de algoritmos, entrenamiento con datos diversificados y marcos regulatorios específicos podrían mitigar riesgos, fomentando una evolución gradual. En última instancia, el debate iniciado por Gómez Linacero enriquece nuestra comprensión, pero insta a una cautela informada para preservar la esencia humanista del derecho en la era digital.