IA en la abogacía: el caso del TSJ de Canarias que desnuda los riesgos y desafía a la profesión
Un terremoto ha sacudido los cimientos de la profesión jurídica en España. No se trata de una nueva ley ni de una controvertida doctrina jurisprudencial, sino de un auto judicial que expone una realidad tan innovadora como peligrosa: el uso negligente de la inteligencia artificial (IA) en la práctica forense. El Tribunal Superior de Justicia (TSJ) de Canarias ha abierto una investigación sin precedentes a un abogado por fundamentar un recurso de apelación en sentencias del Tribunal Supremo que nunca existieron, presuntamente “sugeridas” por un algoritmo de IA. Este caso, lejos de ser una anécdota tecnológica, se ha convertido en un escándalo de alcance nacional y en una advertencia solemne sobre los riesgos de las “alucinaciones” de la IA, poniendo sobre la mesa un debate ineludible sobre la deontología, la responsabilidad y el futuro de una profesión en plena transformación digital.
Este artículo se adentra en las profundidades de este caso trascendental, que cataliza una conversación urgente. Analizaremos en detalle lo ocurrido en Canarias, exploraremos sus alarmantes precedentes en España y en el mundo, desglosaremos las graves consecuencias jurídicas que afronta el letrado y, finalmente, reflexionaremos sobre el camino a seguir: un futuro donde la IA no sea un oráculo infalible ni un enemigo a temer, sino una herramienta de gran potencia en manos de profesionales formados y responsables.
El caso canario: crónica de una “libérrima creatividad jurídica”
El epicentro del seísmo se localiza en la Sala de lo Civil y Penal del TSJ de Canarias. En el marco de un recurso de apelación contra una sentencia absolutoria por un delito de agresión sexual —un procedimiento que por su naturaleza y gravedad exige el máximo rigor y escrupulosidad—, el tribunal detectó algo insólito y perturbador. El escrito del abogado de la acusación particular estaba plagado de citas jurisprudenciales que, tras ser verificadas por los magistrados, resultaron ser falsas.
El auto del TSJ, con una contundencia demoledora, describe el hallazgo de al menos siete sentencias del Tribunal Supremo y un informe del Consejo General del Poder Judicial (CGPJ) que son inexistentes. El ponente, el presidente del TSJ, Juan Luis Lorenzo Bragado, no duda en calificar las citas de “espurias”, “apócrifas” y fruto de una “libérrima creatividad jurídica”. La resolución es un varapalo a la actuación del letrado, un reproche que resuena en todos los despachos del país:
“Tales hallazgos, a juicio de la Sala, parecen evidenciar una conducta reveladora de palmaria negligencia de quien, tenido por experto en normas procesales y respetuoso con los principios deontológicos de su profesión, fio su trabajo, sin mayor revisión, a lo que el algoritmo le propuso, omitiendo la diligencia de verificar la existencia de lo que citaba, confiando acaso en que la abundancia de referencias no solo pasaría inadvertida a este Tribunal, sino que infundiría autoridad a sus asertos.”
El TSJ, en una decisión de enorme calado institucional, acordó formar una pieza separada para “depurar las responsabilidades” del abogado, abriendo la puerta a sanciones por mala fe procesal (contempladas en el artículo 247 de la Ley de Enjuiciamiento Civil) y remitiendo el caso al colegio de abogados correspondiente para que actúe en el ineludible ámbito disciplinario. El escándalo no reside solo en el error, sino en la quiebra de la confianza que un profesional del derecho debe a los tribunales, a su cliente y a la sociedad. La presunta negligencia de no verificar lo que una IA genera ha puesto en jaque la credibilidad de un recurso judicial y ha encendido todas las alarmas sobre la integridad de la función de la abogacía.
Un fenómeno global: la pandemia de las “alucinaciones” legales
El caso de Canarias no es un hecho aislado. Es la manifestación local, y resonante, de un fenómeno global que ya ha dejado un reguero de precedentes. Las “alucinaciones” de la IA —la generación de información falsa pero presentada de forma coherente y convincente— son un riesgo inherente a los grandes modelos de lenguaje (LLM) como ChatGPT. Estos sistemas no “piensan” ni “conocen” el derecho; están diseñados para predecir la siguiente palabra más probable en una secuencia, optimizando la fluidez del lenguaje, no la veracidad de los hechos.
En España, ya existían advertencias previas que anticipaban esta crisis. En noviembre de 2024, el TSJ de Navarra analizó el caso de un abogado que usó ChatGPT para redactar una querella y citó por error el Código Penal de Colombia. En esa ocasión, el tribunal, con un talante más pedagógico, no impuso sanción al entender que fue un error subsanado de inmediato y no existió mala fe. Sin embargo, la Audiencia Provincial de Alicante, en enero de 2026, elevó significativamente el tono al remitir al colegio de abogados el caso de un letrado que también incluyó una cita falsa, advirtiendo con severidad que el hecho era “fruto de alucinaciones de la inteligencia artificial o bien es consecuencia de una voluntad de engaño”.
Pero el caso más paradigmático a nivel internacional, el que primero puso este peligro en el mapa, es el de Steven Schwartz en Nueva York. En junio de 2023, el juez P. Kevin Castel impuso una multa de 5.000 dólares a dos abogados por presentar un escrito con seis sentencias inventadas por ChatGPT en el caso *Mata v. Avianca*. El juez determinó que los letrados actuaron de “mala fe” no solo por el error inicial, sino por seguir defendiendo la veracidad de las citas falsas incluso después de ser advertidos por el propio tribunal.
Estos casos, que se multiplican en distintas jurisdicciones, demuestran un consenso judicial internacional emergente: la IA es una herramienta, no un sustituto del juicio profesional. La responsabilidad final, personal e indelegable de verificar cada dato, cada argumento y cada cita recae exclusivamente en el abogado.
La espada de la justicia: consecuencias jurídicas de la negligencia digital
El abogado canario se enfrenta a un panorama jurídico complejo con posibles consecuencias en tres ámbitos interconectados: deontológico, civil y, en el peor de los casos, penal.
1. La infracción deontológica: el corazón de la profesión
La conducta investigada ataca directamente el núcleo de la ética profesional del abogado, vulnerando de forma flagrante varios preceptos clave tanto del Estatuto General de la Abogacía Española (EGAE) como del Código Deontológico.
- Deber de Diligencia y Competencia (art. 4 CDAE): La confianza del cliente exige una conducta diligente. Fiar un recurso a una IA sin la más mínima comprobación en bases de datos jurídicas fiables es una negligencia inexcusable.
- Deber de Lealtad y Buena Fe con los Tribunales (art. 55 EGAE y 10 CDAE): Presentar información falsa, aunque sea por imprudencia, es un acto de deslealtad procesal que induce a error al tribunal y atenta contra el fin último de la justicia.
- Deber de Veracidad (art. 4 CDAE): El abogado debe ser veraz en todas sus actuaciones. La presentación de sentencias falsas es una flagrante y objetiva falta a este deber fundamental.
Estas infracciones, calificadas como graves en el artículo 125 del EGAE, pueden acarrear sanciones que, según la gravedad del perjuicio causado a la administración de justicia y al cliente, van desde una amonestación hasta la suspensión del ejercicio profesional.
2. Responsabilidad civil y penal: el impacto patrimonial y personal
Más allá de la sanción colegial, las consecuencias pueden escalar al ámbito civil y penal, donde el impacto es mucho más severo.
- Responsabilidad Civil Profesional: El abogado tiene una obligación contractual con su cliente regida por la *lex artis ad hoc* (la diligencia de un buen profesional). Si por su negligencia el cliente pierde el caso o sufre un perjuicio demostrable, el letrado podría ser condenado a pagar una indemnización por daños y perjuicios. Esta indemnización podría incluir no solo los costes del proceso (daño emergente), sino también la “pérdida de oportunidad” de haber ganado el pleito si se hubiera defendido con la diligencia debida (lucro cesante).
- Mala Fe Procesal (art. 247 LEC): Como ya ha apuntado el propio TSJ, la Ley de Enjuiciamiento Civil permite a los tribunales imponer multas de hasta 20.000 euros a quienes actúen con mala fe, como podría considerarse la presentación de un escrito con citas inventadas para fortalecer artificialmente una argumentación.
- Posibles Delitos: En el escenario más grave, si se demostrara la intencionalidad (dolo) de engañar al tribunal, la conducta podría encajar en tipos penales como la estafa procesal (art. 250.1.7º CP), que busca engañar al juez para obtener una resolución injusta, o la falsedad en documento público (art. 392 CP), al simular una sentencia. Estos delitos, cuya prueba es compleja pero no imposible, conllevan penas de prisión.
El futuro no es un algoritmo: formación, responsabilidad y supervivencia profesional
El escándalo de Canarias no debe conducir a una tecnofobia paralizante ni a un rechazo ludita de la innovación. El problema no es la inteligencia artificial; es su uso acrítico e irresponsable. La IA generativa es una herramienta de una potencia sin precedentes para la abogacía: puede automatizar la redacción de documentos, analizar ingentes volúmenes de información en segundos y democratizar el acceso a un primer borrador de conocimiento jurídico. Negar su potencial es condenarse a la irrelevancia en un mercado cada vez más competitivo. Como bien se ha señalado, el profesional liberal que no la use, no subsistirá.
La clave, por tanto, reside en el papel absolutamente trascendental de la formación. Los abogados del siglo XXI necesitan adquirir con urgencia nuevas competencias digitales. No se trata de convertirse en programadores, sino de desarrollar un profundo entendimiento de cómo funcionan estas herramientas, cuáles son sus limitaciones inherentes (como las alucinaciones) y cómo integrarlas en un flujo de trabajo que mantenga siempre al profesional como supervisor crítico, estratega y garante final de la calidad y veracidad.
Es imperativo que los colegios de abogados, las universidades y las propias firmas lideren este cambio, ofreciendo formación continua, práctica y de alto nivel sobre *Legaltech*. Es necesario crear y difundir protocolos de actuación, guías de buenas prácticas y un marco ético claro para el uso de la IA. El abogado debe aprender a “dialogar” con la IA, a formular los *prompts* (instrucciones) de manera precisa y crítica y, sobre todo, a interiorizar un mantra innegociable: verificar, contrastar y validar cada dato, cada argumento y cada cita que el algoritmo le ofrezca, utilizando para ello las bases de datos jurídicas fiables de siempre.
El caso del TSJ de Canarias es un doloroso pero necesario punto de inflexión. Es la llamada de atención que la abogacía española necesitaba para afrontar con seriedad, rigor y ambición la revolución de la inteligencia artificial. El futuro no pertenece a los abogados que teman a la tecnología, ni mucho menos a los que se sometan a ella ciegamente. Pertenecerá a aquellos que, armados con formación de vanguardia, prudencia y un inquebrantable compromiso con la deontología, sepan convertirla en su más poderosa aliada al servicio de la justicia