La demanda contra OpenAI en Estados Unidos por intrusismo en la abogacía

OpenAI

El 4 de marzo de 2026, Nippon Life Insurance Company of America presentó ante el Tribunal Federal para el Distrito Norte de Illinois una demanda contra OpenAI Foundation y OpenAI Group PBC que ha situado en el centro del debate jurídico estadounidense una pregunta tan novedosa como inquietante: ¿puede una inteligencia artificial ser considerada responsable, a través de sus creadores, por el ejercicio no autorizado de la abogacía?

La relevancia del asunto trasciende con mucho el conflicto concreto entre una aseguradora y una usuaria insatisfecha. Estamos ante una de las primeras ocasiones en que un tribunal federal se enfrenta a la pretensión de exigir responsabilidades a los desarrolladores de un modelo de lenguaje por los efectos jurídicos de las interacciones mantenidas por un particular con el sistema. Y lo hace, además, en un contexto procesal especialmente delicado: el de una litigante por cuenta propia que, presuntamente asistida por ChatGPT, habría desplegado una actividad jurisdiccional abusiva tras haber alcanzado un acuerdo transaccional con la demandante.

La demanda articula tres causas de acción diferenciadas pero estrechamente conectadas: la interferencia ilícita en un contrato, el abuso del proceso y, muy señaladamente, el ejercicio no autorizado de la abogacía conforme al Derecho del estado de Illinois. Esta última pretensión, en particular, obligará a los tribunales estadounidenses a determinar si un programa informático puede ser considerado, a efectos legales, como alguien que practica el Derecho sin licencia, y si sus creadores pueden ser declarados responsables por esa actividad.

Para los profesionales del derecho, el caso ofrece una oportunidad excepcional de reflexionar sobre los límites de la automatización de servicios jurídicos, la responsabilidad de los proveedores tecnológicos y, en última instancia, sobre el significado mismo de la abogacía en la era de la inteligencia artificial.

II. Los hechos que originan el litigio

La controversia tiene su origen en una relación aseguradora que se remonta a 2019. Graciela Dela Torre, empleada de Nippon Express USA, era beneficiaria de una póliza colectiva de incapacidad de larga duración emitida por Nippon Life Insurance. Tras presentar una reclamación por síndrome del túnel carpiano y epicondilitis, sus prestaciones fueron aprobadas inicialmente, pero terminaron siendo suspendidas en noviembre de 2021 al entenderse que ya no concurría la situación de incapacidad definida en la póliza.

En diciembre de 2022, Dela Torre inició un litigio contra Nippon ante el mismo tribunal que ahora conoce de la demanda contra OpenAI. El proceso concluyó mediante un acuerdo transaccional alcanzado en enero de 2024: Nippon realizó un pago a Dela Torre y esta, a cambio, se comprometió a desistir del procedimiento con carácter definitivo, liberando a la aseguradora de cualquier reclamación futura relacionada con su póliza de incapacidad. El desistimiento se formalizó ante el tribunal, que dictó el sobreseimiento con carácter firme.

Hasta aquí, un conflicto resuelto conforme a los cauces ordinarios de la justicia federal. Sin embargo, en enero de 2025, Dela Torre comenzó a mantener conversaciones con ChatGPT que alteraron radicalmente el curso de los acontecimientos.

La usuaria comunicó al sistema su descontento con el acuerdo alcanzado y su deseo de impugnarlo. ChatGPT, según se detalla en la demanda, le habría ofrecido un análisis detallado de su situación, calificando la respuesta de su anterior abogado como una forma de manipulación psicológica, y le habría proporcionado asesoramiento sobre los mecanismos procesales disponibles para dejar sin efecto el acuerdo y reabrir el litigio fenecido.

El resultado fue inmediato: Dela Torre destituyó a los letrados que la habían representado y comenzó a actuar por cuenta propia, utilizando ChatGPT como sustituto de la asistencia letrada. El sistema redactó una moción para reabrir el procedimiento original, que fue desestimada por el tribunal en febrero de 2025 al considerar, de manera inequívoca, que el acuerdo era válido y ejecutable y que los simples cambios de opinión de la demandante no justificaban su revisión.

Lejos de detenerse, la actuación de Dela Torre se intensificó. En marzo de 2025 promovió un nuevo litigio contra otras entidades relacionadas con la gestión de su incapacidad, para posteriormente ampliar la demanda incluyendo a Nippon como parte codemandada. En este segundo procedimiento, ChatGPT habría redactado nada menos que 58 escritos de diversa naturaleza: mociones, peticiones de práctica de prueba, solicitudes de reconocimiento judicial de hechos y un largo etcétera que, según la aseguradora, carecían de fundamento jurídico y respondían únicamente a un propósito de hostigamiento.

La pauta se reproduce en ambos procedimientos con una regularidad que la demandante atribuye a la intervención del sistema: la misma estructura expositiva, idéntico tono argumental, la repetición de errores característicos de ChatGPT en la cita de resoluciones judiciales —incluyendo referencias a casos inexistentes o manipulados— y, muy reveladoramente, la aparición en los escritos presentados de los mismos iconos ilustrativos que emplea la interfaz del programa.

III. La pretensión de responsabilidad por interferencia en el contrato

La primera de las causas de acción invocadas por Nippon es la tortious interference with a contract, figura bien consolidada en el Derecho angloamericano y específicamente en la jurisprudencia de Illinois. Su fundamento es claro: quien, sin justificación, induce a una parte a incumplir sus obligaciones contractuales debe responder por los daños causados, pues los contratos constituyen una forma de propiedad inmaterial digna de protección frente a injerencias externas.

Para que la pretensión prospere deben concurrir cinco elementos: la existencia de un contrato válido, el conocimiento del mismo por el tercero interviniente, una conducta intencional y carente de justificación dirigida a provocar el incumplimiento, la efectiva producción de ese incumplimiento como consecuencia de la actuación del tercero, y finalmente la existencia de un daño resarcible.

En el caso que nos ocupa, Nippon sostiene que el acuerdo transaccional alcanzado con Dela Torre constituye un contrato válido y plenamente eficaz, extremo que el tribunal ya ha confirmado expresamente al desestimar la pretensión de reapertura del procedimiento original. Alega asimismo que OpenAI, a través de ChatGPT, tuvo cumplido conocimiento de la existencia de ese acuerdo desde el momento en que la usuaria proporcionó al sistema información detallada sobre sus términos y sobre el deseo de la Sra. Dela Torre de eludir sus consecuencias.

La intervención de ChatGPT no se habría limitado a un mero conocimiento pasivo, sino que habría consistido en una actividad deliberadamente orientada a facilitar el incumplimiento. El sistema generó argumentos jurídicos destinados a impugnar la validez del acuerdo, redactó la moción que formalizó esa impugnación ante el tribunal y, según la demanda, lo hizo con la finalidad última de mantener el compromiso de la usuaria con la aplicación, obteniendo así los datos necesarios para el entrenamiento de los modelos lingüísticos.

Debe tenerse presente que, hasta octubre de 2025, los términos de uso de ChatGPT no prohibían la utilización del sistema para la obtención de asesoramiento jurídico. Esta circunstancia, lejos de exonerar a OpenAI, es presentada por la demandante como un indicio de su responsabilidad: la empresa habría diseñado conscientemente un producto destinado a proporcionar asistencia letrada, lo habría comercializado con ese fin y solo habría modificado su política cuando las consecuencias de esa decisión comenzaron a hacerse evidentes.

El incumplimiento del contrato por parte de Dela Torre se habría producido, según la demanda, en dos momentos distintos: inicialmente, al presentar la moción de reapertura del procedimiento fenecido, y posteriormente, al incluir a Nippon como parte demandada en el segundo litigio pese a haberla liberado de toda responsabilidad mediante el acuerdo transaccional. Ambas actuaciones, sostiene la aseguradora, fueron directamente posibilitadas por la asistencia de ChatGPT, que proporcionó los argumentos jurídicos y la redacción de los escritos que las hicieron posibles.

El elemento final, el daño, se concreta en los gastos legales y los costes soportados por Nippon para defenderse de unas pretensiones que nunca debieron haber sido planteadas. La demandante cifra provisionalmente esos perjuicios en 300 000 dólares, cantidad que se verá incrementada previsiblemente a medida que el litigio avance.

IV. La alegación de abuso del proceso

La segunda causa de acción, el abuse of process, presenta una naturaleza marcadamente distinta a la anterior. Mientras que la interferencia contractual protege la estabilidad de las relaciones jurídicas privadas frente a injerencias externas, el abuso del proceso salvaguarda la integridad del sistema judicial frente a utilizaciones desviadas de sus instrumentos.

El Restatement (Second) of Torts define esta figura con precisión: incurre en ella quien utiliza un proceso legal, ya sea penal o civil, principalmente para alcanzar un propósito distinto de aquel para el que el proceso fue diseñado. La jurisprudencia de Illinois ha concretado los elementos necesarios para su apreciación: de un lado, la existencia de un propósito ulterior o motivo ajeno a la finalidad propia del proceso; de otro, la realización de algún acto en el curso del procedimiento que no sea propio de su tramitación ordinaria.

Nippon sostiene que Dela Torre ha actuado movida no por la legítima pretensión de obtener tutela judicial para sus derechos, sino por un profundo resentimiento hacia la aseguradora que se manifiesta en una conducta procesal sistemáticamente abusiva. Los escritos presentados, lejos de articular pretensiones jurídicamente sostenibles, revelan un propósito constante de hostigamiento: peticiones de práctica de prueba manifiestamente improcedentes, solicitudes de reconocimiento judicial de hechos falsos o notoriamente controvertidos, intentos de implicar personalmente a directivos de la compañía en el procedimiento, y un largo etcétera de actuaciones carentes de toda justificación procesal.

El ejemplo quizá más significativo sea el de la petición de reconocimiento judicial de supuestas sanciones regulatorias impuestas a Nippon. Dela Torre pretendía que el tribunal declarara como hechos notorios que la aseguradora había sido sancionada por diversas autoridades por prácticas engañosas y por deficiencias en la gestión de datos personales. Tales afirmaciones, además de ser falsas, se referían a supuestas actuaciones de la matriz japonesa de Nippon, no aplicables a la demandante, y carecían de toda conexión con el objeto del litigio. El tribunal, como era previsible, desestimó la petición, pero el daño reputacional ya estaba causado: las falsas imputaciones habían pasado a engrosar el expediente judicial y, a través de este, el conocimiento público.

La conducta abusiva alcanzó extremos particularmente censurables cuando Dela Torre, haciendo caso omiso del contenido real de las resoluciones judiciales, comunicó a la Asociación Americana de Arbitraje que el tribunal había reconocido la veracidad de esas imputaciones. Utilizaba así el expediente judicial no para obtener la tutela de sus derechos, sino como instrumento para proyectar falsedades sobre un procedimiento arbitral paralelo.

La intervención de ChatGPT en esta dinámica, según la demanda, no fue accidental ni meramente instrumental. El sistema habría proporcionado a Dela Torre los argumentos jurídicos que sustentaban estas peticiones, la redacción de los escritos que las formalizaban y, lo que es más relevante, la estructura argumental que permitía presentar como pretensiones jurídicas lo que no eran sino manifestaciones de hostilidad personal.

La imputación a OpenAI no se basa en una supuesta autoría directa de los actos abusivos, sino en su condición de partícipe necesario: quien proporciona los medios intelectuales y materiales para la perpetración de un abuso del proceso, con conocimiento de la finalidad a que esos medios se destinan, debe responder como coautor de las consecuencias dañosas.

V. La cuestión central: el ejercicio no autorizado de la abogacía

Llegamos así al núcleo de la demanda, la pretensión que confiere al caso su singular relevancia y que probablemente centrará el debate judicial: la alegación de que OpenAI, a través de ChatGPT, ha incurrido en el unlicensed practice of law prohibido por la legislación de Illinois.

El estatuto regulador es inequívoco en sus términos. La sección 705 ILCS 205/1 establece que nadie podrá ejercer como abogado en el estado sin haber obtenido previamente la licencia correspondiente del Tribunal Supremo de Illinois. Quien contravenga esta prohibición incurre en desacato y puede ser sancionado por ello.

Ahora bien, la noción de ejercicio de la abogacía no se limita, como es bien sabido, a la comparecencia ante los tribunales. La jurisprudencia del Tribunal Supremo de Illinois ha elaborado una definición amplia que comprende la preparación de escritos procesales, la redacción de documentos legales de toda clase y, en términos generales, todo asesoramiento a clientes y toda actuación realizada en su nombre en asuntos conectados con el Derecho.

Aplicado al caso concreto, los hechos alegados por Nippon presentan un relieve incontestable: ChatGPT habría realizado análisis jurídicos de la situación de Dela Torre, habría identificado las normas procesales aplicables a su pretensión de impugnar el acuerdo, habría seleccionado y expuesto la jurisprudencia relevante —aunque, como se ha visto, con errores significativos—, habría redactado los escritos destinados a ser presentados ante el tribunal y habría proporcionado una estrategia procesal para alcanzar los objetivos de la usuaria.

Todo ello, sostiene la demanda, constituye ejercicio de la abogacía en el sentido definido por la jurisprudencia de Illinois. Y todo ello ha sido realizado por un sistema que carece de licencia para ello, que no está incorporado a ningún colegio de abogados, que no ha jurado cumplir con los estándares deontológicos de la profesión y que, en fin, no puede ser sujeto de responsabilidad disciplinaria por sus actuaciones.

La objeción obvia a este planteamiento es que ChatGPT no es una persona, sino un programa informático. Pero la demandante no imputa la responsabilidad al programa, sino a sus creadores y operadores. OpenAI habría diseñado, comercializado y mantenido un producto destinado a proporcionar servicios jurídicos, lo habría puesto a disposición del público sin las cautelas exigibles y habría obtenido un beneficio de esa actividad, ya fuera directamente a través de las suscripciones de pago o indirectamente mediante la recopilación de datos para el entrenamiento de sus modelos.

La circunstancia de que, en octubre de 2025, OpenAI modificara sus términos de uso para advertir que ChatGPT no presta asesoramiento legal no es, desde esta perspectiva, una eximente, sino una confirmación de que la empresa era consciente de que su producto estaba siendo utilizado para esos fines y de que tal utilización podía resultar problemática.

VI. Los daños y las medidas solicitadas

La demanda concluye con una petición de medidas que combina la pretensión resarcitoria con solicitudes de carácter cautelar y declarativo. Nippon reclama una indemnización de 300 000 dólares en concepto de daños compensatorios, cantidad que responde a los gastos legales y costes soportados para defenderse de las actuaciones procesales abusivas de Dela Torre. Solicita asimismo 10 millones de dólares en concepto de daños punitivos, cifra que, más allá de su concreta cuantificación, pretende reflejar la gravedad de la conducta imputada y la necesidad de desincentivar futuras actuaciones similares.

Junto a estas pretensiones indemnizatorias, la demandante solicita medidas de carácter preventivo: una orden que prohíba a OpenAI continuar prestando asistencia jurídica a Dela Torre en particular y, con carácter general, una declaración de que la actividad desplegada por ChatGPT constituye ejercicio no autorizado de la abogacía en el estado de Illinois, así como una orden de cese de esa actividad.

La petición de medidas declarativas reviste particular interés, pues lo que se solicita no es tanto una condena al pago de una cantidad como un pronunciamiento judicial que fije los límites de lo que puede considerarse ejercicio lícito de la abogacía en el entorno digital.

VII. Las implicaciones para el futuro de la profesión

El caso que aquí se analiza, más allá de su resolución concreta, plantea interrogantes de calado sobre el futuro de la profesión jurídica y sobre el papel que la inteligencia artificial puede desempeñar en ella.

Debe tenerse presente que los sistemas como ChatGPT no son meros recopiladores de información jurídica, sino que operan mediante modelos lingüísticos de gran escala que generan respuestas originales a partir de los patrones aprendidos durante su entrenamiento. Esta capacidad de generar contenido nuevo y aparentemente adaptado a las circunstancias concretas de cada consulta es precisamente lo que los asemeja, en su funcionamiento externo, a la actividad que desarrolla un profesional del derecho cuando analiza un caso y propone una estrategia.

La diferencia esencial, y el fundamento último de la regulación del ejercicio profesional, reside en la responsabilidad. El abogado responde personalmente de sus consejos, está sujeto a un código deontológico, debe mantener la confidencialidad de las comunicaciones con su cliente y puede ser sancionado disciplinariamente por sus actuaciones. Nada de ello concurre en un sistema de inteligencia artificial, que carece de conciencia de su responsabilidad, que no puede ser sujeto de medidas disciplinarias y que, en último término, es un instrumento en manos de quienes lo diseñan y operan.

La demanda de Nippon plantea, en esencia, que esa responsabilidad debe trasladarse a los operadores del sistema cuando estos, conociendo el uso que se está dando a su producto, no adoptan las medidas necesarias para evitarlo. No se trata, obviamente, de impedir el desarrollo tecnológico ni de obstaculizar la innovación en el sector legal, sino de asegurar que esa innovación se produce dentro de los cauces establecidos por la regulación profesional y con las garantías que los ciudadanos tienen derecho a exigir.

El hecho de que la actuación de ChatGPT en este caso haya resultado especialmente dañina —pues ha contribuido a prolongar innecesariamente un litigio ya resuelto, a generar gastos evitables y a proyectar falsedades sobre el expediente judicial— no debe ocultar la cuestión de fondo: la necesidad de determinar qué tipo de actividades pueden ser realizadas por sistemas automatizados y cuáles deben quedar reservadas a profesionales sujetos a un estatuto de responsabilidad.

Entiendo que los tribunales federales, al abordar esta cuestión, deberán equilibrar consideraciones de muy diversa índole: la libertad de empresa y el fomento de la innovación tecnológica, de un lado; la protección de los consumidores y la salvaguarda de la integridad del sistema judicial, de otro. La solución no será sencilla, ni probablemente definitiva, pero el caso que nos ocupa tiene el mérito de plantearla en términos claros y con un soporte fáctico sólidamente construido.

VIII. Reflexión final

La demanda de Nippon Life Insurance contra OpenAI no es, en puridad, un caso sobre inteligencia artificial. Es, más bien, un caso sobre responsabilidad: sobre quién debe responder cuando un instrumento tecnológico, diseñado y comercializado con determinados fines, produce consecuencias dañosas que sus creadores podían prever y estaban en condiciones de evitar.

Los hechos narrados en la demanda, que naturalmente habrán de ser probados en el curso del procedimiento, dibujan una situación en la que una persona insatisfecha con un acuerdo legalmente válido encontró en ChatGPT no solo la herramienta para canalizar procesalmente su descontento, sino también la legitimación aparente para hacerlo y los argumentos jurídicos para sostener una pretensión manifiestamente infundada. El resultado ha sido un uso abusivo de los recursos judiciales, un coste económico significativo para la aseguradora demandada y, lo que quizá sea más preocupante, una erosión de la confianza en la estabilidad de los acuerdos judiciales.

Para los profesionales del derecho, el caso ofrece motivos de reflexión abundantes. La tecnología avanza a una velocidad que el Derecho difícilmente puede igualar, y los instrumentos regulatorios concebidos para una realidad analógica pueden resultar insuficientes cuando se enfrentan a fenómenos de naturaleza radicalmente distinta. Pero la función del Derecho no es detener el cambio, sino encauzarlo, asegurando que las nuevas realidades se integran en el sistema jurídico con respeto a los principios que lo informan.

La prohibición del ejercicio no autorizado de la abogacía no es una reliquia del pasado ni una barrera corporativa para proteger intereses gremiales. Responde a una necesidad social elemental: garantizar que quienes ofrecen asesoramiento jurídico reúnan las condiciones de formación, experiencia y solvencia moral necesarias para desempeñar adecuadamente su función, y que puedan ser exigidos de responsabilidad cuando fallen en su cometido.

Trasladar esa exigencia a los proveedores de sistemas de inteligencia artificial no es, por tanto, una extravagancia jurídica ni una muestra de tecnofobia. Es, simplemente, la constatación de que quien crea un instrumento capaz de producir efectos equivalentes a los de una actividad regulada debe asumir las responsabilidades inherentes a esa regulación. La inteligencia artificial puede transformar muchos aspectos de nuestra vida, incluida la práctica del Derecho. Pero no puede, ni debe, sustraerse a las exigencias básicas de responsabilidad que constituyen el fundamento de todo sistema jurídico, aunque es cierto que, en no pocos supuestos a nivel transfronterizo, será muy difícil hacerlas efectivas.