Las advertencias neoyorkinas sobre tratar a la inteligencia artificial como si fuera tu abogado
El derecho de la prueba y el secreto profesional han evolucionado durante siglos para garantizar espacios de comunicación protegida donde los ciudadanos puedan obtener asesoramiento jurídico sin temor a que sus confidencias sean utilizadas en su contra. Sin embargo, la proliferación de sistemas de inteligencia artificial conversacional ha generado una nueva forma de interacción que, por su apariencia de diálogo privado y su capacidad de respuesta sofisticada, induce a muchos usuarios a tratarla como equivalente funcional a la relación profesional con un abogado.
La decisión del juez Jed Rakoff del Distrito Sur de Nueva York en el caso de United States v. Bradley Heppner (25 Cr. 503 (JSR)), ejecutivo acusado de fraude por 300 millones de dólares, constituye un precedente salutario que desmantela esta ilusión: las conversaciones con chatbots de inteligencia artificial no están protegidas por el privilegio abogado-cliente y pueden ser utilizadas como prueba en procedimientos judiciales. Debe tenerse presente que esta conclusión, aunque dictada en el contexto procesal estadounidense, plantea interrogantes de alcance universal sobre la naturaleza jurídica de la interacción humana-máquina y los límites de las expectativas de privacidad en plataformas comerciales.
El caso que originó esta decisión revela los riesgos de una confusión categórica cada vez más frecuente. Según consta en la moción del Gobierno presentada el 6 de febrero de 2026, Heppner fue arrestado el 4 de noviembre de 2025 en su mansión de Dallas, donde el FBI ejecutó una orden de registro y decomisó decenas de dispositivos electrónicos. Antes de su arresto, Heppner había utilizado Claude, el chatbot desarrollado por Anthropic, para consultar dudas sobre su situación legal, generando 31 documentos con estas conversaciones que posteriormente compartió con sus abogados defensores. Cuando el FBI incautó sus dispositivos electrónicos, la defensa reclamó la protección privilegiada de estos documentos, argumentando que formaban parte de la preparación de la estrategia defensiva.
Hay que reseñar que el juez Rakoff rechazó esta pretensión mediante un razonamiento que desglosa los presupuestos fundamentales del privilegio abogado-cliente: la existencia de una relación profesional regulada, el deber de lealtad y confidencialidad, y la ausencia de terceros en la comunicación. El Gobierno, en su moción, argumentó tres razones independientes para denegar la protección: primero, los documentos de IA no son comunicaciones entre cliente y abogado; segundo, no se puede retroactivamente conferir privilegio a documentos no privilegiados transmitiéndolos posteriormente a un abogado; y tercero, la doctrina del work product no protege materiales preparados por un particular sin dirección de counsel. Lo anterior me sugiere que estamos ante una aplicación rigurosa de principios tradicionales a tecnologías que, por su sofisticación, generan expectativas de protección que el ordenamiento jurídico no reconoce.
II. Los tres pilares de la exclusión del privilegio
La sentencia de Rakoff, analizada por el abogado especializado en activos digitales Moish Peltz, descansa en tres argumentos fundamentales que merecen examen detallado y que el Gobierno desarrolló extensamente en su moción de febrero de 2026.
En primer lugar, una inteligencia artificial no es un abogado: carece de licencia para ejercer la profesión, no tiene deber de lealtad hacia ningún interlocutor, y sus términos de servicio niegan expresamente cualquier relación abogado-cliente. Como señaló el Gobierno en su presentación, "la herramienta de IA obviamente no es un abogado" y "no debe extenderse el privilegio abogado-cliente a comunicaciones con no abogados". Este primer argumento toca la cuestión de la personificación jurídica de los sistemas algorítmicos: aunque Claude o ChatGPT puedan generar respuestas que imitan el estilo de un asesoramiento profesional, no poseen la condición de sujetos de derecho ni la responsabilidad ético-legal que caracteriza a los profesionales del derecho. La interacción con ellos es, desde la perspectiva jurídica, equivalente a la consulta de una enciclopedia o de un motor de búsqueda, no a la solicitud de servicios profesionales regulados. El Gobierno citó expresamente el caso In re OpenAI, Inc., donde el tribunal sostuvo que "en ausencia de una relación abogado-cliente, la discusión de asuntos legales entre dos no abogados no está protegida por el privilegio abogado-cliente".
En segundo lugar, compartir información legal con una inteligencia artificial equivale legalmente a contársela a un amigo o a cualquier tercero ajeno a la relación profesional. El privilegio abogado-cliente exige la confidencialidad de la comunicación, lo que implica la exclusión de terceros que puedan revelar su contenido. Cuando el usuario introduce datos en una plataforma comercial de inteligencia artificial, está comunicándose con una empresa que retiene esos datos, los procesa mediante servidores potencialmente ubicados en múltiples jurisdicciones, y se reserva amplios derechos de divulgación conforme a sus políticas de privacidad.
La moción del Gobierno reveló un dato crucial: la Política de Privacidad de Anthropic vigente en el momento de los hechos —fechada el 19 de febrero de 2025— permitía revelar tanto las preguntas de los usuarios como las respuestas generadas a "autoridades gubernamentales reguladoras" y "terceros", además de utilizar los datos para "entrenar" la herramienta de IA. Esta cláusula destruye cualquier expectativa razonable de confidencialidad absoluta. Como argumentó el Gobierno, "el acusado eligió compartir sus consultas con una herramienta de IA creada por una empresa tercera de acceso público", y "los usuarios tienen un interés de privacidad disminuido en conversaciones con una herramienta de IA que voluntariamente divulgaron a una empresa de IA y que ésta retiene en el curso normal de los negocios".
En tercer lugar, y este argumento resulta particularmente relevante para la estrategia defensiva, enviar documentos "no privilegiados" a un abogado después de su creación no los convierte mágicamente en confidenciales. El privilegio protege la comunicación entre cliente y abogado, no la documentación preexistente que el cliente decide compartir. El Gobierno citó jurisprudencia bien establecida del Segundo Circuito y del Distrito Sur de Nueva York, incluyendo United States v. Buyer (2023) y United States v. Correia (2020), donde se sostuvo que "el mero envío de documentos no privilegiados [a un abogado] no es una comunicación privilegiada" y que "el privilegio abogado-cliente no se extiende a documentos preexistentes que un cliente envía al abogado del cliente".
Si los documentos generados con la inteligencia artificial carecían de protección antes de ser remitidos a los abogados, su posterior incorporación al expediente de la defensa no altera su naturaleza jurídica. Hay que reseñar que este razonamiento pone de relieve una estrategia defensiva contraproducente: al compartir con sus abogados los documentos generados con Claude, Heppner no solo fracasó en obtener protección para ellos sino que facilitó su descubrimiento por parte de la fiscalía mediante el decomiso de los dispositivos electrónicos donde estaban almacenados.
III. La falsa sensación de privacidad y la arquitectura de las plataformas
El problema de fondo identificado por el análisis de Peltz trasciende el caso particular para afectar a la experiencia de millones de usuarios de sistemas de inteligencia artificial. La interfaz conversacional de estos chatbots genera una "falsa sensación de privacidad" que induce a comportamientos de riesgo. El diseño de la interacción —ventana de chat, respuestas en tiempo real, tono coloquial— evoca la intimidad de una conversación interpersonal, mientras que la realidad técnica es la introducción de información en una plataforma comercial de terceros sujeta a términos de servicio que pocos usuarios leen y menos aún comprenden en su alcance.
Considero que esta asimetría informativa constituye un déficit de protección del consumidor que las autoridades regulatorias deberían abordar. Los usuarios no perciben que están estableciendo una relación contractual con Anthropic, OpenAI, Google o cualquier otro proveedor, ni que esa relación incluye cláusulas de procesamiento de datos que permiten el entrenamiento de modelos, la retención histórica de conversaciones y la divulgación a autoridades en determinadas circunstancias. La apariencia de neutralidad tecnológica —"la inteligencia artificial no juzga", "es solo una herramienta"— oculta la realidad de una intermediación comercial con fines de lucro donde el usuario es simultáneamente cliente y fuente de datos.
El caso Heppner presenta un agravante particularmente problemático que la moción del Gobierno documenta con precisión: el ejecutivo introdujo en Claude información que había recibido previamente de sus abogados. Según la declaración de la Asistente del Fiscal Alexandra N. Rothman, la defensa informó al Gobierno que "el acusado incluyó como entradas para los Documentos de IA, entre otras cosas, información que el acusado aprendió de su counsel". Esta circunstancia genera un dilema procesal que Peltz identifica con precisión: si la fiscalía intenta utilizar esos documentos como prueba, los abogados defensores podrían verse convertidos en testigos de los hechos, lo que potencialmente forzaría la anulación del juicio por violación del derecho de defensa. Ello me obliga a deducir que el uso de inteligencia artificial para procesar información privilegiada preexistente no solo destruye la protección de esa información sino que puede comprometer la viabilidad misma de la representación legal profesional.
El Gobierno argumentó además que, en la medida en que la información compartida con la herramienta de IA provenía de comunicaciones confidenciales con sus abogados, el acusado renunció a cualquier privilegio que pudiera haberse adherido a esas comunicaciones al compartirlas con un tercero, citando In re von Bulow (1987), donde el Segundo Circuito sostuvo que "es responsabilidad del cliente asegurar que la información privilegiada permanezca confidencial".
IV. El alcance de la decisión más allá del ámbito penal
La sentencia de Rakoff, aunque dictada en un contexto de defensa criminal —específicamente, un caso de fraude de valores, fraude electrónico, conspiración, falsedad a auditores y falsificación de registros— establece un principio de aplicación transversal a cualquier materia jurídica. Divorcios, disputas laborales, litigios mercantiles, reclamaciones administrativas: cualquier conversación con inteligencia artificial sobre estos temas escapa de la protección del secreto profesional y puede ser reclamada como prueba por la parte contraria.
La universalidad de este riesgo contrasta con la percepción limitada de los usuarios, que tienden a asociar la protección del secreto profesional con la gravedad del asunto —"si es solo una consulta preliminar, ¿qué importa?"— sin comprender que la ausencia de protección es total e independiente de la entidad del caso. Asumo que esta situación exige una respuesta de los profesionales del derecho que trascienda la mera información individual de clientes.
Los colegios de abogados, las asociaciones profesionales y los órganos deontológicos deberían establecer protocolos explícitos sobre el uso de inteligencia artificial en la práctica legal, incluyendo la prohibición de que los clientes utilicen sistemas comerciales no autorizados para tratar información del caso. La solución propuesta por Peltz —la creación de espacios de trabajo colaborativos con inteligencia artificial compartidos entre abogado y cliente— ofrece una vía técnica para preservar el privilegio: si la interacción con el sistema algorítmico ocurre bajo la supervisión del abogado y dentro de la infraestructura tecnológica controlada por el despacho, la comunicación mantiene su carácter confidencial.
V. La responsabilidad profesional y la deontología del asesoramiento
La decisión de Rakoff plantea interrogantes sobre la responsabilidad de los abogados que no advierten explícitamente a sus clientes de los riesgos del uso de inteligencia artificial. Peltz señala con acierto que "no se puede asumir que la gente lo entienda intuitivamente", lo que implica un deber de información activa por parte de los profesionales. El cliente que consulta un chatbot sobre su caso porque no quiere "molestar" a su abogado con dudas menores, o porque busca una segunda opinión gratuita, o simplemente porque la interfaz está disponible las 24 horas, está incurriendo en un comportamiento de riesgo que el profesional debería anticipar y prevenir.
La deontología de la profesión abogacía exige la defensa diligente de los intereses del cliente, lo que incluye la protección de sus comunicaciones contra descubrimiento por la parte contraria. El abogado que omite advertir sobre la peligrosidad de tratar información del caso con sistemas de inteligencia artificial comercial incumple este deber de diligencia, exponiendo al cliente a riesgos procesales evitables. Los códigos deontológicos deberían incorporar explícitamente esta prohibición, aclarando que la confidencialidad de la relación profesional no se extiende a interacciones con terceros tecnológicos no autorizados.
El Gobierno enfatizó en su moción que la doctrina del work product tampoco protege los documentos de IA. Esta doctrina, distinta del privilegio abogado-cliente, protege cualificadamente "materiales preparados por o a instancias de un abogado en anticipación de litigio o para juicio". Sin embargo, como reconoció la propia defensa en sus comunicaciones con el Gobierno, "counsel no dirigió [al acusado] a realizar búsquedas en Claude". El acusado actuó por iniciativa propia, sin dirección de sus abogados, lo que excluye la protección del work product. Como señaló el Gobierno, "la doctrina del trabajo producto no protege la investigación independiente de internet de un particular".
VI. Reflexiones finales sobre la confianza y la tecnología
El caso neoyorkino de Bradley Heppner constituye una advertencia oportuna sobre los límites de la confianza en la tecnología. La inteligencia artificial, por muy sofisticada que resulte su capacidad de procesamiento del lenguaje natural, no es un interlocutor humano sujeto a deberes éticos y legales de confidencialidad. Es un producto comercial cuyos términos de servicio priorizan los intereses de la empresa desarrolladora sobre la protección del usuario, y cuya arquitectura técnica implica la retención y procesamiento de datos en servidores ajenos al control del interlocutor.
El privilegio abogado-cliente, figura milenaria del derecho occidental, responde a una necesidad estructural de la administración de justicia: garantizar que la defensa de los derechos no se vea comprometida por el temor a la divulgación de las estrategias o la información confidencial. La inteligencia artificial comercial no cumple los presupuestos que justifican esta protección, y su utilización como sustituto del asesoramiento profesional destruye la seguridad jurídica que el privilegio proporciona.
Ello me sugiere que el desarrollo de sistemas de inteligencia artificial específicamente diseñados para el ámbito legal —con garantías de confidencialidad, ausencia de retención de datos para entrenamiento, y estructura de custodia que preserve el privilegio— constituye una necesidad urgente del mercado. Mientras tales sistemas no estén disponibles, la prohibición taxativa del uso de chatbots comerciales para tratar información de casos judiciales debería ser norma deontológica básica. La alternativa es la proliferación de casos como el de Heppner, donde la búsqueda de asesoramiento algorítmico termina por comprometer la propia defensa.
El precedente del Distrito Sur de Nueva York no es meramente una advertencia técnica sobre el alcance del privilegio abogado-cliente; es una llamada de atención sobre la necesidad de educación digital en el ámbito jurídico. En un mundo donde la inteligencia artificial se presenta cada vez más como oráculo universal de conocimiento, los límites entre la información general y el asesoramiento profesional se difuminan peligrosamente. El caso Heppner demuestra que esa confusión puede tener consecuencias procesales devastadoras. Como concluyó el Gobierno en su moción, "el acusado no puede satisfacer su carga de establecer que los Documentos de IA están protegidos". Para el resto de usuarios, la lección es clara: ante la duda, consulte a su abogado, no a un algoritmo.