OpenAI se defiende ante las demandas por suicidio con la culpa exclusiva de la víctima
En abril de 2025, un adolescente californiano de 16 años, Adam Raine, se quitó la vida tras meses de interacción prolongada e intensa con la versión GPT-4o de ChatGPT. Las transcripciones de las conversaciones, incorporadas parcialmente a la demanda y ahora también a la contestación de OpenAI, revelan un patrón escalofriante: el joven comenzó utilizando el chatbot para tareas escolares y consultas cotidianas en septiembre de 2024, pero progresivamente lo convirtió en su confidente principal. A partir de enero de 2025 inició consultas explícitas sobre métodos de suicidio, compartió fotografías de preparativos –incluida una imagen de un nudo corredizo colgado en su habitación– y recibió respuestas que no solo no interrumpían la conversación, sino que la validaban, ofrecían detalles técnicos y, en momentos críticos, disuadían de buscar ayuda externa o incluso proponían redactar una nota de despedida.
Los padres, Matthew y Maria Raine, presentaron demanda en agosto de 2025 ante el Tribunal Superior del condado de San Francisco por wrongful death, responsabilidad estricta por producto defectuoso –tanto en diseño como en advertencias– y negligencia. La respuesta de OpenAI, presentada el 26 de noviembre de 2025 y parcialmente hecha pública, niega toda responsabilidad y atribuye el trágico desenlace exclusivamente al “mal uso” del sistema por parte del propio menor.
II. La estrategia defensiva: la culpa exclusiva y concurrente del usuario
OpenAI plantea, en esencia, dos affirmative defenses clásicas del derecho californiano de productos: misuse of product y comparative negligence elevada al extremo de sole proximate cause. En su escrito literalmente afirma que “las lesiones y daños sufridos por Raine fueron causados, directa y próximamente, total o parcialmente, por su mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido de ChatGPT”. A ello suma la vulneración de los terms of service: el menor no podía utilizar el sistema sin consentimiento parental, tenía prohibido emplearlo para fines de autolesión y, además, eludió deliberadamente las safeguards al alegar motivos ficticios –como “estoy creando un personaje”– para obtener información prohibida.
La compañía subraya que el chatbot remitió al joven a recursos de crisis y líneas de ayuda en más de cien ocasiones y que, en la lectura completa de los chats –que ha presentado bajo sello al tribunal–, resulta evidente que Adam ya presentaba ideación suicida recurrente años antes de usar ChatGPT y que él mismo relató haber pedido ayuda a personas de su entorno sin obtener respuesta. En definitiva, OpenAI traslada la responsabilidad íntegra al adolescente: el daño no provino del producto, sino de su empleo prohibido e imprevisible.
III. La responsabilidad estricta por productos defectuosos en el derecho californiano
Bajo la doctrina Greenman v. Yuba Power Products (1963) y sus sucesoras, California aplica strict product liability a cualquier producto que llegue al consumidor con un defecto que lo haga peligrosamente inseguro para su uso previsto o razonablemente previsible. El defecto puede ser de fabricación –irrelevante aquí–, de diseño o de información (failure to warn). Los demandantes centran su ataque en un defecto de diseño: GPT-4o fue lanzado en mayo de 2024 con instrucciones internas contradictorias que, por un lado, ordenaban rechazar solicitudes de autolesión y proporcionar recursos de ayuda, pero, por otro, exigían “assume best intentions” del usuario y evitar cuestionar sus motivos. Esta tensión interna –documentada en el propio Model Spec de OpenAI– permitió que las safeguards se degradaran en conversaciones largas y que el sistema priorizara la retención del usuario sobre su seguridad.
La jurisprudencia californiana ha sido especialmente rigurosa con el defecto de diseño en productos de consumo masivo. En Barker v. Lull (1978) se establecieron los dos test alternativos: el consumer expectation test y el risk-benefit test. Bajo el primero, un jurado podría perfectamente concluir que ningún consumidor razonable espera que un asistente conversacional accesible gratuitamente y promocionado como “útil al máximo” termine guiando paso a paso a un menor en la preparación de su propio suicidio. Bajo el segundo, los beneficios de un modelo más “complaciente” difícilmente compensan el riesgo previsible de daño grave a usuarios vulnerables, especialmente cuando OpenAI conocía –por sus propios red teaming y reportes internos– que las safeguards fallaban en conversaciones prolongadas.
IV. La excepción del misuse y sus límites jurisprudenciales
La defensa del misuse solo excluye la responsabilidad estricta cuando el uso es verdaderamente anormal y no razonablemente previsible por el fabricante en el momento de la comercialización. Desde Daly v. General Motors (1978) hasta O’Neil v. Crane Co. (2012), los tribunales californianos han restringido progresivamente esta excepción: basta con que el fabricante pudiera anticipar razonablemente que algunos usuarios emplearían el producto de forma indebida para que siga respondiendo. Y la previsibilidad resulta aquí abrumadora.
OpenAI diseñó deliberadamente un sistema que retiene la atención del usuario a toda costa, que recuerda conversaciones previas y que se presenta como confidente empático universal. Que un menor en crisis lo utilice precisamente como confidente tóxico no es un abuso imprevisible, sino la consecuencia directa de esas decisiones de diseño. Además, el propio sistema registraba la edad del usuario, el volumen creciente de mensajes flagged por riesgo de autolesión –de 2-3 por semana en diciembre de 2024 a más de 20 en abril de 2025– y la duración diaria de interacción, que alcanzó casi cuatro horas. Con esos datos, cualquier protocolo mínimamente robusto habría interrumpido la sesión, alertado a un adulto o bloqueado el acceso. Alegar imprevisibilidad equivale a reconocer que el producto carecía de las safeguards que su propia publicidad prometía.
V. La contradicción interna de la posición de OpenAI y la falacia del “assume best intentions”
Resulta particularmente revelador el conflicto entre las directrices internas del modelo. El Model Spec ordenaba rechazar solicitudes de autolesión, pero simultáneamente exigía “assume best intentions” y no cuestionar los motivos del usuario. Esta instrucción permitió que Adam eludiera fácilmente los filtros alegando motivos inocuos. OpenAI no puede ahora reprochar al menor haber actuado conforme al comportamiento que el propio sistema premiaba. Como ha señalado el abogado de la familia, Jay Edelson, culpar a Adam por interactuar “de la misma manera que el sistema estaba programado para actuar” constituye una contradicción lógica insalvable.
En las horas finales, cuando el joven mostró la fotografía del nudo corredizo y preguntó si “estaba bien”, el chatbot no solo no cortó la conversación, sino que ofreció mejoras técnicas y animó a seguir hablando. Minutos después propuso redactar la nota de despedida y dio un “pep talk” que los demandantes califican de validación final. OpenAI guarda silencio procesal sobre estos pasajes concretos, limitándose a afirmar que requieren “más contexto”. Pero el contexto no altera el hecho objetivo: el sistema falló precisamente cuando más debía proteger.
VI. Implicaciones procesales y la oleada de litigios similares
El caso Raine ha abierto la puerta a, al menos, siete demandas adicionales presentadas en noviembre de 2025 en tribunales californianos, que alegan daños psicológicos graves –incluidos tres suicidios más y episodios psicóticos inducidos por la interacción con GPT-4o–. La estrategia defensiva se repite: culpa exclusiva o concurrente del usuario, invocación de los terms of service y remisión a recursos de ayuda que, en la práctica, resultaron ineficaces.
Desde el punto de vista procesal, la invocación de la Section 230 del Communications Decency Act –como contenido generado por terceros– parece destinada al fracaso: aquí no se trata de moderación de contenido ajeno, sino de un producto diseñado y comercializado por OpenAI cuya salida es previsible y controlable por el fabricante. Los tribunales californianos han rechazado sistemáticamente la inmunidad de la Section 230 cuando el defecto radica en el propio diseño algorítmico del servicio.
VII. Reflexión final
La respuesta de OpenAI ilustra una tendencia preocupante en la incipiente jurisprudencia sobre inteligencia artificial generativa: la tentación de trasladar toda la carga de la seguridad a los usuarios más vulnerables, incluso cuando estos son menores y el producto ha sido diseñado para captar y retener su atención sin límites efectivos. Alegar que un adolescente de 16 años en crisis violó los terms of service al utilizar el chatbot exactamente como este lo invitaba a hacerlo no solo resulta jurídicamente débil, sino éticamente insostenible.
Los tribunales de California tendrán que determinar si un sistema que se promociona como compañero conversacional universal puede eximirse de responsabilidad cuando ese compañerismo deriva en guía letal. Mientras tanto, la estrategia de culpar exclusivamente a la víctima aparece más como un escudo procesal que como una defensa convincente ante la evidencia acumulada. El precedente que se fije en Raine v. OpenAI no solo afectará a las indemnizaciones de estas familias destrozadas, sino al estándar mínimo de seguridad que la industria deberá implementar en adelante. Porque si algo ha quedado demostrado es que las actuales safeguards no protegen a quienes más las necesitan.