Dice que ChatGPT le ha mandado a la policía a casa por preguntarle cosas de "asesinatos" y un abogado lo aclara
¿Es cierto que ChatGPT avisó a la policía por preguntar sobre asesinatos? Un abogado explica qué hay de verdad y qué es solo un malentendido que debes conocer
El interés por el True Crime —ese género que mezcla investigación, psicología y criminología real— ha llevado a muchos usuarios a formular preguntas insólitas en internet. Pero en el caso de una joven aficionada, su curiosidad acabó de la peor manera posible: con una visita inesperada de la policía en su propia casa.
La historia, contada por el despacho especializado Tech & Law, ha generado un gran debate sobre la privacidad y el funcionamiento de las herramientas de inteligencia artificial.
De ver documentales a declarar ante un juez
Según relata Tech & Law, la mujer era una auténtica entusiasta del True Crime. Pasaba horas viendo series, podcasts y documentales sobre asesinatos reales, investigación forense y perfiles criminales. Su curiosidad la llevó a plantear preguntas a ChatGPT del tipo:
-
“¿Cuánto tarda en descomponerse un cadáver?”
-
“¿Qué pasa si entierras un cuerpo en el bosque?”
-
“¿Cuánto tarda un cuerpo en deshacerse en ácido?”
Todas las consultas, según explicó posteriormente, eran por pura curiosidad y nunca con intención de causar daño.
Sin embargo, pocos días después, la joven recibió una notificación del juzgado citándola a declarar. Al acudir, se encontró con una orden de registro de su teléfono móvil y con varios agentes que le preguntaban por qué había buscado ese tipo de información.
En un momento de la declaración, uno de los agentes le mostró sus búsquedas en ChatGPT, lo que la dejó completamente desconcertada.
El malentendido: ChatGPT no llama a la policía
Ante la viralidad de esta historia, Tech & Law ha querido aclarar un punto esencial: ChatGPT no tiene la capacidad de avisar a la policía ni de generar alertas automáticas por las preguntas que haces.
El abogado del despacho explicó que solo en casos muy concretos —por ejemplo, si se detecta una amenaza real, creíble e inminente contra otra persona o grupo— pueden intervenir las autoridades. En cualquier otro contexto, la herramienta no puede enviar tus datos personales ni notificar a la policía.
“ChatGPT no puede mandarte a la policía a casa ni iniciar una investigación por tu cuenta”, aclaró el letrado.
“Solo en casos de riesgo real para la vida de alguien se activan protocolos de seguridad. Los vídeos o historias que circulan en redes sociales no reflejan cómo funciona realmente el sistema.”
Una mezcla de algoritmos, privacidad y miedo digital
El caso, aunque finalmente resultó ser un malentendido, ha abierto un debate sobre el alcance de la privacidad en la era de la inteligencia artificial.
Muchos usuarios han expresado su temor a ser “vigilados” por sus búsquedas o conversaciones con asistentes virtuales, especialmente cuando tratan temas sensibles o relacionados con delitos.
Sin embargo, los expertos en derecho digital insisten en que las plataformas de IA no tienen acceso directo a tus datos personales ni capacidad de rastreo geolocalizado. Las interacciones se procesan de forma anónima y con protocolos de seguridad diseñados precisamente para evitar abusos.
Cuando la curiosidad se malinterpreta
Para esta aficionada al True Crime, la experiencia fue, en sus palabras, “surrealista”. Aunque todo se resolvió sin cargos y pudo demostrar que sus preguntas eran fruto del interés por el género, el susto le ha servido de lección: en internet, el contexto lo es todo.
La anécdota recuerda que los límites entre la curiosidad, la tecnología y la privacidad son cada vez más difusos. Pero también deja claro, como subraya Tech & Law, que ChatGPT no puede avisar a la policía ni provocar una investigación por sí mismo.
Solo los casos reales de amenaza o peligro inminente pueden activar un protocolo de emergencia. Todo lo demás —por morboso o inquietante que parezca— sigue siendo una simple conversación digital.