Cada vez más personas recurren a ChatGPT y otros chatbots de inteligencia artificial como Claude, DeepSeek o Grok para resolver dudas que van desde temas corporativos hasta cuestiones de salud mental, sexualidad o relaciones de pareja. Sin embargo, esas conversaciones que muchos consideran privadas podrían terminar visibles en la web.
Un reportaje de Fast Company reveló que Google llegó a indexar más de 4,500 conversaciones privadas de usuarios de ChatGPT. Esto sucedió porque, al utilizar la función de “Compartir” para guardar o enviar enlaces de sus chats, las personas no previeron que esos vínculos podían terminar siendo detectados por el motor de búsqueda.
Aunque la herramienta estaba pensada para que solo quien tuviera el enlace pudiera acceder al contenido, Google y otros rastreadores indexaron esa información al estar públicamente disponible. Tras el escándalo, OpenAI retiró la opción que permitía la indexación, pero otros investigadores demostraron que la situación se repetía con distintos chatbots, hallando más de 130 mil enlaces con conversaciones privadas accesibles.
El grupo Digital Digging incluso detectó 512 conversaciones sensibles aplicando un método irónico: pidieron a Claude que sugiriera comandos de búsqueda para encontrar este tipo de información, y el chatbot los proporcionó. Entre lo hallado había datos personales, información empresarial confidencial e incluso discusiones con intenciones criminales.
Expertos como el investigador Dead1nfluence advirtieron que esta vulnerabilidad representa un riesgo serio, pues podría ser usada por atacantes para identificar compañías o personas que expusieron información de forma accidental.
La lección, señalan los especialistas, es clara: aunque los chatbots son útiles, conviene evitar compartir información sensible o confidencial, ya que su divulgación podría traer consecuencias graves.
