Des conversations privées avec ChatGPT apparaissent dans les résultats de recherche Google
Des milliers de conversations partagées entre utilisateurs et ChatGPT sont aujourd’hui indexées par Google, exposant des échanges parfois intimes à la vue de tous. Censées être envoyées à des proches ou conservées à titre personnel, ces conversations apparaissent désormais dans les résultats de recherche, révélant des informations sensibles allant de troubles de santé mentale à des détails familiaux très privés.
Le phénomène concerne les conversations pour lesquelles les utilisateurs ont cliqué sur le bouton “Partager”, générant un lien URL. Si cette fonction est explicitement conçue pour permettre le partage volontaire, rien ne laisse penser aux utilisateurs qu’elle pourrait rendre leurs échanges accessibles à l’ensemble du web. Or, une simple recherche “site:” sur Google avec une partie de ce lien permet d’accéder à près de 4 500 conversations, certaines contenant des récits de traumatismes, d’abus, de dépendances ou de troubles psychologiques.
Bien que ChatGPT ne publie jamais de nom ou d’adresse de ses utilisateurs, beaucoup se dévoilent eux-mêmes dans leurs textes, croyant leurs messages confinés à un cercle restreint. “C’est choquant”, réagit Carissa Véliz, spécialiste de l’éthique de l’IA à l’Université d’Oxford. “Même en sachant que ces données ne sont pas privées, on ne s’attend pas à ce qu’elles soient aussi facilement accessibles par une simple recherche.”
La situation est d’autant plus préoccupante que près de la moitié des Américains, selon un sondage, déclarent avoir eu recours à des modèles de langage comme ChatGPT pour du soutien psychologique au cours de l’année écoulée. Un quart ont sollicité de l’aide pour l’anxiété, deux tiers pour des problèmes personnels, et plus de la moitié pour des symptômes dépressifs. Contrairement à une consultation avec un professionnel de santé, ces échanges, pensés comme confidentiels, peuvent être retrouvés publiquement sans que l’utilisateur en ait conscience.
OpenAI, éditeur de ChatGPT, précise que les liens partagés ne sont pas indexés par défaut et que les utilisateurs sont avertis de ne pas inclure de données sensibles. Les liens peuvent également être supprimés à tout moment. Toutefois, ni OpenAI ni Google n’ont répondu aux sollicitations des médias concernant ce phénomène.
Des cas similaires ont été observés avec d'autres chatbots, notamment ceux de Meta, où les questions des utilisateurs se sont retrouvées dans des fils publics sans qu’ils ne le sachent pleinement. Les experts en sécurité numérique dénoncent un manque de pédagogie de la part des plateformes, et un écart croissant entre la compréhension des fonctionnalités par les usagers et leur fonctionnement réel.
Le PDG d’OpenAI, Sam Altman, a lui-même récemment reconnu les limites de la confidentialité sur ses outils. Il a averti que les informations saisies dans ChatGPT pourraient être divulguées si la justice l’exigeait. “C’est profondément dérangeant”, a-t-il confié lors d’un entretien avec le podcasteur Theo Von.
Pour Rachel Tobac, analyste en cybersécurité, l’affaire souligne un problème plus large : “Les utilisateurs croient pouvoir utiliser ChatGPT en toute confidentialité. Mais la réalité, c’est que beaucoup ignorent que certaines fonctionnalités peuvent involontairement divulguer leurs histoires les plus personnelles.”
Dans un contexte de généralisation de l’IA dans les usages quotidiens, cet épisode soulève une question urgente : jusqu’où va réellement la confidentialité des échanges dans un monde numérique où le partage est un simple clic ?