
De récentes révélations ont montré que les entreprises d’intelligence artificielle, comme OpenAI, sont confrontées à des défis majeurs en matière de protection de la vie privée des utilisateurs. Une découverte alarmante a été faite : des individus peuvent accéder à des conversations privées, notamment depuis ChatGPT, via de simples recherches Google, exposant potentiellement plus de 100 000 conversations. Les efforts d’OpenAI pour supprimer ces journaux de conversation n’ont pas encore donné de résultats concrets, ce qui soulève de sérieuses inquiétudes quant à la confidentialité des interactions avec l’IA.
Accéder aux conversations ChatGPT via Wayback Machine
Pour ceux qui ne le connaissent pas, Wayback Machine, une archive Internet, est devenue un point central du débat actuel sur la confidentialité. Alors qu’OpenAI travaillerait apparemment à la désindexation des conversations ChatGPT de Google, de nombreuses conversations restent accessibles via Wayback Machine d’Archive.org. Cela représente un scénario inquiétant, non seulement pour les utilisateurs préoccupés par les atteintes à la vie privée, mais aussi pour OpenAI elle-même, dont la réputation pourrait être entachée.
Lors d’une récente enquête sur les demandes de suppression d’URL associées à ChatGPT, Mark Graham, directeur de Wayback Machine, a confirmé qu’OpenAI n’avait formulé aucune demande de ce type. Il a fait remarquer :
Je peux/vais vous dire que nous n’avons reçu ni honoré aucune demande d’exclusion (à grande échelle) des URL « chatgpt.com/share ».Si OpenAI, détenteur des droits sur le contenu du domaine chatgpt.com, demandait l’exclusion des URL du format « chatgpt.com », nous accéderions probablement à cette demande. Cependant, une telle demande n’a pas été formulée.
La Wayback Machine fonctionne en créant des « instantanés » de pages web accessibles au public à différents moments. Cela signifie que même si OpenAI parvient à supprimer du contenu spécifique de Google, ces versions archivées resteront accessibles, sauf suppression volontaire. Les utilisateurs avertis peuvent consulter les archives pour consulter ces conversations, qui peuvent être triviales, très intéressantes ou controversées. Par souci de confidentialité, nous nous abstiendrons de détailler ces conversations.

Actuellement, des journaux de discussion similaires provenant de Grok, un autre modèle d’IA, sont facilement repérables via les recherches Google, ce qui indique que ce problème ne se limite pas à ChatGPT. Ce phénomène souligne les préoccupations urgentes en matière de confidentialité auxquelles les utilisateurs doivent faire face lorsqu’ils interagissent avec des robots IA. De plus, il soulève le risque que ces journaux de discussion soient utilisés dans des contextes juridiques. Il est donc recommandé aux utilisateurs de faire preuve de prudence lorsqu’ils interagissent avec des plateformes d’IA en ligne.
Laisser un commentaire