Sam Altman met en garde : ChatGPT n’est pas un thérapeute ; vos conversations confidentielles peuvent être utilisées contre vous devant un tribunal sans garanties légales.

Sam Altman met en garde : ChatGPT n’est pas un thérapeute ; vos conversations confidentielles peuvent être utilisées contre vous devant un tribunal sans garanties légales.

Face à l’augmentation du recours aux outils d’IA, de nombreux utilisateurs se tournent vers ces plateformes pour obtenir une assistance variée, notamment des conseils médicaux, un soutien personnel et des conseils professionnels. Cette tendance a transformé les chatbots IA en assistants personnels virtuels sur lesquels de nombreuses personnes comptent pour leurs tâches quotidiennes. Cependant, cette dépendance croissante suscite des inquiétudes quant à une dépendance excessive, notamment en ce qui concerne la confidentialité et la sécurité des informations sensibles partagées sur ces plateformes. Récemment, Sam Altman, PDG d’OpenAI, a exhorté les utilisateurs à la prudence lorsqu’ils utilisent l’IA à des fins personnelles, mettant en garde contre la divulgation d’informations très personnelles sans précautions.

Sam Altman met en garde : ChatGPT manque de confidentialité entre le thérapeute et son client

Les technologies d’IA progressent rapidement, offrant une intelligence émotionnelle et des capacités conversationnelles améliorées. Par conséquent, de plus en plus de personnes utilisent des chatbots pour une assistance thérapeutique ou émotionnelle. Contrairement à la thérapie conventionnelle, qui privilégie la confidentialité des patients, l’IA ne dispose pas d’un cadre juridique garantissant la protection des échanges sensibles. C’est un point d’inquiétude soulevé par Sam Altman lors de sa récente intervention dans le podcast « This Past Weekend » avec Theo Van, rapporté par TechCrunch. Il a mis en garde contre le recours à un soutien émotionnel par l’IA pour des problèmes personnels graves.

Au cours de la discussion, Altman a reconnu la réactivité émotionnelle croissante des outils d’IA, ce qui peut créer une illusion de confidentialité pour les utilisateurs. Cependant, il a fortement déconseillé de recourir à l’IA pour un accompagnement thérapeutique. La différence fondamentale entre l’IA et les services professionnels de santé mentale réside dans les protections juridiques structurées de ces derniers. En attendant l’établissement d’une réglementation appropriée, Altman a exhorté les utilisateurs à considérer les outils d’IA comme des ressources complémentaires plutôt que substitutives aux thérapies traditionnelles. Il a exprimé ses inquiétudes quant aux implications d’une utilisation de l’IA comme une confidente :

Les gens parlent de leurs problèmes les plus personnels sur ChatGPT. Ils l’utilisent, surtout les jeunes, comme thérapeute et coach de vie ; ils rencontrent des problèmes relationnels et se demandent : « Que faire ? » Et actuellement, si vous parlez de ces problèmes à un thérapeute, à un avocat ou à un médecin, vous êtes protégé par le secret professionnel. Il y a le secret professionnel, le secret professionnel, etc. Et nous n’avons pas encore défini ce que vous devez savoir sur ChatGPT.

Compte tenu de l’absence de confidentialité juridique entourant les interactions avec l’IA, Altman recommande une utilisation prudente de ces outils, notamment dans les situations sensibles. Par exemple, en cas de litige, OpenAI pourrait être contraint de divulguer des conversations, ce qui entraînerait une atteinte à la vie privée. Altman a exprimé le souhait que l’IA bénéficie à terme de protections similaires, tout en déplorant que les progrès technologiques aient dépassé la mise en place des cadres juridiques nécessaires.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *