
ChatGPT, outil de plus en plus incontournable, est de plus en plus utilisé par de nombreuses personnes, non seulement pour des tâches quotidiennes, mais aussi pour des questions personnelles et sensibles. Des cas ont été observés où cette dépendance a eu de graves conséquences, comme des divorces suite à la révélation involontaire d’infidélités grâce aux informations fournies par l’IA. Fait alarmant, certaines personnes ont même sollicité un soutien thérapeutique auprès du chatbot, ce que Sam Altman a explicitement mis en garde. Récemment, un incident troublant a mis en lumière les risques liés à l’utilisation de l’IA pour des conseils de santé. Un New-Yorkais de 60 ans aurait développé une maladie rare et dangereuse en suivant les recommandations alimentaires fournies par ChatGPT.
Les dangers cachés de l’IA Conseils de santé : le bromisme et le substitut de sel qui est allé trop loin
Des discussions en cours mettent en garde contre une dépendance excessive aux systèmes d’IA. Une récente alerte, publiée dans une revue médicale américaine, déconseille expressément de consulter ChatGPT. Cet avertissement fait suite à un grave incident de santé impliquant un homme tombé malade après avoir suivi les conseils diététiques du chatbot, comme l’a rapporté NBC News. Une étude de cas approfondie, publiée dans les Annals of Internal Medicine, relate comment cet homme a développé un bromisme, une forme d’intoxication au bromure, après avoir suivi les conseils de l’IA.
L’homme a fait l’erreur de remplacer le sel de table (chlorure de sodium) par du bromure de sodium, un produit chimique découvert en ligne. Après avoir consulté ChatGPT pour trouver une alternative au sel, il a été amené à croire que le bromure de sodium était un choix plus sain. Pendant trois mois, il a consommé quotidiennement cette substance toxique, ce qui a entraîné de graves complications de santé, telles que paranoïa, insomnie et psychose. Il a même cru à un moment qu’un voisin tentait de l’empoisonner.
Lors de son hospitalisation, les professionnels de santé ont diagnostiqué un bromisme, une affection due à une exposition excessive au bromure. Heureusement, après l’arrêt de la consommation de bromure et un traitement approprié, son état a commencé à s’améliorer. Si les cas de bromisme sont rares aujourd’hui en raison de la faible consommation de sels de bromure, cet incident souligne les dangers potentiels de l’obtention de substances en ligne sans réglementation adéquate.
L’expérience de cet homme nous rappelle l’importance de la prudence lors de l’utilisation de l’IA pour des questions de santé. Des chercheurs ont vérifié si ChatGPT identifiait correctement le bromure comme un substitut du sel et ont confirmé qu’il le faisait sans émettre d’avertissement quant à sa toxicité potentielle. Un tel manque de prudence est particulièrement inquiétant, car l’IA ne peut reproduire l’expertise et la responsabilité des professionnels de santé.
Au vu de ces événements, il est évident que les modèles d’IA doivent être dotés de mesures de sécurité plus robustes, notamment pour les questions de santé sensibles.À notre époque, caractérisée par une pléthore d’outils d’IA, il est essentiel de concilier curiosité et prudence, et que le recours à l’IA ne remplace jamais l’avis médical d’un professionnel.
Laisser un commentaire