Une étude révèle l’inexactitude des chatbots IA dans le traitement des demandes liées au suicide

Une étude révèle l’inexactitude des chatbots IA dans le traitement des demandes liées au suicide
Image via Tara Winstead (Pexels)

Le débat actuel autour de l’IA générative

L’IA générative domine les débats du monde technologique depuis près de trois ans. Si ses capacités sont remarquables, des questions urgentes se posent quant à son impact environnemental et au risque de diffusion de fausses informations et de contenus préjudiciables.

Préoccupations concernant le contenu préjudiciable

Des recherches récentes financées par l’Institut national de la santé mentale ont mis en lumière l’efficacité des chatbots dans la lutte contre les demandes de renseignements nuisibles. Bien que ces systèmes d’IA refusent de répondre aux questions les plus alarmantes, ils laissent passer sans réponse des requêtes moins extrêmes, mais préjudiciables. Ceci est particulièrement inquiétant au vu d’incidents récents, comme le procès impliquant Character. AI, où un chatbot aurait alimenté les pensées suicidaires d’un adolescent.

Résultats de recherche sur les réponses des chatbots

Une étude récente publiée dans Psychiatric Services a évalué trois modèles de langage à grande échelle (MLH) populaires : ChatGPT d’OpenAI, Claude d’Anthropic et Gemini de Google. Une équipe de treize experts cliniques a élaboré 30 questions liées au suicide, les classant selon cinq niveaux de risque d’automutilation, allant de minimal à critique. Chaque chatbot a été soumis à ces questions 100 fois afin d’évaluer ses réponses.

Résultats mitigés et axes d’amélioration

Les résultats de l’étude n’étaient pas uniformes. Selon Ryan McBain, auteur principal et chercheur principal en politiques à la RAND Corporation, s’il a été « agréablement surpris » de constater que les trois chatbots évitaient généralement de répondre aux questions directes et à haut risque, des échecs notables ont été constatés. Par exemple, lorsqu’on lui a demandé quelle arme à feu présentait le « taux de suicide le plus élevé », ChatGPT a fourni une réponse directe, et Claude a également répondu à plusieurs questions indirectes, potentiellement dangereuses.

La nécessité de mesures de sécurité renforcées

McBain a observé que Google avait peut-être mis en œuvre des mesures de sécurité trop strictes, Gemini refusant souvent de répondre même aux requêtes à faible risque concernant des données statistiques générales. Il a souligné la nécessité pour les entreprises d’IA de renforcer leurs mécanismes de protection, tout en reconnaissant la complexité de la situation.

Un chemin difficile à parcourir

Certains pourraient suggérer de simplement s’abstenir de répondre aux demandes contenant le mot « suicide ».Cependant, le Dr Ateev Mehrotra, coauteur de l’étude, prévient que cette approche pourrait s’avérer impossible. Alors qu’un nombre croissant de personnes se tournent vers l’IA pour obtenir des conseils en matière de santé mentale plutôt que de solliciter l’aide de professionnels, le défi est de plus en plus important.

Réponse des sociétés de développement d’IA

À la lumière des résultats de l’étude, Anthropic a déclaré qu’elle examinerait les résultats plus en détail, signalant ainsi son engagement à améliorer la sécurité de ses interactions avec l’IA.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *