
Alors que l’engouement pour l’intelligence artificielle ne cesse de croître, les entreprises adoptent de plus en plus les technologies d’IA. Cependant, cet essor des applications de l’IA soulève de sérieuses inquiétudes quant à ses implications éthiques. Un incident récent impliquant des chercheurs d’une université prestigieuse a suscité un vif débat, compte tenu de la manière non autorisée et potentiellement contraire à l’éthique dont ils ont mené une expérience d’IA sur Reddit. De tels incidents soulignent l’urgence de mesures plus strictes pour garantir la transparence et protéger la vie privée des utilisateurs dans les applications d’IA.
Une expérience d’IA contraire à l’éthique sur Reddit soulève des inquiétudes éthiques
L’introduction de l’IA dans divers secteurs a suscité une appréhension croissante quant aux considérations éthiques. Une récente expérience clandestine menée par une équipe de recherche de l’Université de Zurich a suscité la controverse, principalement en raison de son absence de consentement des utilisateurs et de son manque d’intégrité éthique. Cette initiative impliquait le déploiement de robots IA sur le subreddit « Change My View », afin d’évaluer l’influence de l’IA sur les opinions des utilisateurs.
Dans leur expérience, les chercheurs ont développé des modèles linguistiques avancés se faisant passer pour différentes personnalités, notamment des thérapeutes spécialisés en traumatismes et des victimes de maltraitance. Leur objectif était d’explorer comment ces interactions pilotées par l’IA pouvaient influencer les perspectives humaines. Les robots analysaient les réponses précédentes des utilisateurs pour générer des réponses personnalisées, tandis que les participants ignoraient la véritable nature de ces interactions, soulevant d’importantes questions éthiques quant à la manipulation psychologique.
Ce n’est qu’après la conclusion de l’expérience que l’Université de Zurich a informé les modérateurs du subreddit de la violation des règles de la communauté, reconnaissant avoir utilisé des robots IA sans les divulgations nécessaires. Cet aveu a suscité de vives réactions, car beaucoup ont considéré l’étude dans son ensemble comme fondamentalement contraire à l’éthique. Voici un extrait de leur reconnaissance officielle :
Au cours des derniers mois, nous avons utilisé plusieurs comptes pour publier sur CMV. Notre expérience a évalué la force de persuasion de LLM dans un contexte éthique, où les participants sollicitent des arguments contre leurs opinions. Lors des commentaires, nous n’avons pas indiqué qu’une IA avait été utilisée pour rédiger les commentaires, car cela aurait rendu l’étude irréalisable. Bien que nous n’ayons rédigé aucun commentaire nous-mêmes, nous avons vérifié manuellement chaque commentaire publié afin de nous assurer qu’il n’était pas préjudiciable. Nous reconnaissons que notre expérience a enfreint les règles de la communauté interdisant les commentaires générés par l’IA et nous nous en excusons. Nous estimons toutefois qu’étant donné l’importance sociétale de ce sujet, il était crucial de mener une telle étude, même si cela impliquait de désobéir à ces règles.
Bien que les chercheurs aient reconnu leur manquement à l’éthique, ils ont défendu leurs actions en arguant que l’expérience avait une importance sociétale significative. L’utilisation de personnages chargés d’émotion et potentiellement dangereux soulève de sérieuses inquiétudes, non seulement quant à la nature des interactions, mais aussi quant à l’impact psychologique sur les personnes qui croyaient participer à des conversations authentiques.
Les modérateurs de la plateforme ont rapidement condamné les actions des chercheurs, jugeant l’expérience comme une grave violation éthique. Ils ont comparé cette violation à des études menées de manière éthique, comme celles d’OpenAI, qui ont réussi à explorer des dynamiques d’influence similaires sans recourir à la tromperie. Les méthodes des chercheurs ont franchi des limites éthiques importantes, soumettant des individus à une expérience à laquelle ils n’avaient pas consenti, aggravant encore la situation.
Alors que le débat autour des pratiques éthiques en matière d’IA continue d’évoluer, cet incident constitue un rappel crucial de l’importance de maintenir la transparence et le respect de l’autonomie des utilisateurs dans la recherche en IA.
Laisser un commentaire