Un chercheur en désinformation affirme utiliser ChatGPT pour les citations, mais nie avoir connaissance des « hallucinations » de l’IA ajoutant de fausses informations

Un chercheur en désinformation affirme utiliser ChatGPT pour les citations, mais nie avoir connaissance des « hallucinations » de l’IA ajoutant de fausses informations

À mesure que la technologie de l’intelligence artificielle (IA) continue d’évoluer, les méthodes de rédaction et de présentation des communications écrites subissent une transformation importante. Cependant, la dépendance croissante à l’égard de l’IA pour le développement de contenu a introduit de nouveaux défis. Un incident récent impliquant un expert en désinformation démontre la complexité associée à l’utilisation de textes générés par l’IA. Cet individu a fait l’objet de critiques après avoir utilisé l’IA pour préparer un document juridique, qui comprenait de manière trompeuse des citations fabriquées. Ironiquement, ce dossier juridique visait à s’opposer à l’utilisation de documents générés par l’IA qui pourraient induire en erreur les électeurs avant les élections.

Les pièges imprévus de l’IA selon un expert en désinformation

Jeff Hancock, professeur à l’université de Stanford et expert reconnu en matière de désinformation, a déposé une déclaration sous serment en faveur d’une loi du Minnesota visant à interdire les technologies de deep fake susceptibles de fausser les résultats des élections. Malheureusement, la déclaration sous serment destinée à lutter contre l’influence de l’IA sur les électeurs contenait également des inexactitudes de la part de l’IA, ce qui porte atteinte à la fiabilité de ses affirmations.

Dans une déclaration ultérieure, Hancock a reconnu avoir utilisé ChatGPT-4o pour organiser les citations. Il a cependant affirmé ne pas savoir que cet outil pouvait générer de fausses informations ou références. Hancock a souligné qu’il n’avait pas utilisé l’outil d’IA pour rédiger le contenu principal du document et a décrit les erreurs de citation comme involontaires.

« J’ai rédigé et révisé le contenu de la déclaration, et je soutiens fermement chacune des affirmations qui y sont formulées, qui sont toutes étayées par les recherches universitaires les plus récentes dans le domaine et reflètent mon opinion d’expert concernant l’impact de la technologie de l’IA sur la désinformation et ses effets sociétaux. »

Hancock a expliqué qu’il avait utilisé Google Scholar et GPT-4o pour compiler la liste des citations, mais a réitéré que l’IA n’avait pas été utilisée pour créer les principaux arguments du document. Il a admis en toute franchise qu’il n’était pas familier avec le concept d’« hallucinations » de l’IA, ce qui a donné lieu à des citations erronées. Malgré cela, Hancock est resté fidèle aux points de fond énoncés dans la déclaration, insistant sur le fait que ceux-ci ne devraient pas être éclipsés par des erreurs de citation liées à l’IA.

« Je n’avais pas l’intention d’induire en erreur la Cour ou les avocats. Je regrette sincèrement la confusion que cela a pu causer. Cela dit, je maintiens fermement tous les points de fond de la déclaration. »

Les implications de l’expérience de Hancock soulèvent des questions cruciales sur l’utilisation des outils d’IA dans le domaine juridique. Bien que son explication puisse être prise en considération par le tribunal, cet incident souligne les risques inhérents à l’intégration de l’IA dans des contextes formels.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *