
Une étude révèle la capacité humaine limitée à distinguer les images générées par l’IA
Une étude récente menée par Microsoft AI for Good a impliqué plus de 12 500 participants du monde entier, qui ont évalué environ 287 000 images. Les résultats ont révélé un taux de réussite inquiétant de seulement 62 % pour distinguer les images générées par l’IA des images réelles. Cette statistique souligne les défis auxquels les humains sont confrontés pour identifier avec précision le contenu artificiel, en particulier dans un contexte de sophistication technologique croissante.
Informations sur la reconnaissance des types d’images
Les participants ont démontré une grande aptitude à identifier les portraits humains générés par l’IA. Cependant, leurs performances ont considérablement diminué lorsqu’il s’agissait de distinguer les paysages artificiels des paysages naturels ou urbains réels, où les taux de réussite ont chuté entre 59 % et 61 %.Ces résultats soulignent les obstacles à surmonter pour reconnaître les images générées par l’IA dépourvues d’artefacts manifestes ou d’incohérences stylistiques.
Conception et méthodologie de l’expérience
Dans le cadre de cette vaste enquête, l’équipe de recherche a conçu un questionnaire intitulé « Vrai ou pas », dans lequel les participants se voyaient présenter des images créées par l’IA, représentatives de celles susceptibles d’être rencontrées en ligne. Les chercheurs ont notamment pris soin d’éviter de sélectionner des images trop trompeuses.
Appels à des mesures de transparence améliorées
À la lumière de ces résultats, Microsoft préconise la mise en œuvre de mesures de transparence telles que les filigranes et des outils avancés de détection de l’IA. Ces efforts visent à atténuer les risques de désinformation liés aux images générées par l’IA. Par ailleurs, le géant technologique a lancé des initiatives visant à sensibiliser à la désinformation liée à l’IA.
Les outils de détection de l’IA surpassent le jugement humain
Il est intéressant de noter que les chercheurs ont utilisé leur propre outil de détection par IA, qui a atteint un taux de précision impressionnant de plus de 95 % sur différentes catégories d’images. Ce résultat indique que si l’IA peut améliorer considérablement les capacités de détection d’images, elle n’est pas infaillible.
La vulnérabilité des filigranes
Il est essentiel de reconnaître que même avec des filigranes visibles, des individus malveillants peuvent facilement manipuler ou recadrer ces identifiants, facilitant ainsi la diffusion de contenus trompeurs.
Comprendre les défis de la détection
Les chercheurs supposent que les humains excellent dans la détection des visages générés par l’IA grâce à notre affinité naturelle pour la reconnaissance faciale et notre capacité à discerner les anomalies. Curieusement, les anciens réseaux antagonistes génératifs (GAN) et les techniques de retouche produisent souvent des images imitant la photographie amateur, qui peuvent être plus difficiles à identifier comme synthétiques que celles créées par des modèles avancés comme Midjourney et DALL-E 3.
Les risques des techniques de retouche
L’inpainting, une méthode qui remplace des éléments de photographies réelles par du contenu généré par l’IA, pose des défis considérables en termes de détection de falsification et augmente le risque de campagnes de désinformation, comme l’a indiqué Microsoft.
Conclusion : un appel à la vigilance technologique
Cette étude illustre de manière frappante la vulnérabilité des humains à la tromperie de l’intelligence artificielle. Elle rappelle de manière cruciale l’urgence pour les entreprises technologiques d’améliorer leurs outils et leurs méthodologies afin de contrer la propagation malveillante d’images trompeuses.
Source : ArXiv | Image via Depositphotos.com
Laisser un commentaire