Apple fait face à une réaction négative à cause d’une erreur de notification de l’IA
Apple a récemment fait l’objet d’une attention particulière en raison des erreurs générées par sa fonction Apple Intelligence. Introduite avec les dernières mises à jour d’iOS 18.1, d’iPadOS 18.1 et de macOS Sequoia 15.1, cet outil basé sur l’IA offre des fonctionnalités telles que des résumés de notifications, des requêtes Siri personnalisées, un outil d’organisation de photos, des résumés d’e-mails et la possibilité de créer des émojis personnalisés via Genmoji. L’une de ses fonctionnalités les plus remarquables est la reconnaissance d’image avancée sur l’iPhone 16, qui améliore l’interaction avec l’utilisateur.
Aperçu de l’incident : une notification inquiétante
La controverse a éclaté lorsque Apple Intelligence a fourni un résumé de notification de l’application BBC News qui contenait une grave erreur. L’IA a indiqué que Luigi Mangione s’était tiré une balle dans la tête, une affirmation catégoriquement fausse. La mauvaise interprétation des titres de l’actualité a suscité des inquiétudes quant à la fiabilité de l’IA dans la transmission d’informations critiques.
Contexte de l’erreur
Cet incident est particulièrement troublant compte tenu du contexte dans lequel il s’est déroulé. Plus tôt ce mois-ci, Brian Thompson, PDG d’UnitedHealthcare, a été tragiquement tué et son agresseur présumé, Luigi Mangione, a été arrêté. L’implication de Mangione a fait l’objet d’une couverture médiatique, mais le système de renseignement d’Apple a confondu les détails par erreur, ce qui a donné lieu à un résumé très trompeur qui pourrait susciter la confusion et l’anxiété chez les utilisateurs.
Réponse et implications
Les conséquences de cette erreur ne se sont pas fait attendre. La BBC a déposé plainte auprès d’Apple, ce qui a incité Reporters sans frontières (RSF), une organisation de défense des droits de l’homme, à demander la désactivation de la fonction de notification d’Apple Intelligence. RSF a souligné cet incident comme un parfait exemple des lacunes de l’intelligence artificielle dans le traitement précis des informations sensibles. Elle a déclaré :
Cet accident met en évidence l’incapacité des systèmes d’IA à publier systématiquement des informations de qualité, même lorsqu’elles s’appuient sur des sources journalistiques. Le mode de fonctionnement probabiliste des systèmes d’IA les disqualifie automatiquement en tant que technologie fiable pour les médias d’information pouvant être utilisée dans des solutions destinées au grand public.
Questions plus vastes liées à l’IA
Il ne s’agit pas d’un cas isolé dans le domaine de l’intelligence artificielle. Plus tôt cette année, le chatbot Gemini de Google a été critiqué pour avoir généré des images controversées qui réimaginaient des personnages historiques de manière inappropriée. En réponse à ces problèmes, Google a temporairement suspendu la capacité de générer des images d’individus dans Gemini, reconnaissant avoir « raté son objectif ».
Laisser un commentaire