Les paramètres par défaut comme nouveau consentement : l’exploitation de la lassitude des désabonnements par les géants de la technologie pour la formation de l’IA

Les paramètres par défaut comme nouveau consentement : l’exploitation de la lassitude des désabonnements par les géants de la technologie pour la formation de l’IA

Dans un paysage technologique en constante évolution, les mises à jour fréquentes des politiques de confidentialité des entreprises technologiques deviennent monnaie courante. Un thème récurrent de ces révisions est le suivant : « Nous utilisons vos données pour entraîner l’IA, sauf si vous décidez de nous en empêcher.» Cette situation ne reflète pas un véritable consentement, mais plutôt un sentiment généralisé de lassitude numérique, où les utilisateurs se sentent dépassés par la nécessité de protéger leurs données.

Ce phénomène, souvent qualifié de « fatigue de l’opt-out », met en lumière un enjeu crucial des droits numériques dans l’environnement virtuel actuel. Les utilisateurs sont désormais tenus non seulement de naviguer sur Internet, mais aussi de protéger leurs informations personnelles contre toute utilisation par les systèmes d’IA.

Le passage aux options d’adhésion par défaut : une nouvelle norme

L’essor des technologies d’IA générative a contraint les entreprises à accumuler de vastes données utilisateurs pour l’entraînement de leurs modèles. Initialement, les utilisateurs avaient le choix de participer, mais cette pratique est devenue la norme par défaut. La tendance a évolué vers la normalisation d’un environnement où le consentement est présumé et où la contestation exige des efforts.

Option d'acceptation par défaut pour la confidentialité de l'IA

Par exemple, LinkedIn intègre par défaut le contenu généré par les utilisateurs, comme les publications, les commentaires et les profils, à son entraînement d’IA, donnant ainsi accès à une multitude de données sans consentement explicite, malgré les garanties d’anonymat. Les utilisateurs peuvent refuser, mais cela nécessite de naviguer dans plusieurs menus, un processus qui suppose le consentement préalable.

De même, les modèles Llama de Meta utilisent automatiquement le contenu public de Facebook et d’Instagram, allant même jusqu’à influencer la publicité ciblée, les utilisateurs devant souvent supprimer des fils de discussion entiers comme solution de contournement pour préserver la confidentialité.

Le projet Gemini de Google permet également à l’IA d’accéder à l’historique YouTube et aux requêtes de recherche, à moins que les utilisateurs ne modifient proactivement leurs paramètres de confidentialité. L’analyse de la manière dont Google encadre le partage des Gemmes Gemini met en lumière le principe sous-jacent du consentement qui privilégie l’accès aux données.

De plus, le chatbot Claude d’Anthropic a récemment mis à jour ses politiques pour conserver les conversations des utilisateurs jusqu’à cinq ans à des fins de formation, ce qui nécessite une option de retrait pour ceux qui souhaitent éviter cette conservation de données.

Cette tendance est intentionnelle et reflète une stratégie plus large dans laquelle les entreprises privilégient le flux fluide de données, profitant du fait que la plupart des utilisateurs ne remarquent pas ces changements et que ceux qui le font manquent souvent de temps ou d’envie d’agir.

Pour compliquer encore les choses, les réglementations en vigueur en matière de confidentialité dans de nombreuses régions ont été principalement conçues pour traiter les cookies et les pratiques publicitaires, laissant aux entreprises une marge de manœuvre pour établir ces paramètres de désactivation par défaut tout en restant en avance sur les cadres réglementaires.

Les lacunes des systèmes actuels d’opt-out

Le concept de choix en matière de confidentialité en ligne est devenu de plus en plus illusoire. Bien que les utilisateurs disposent techniquement du droit de refuser, rares sont ceux qui le font réellement, principalement en raison d’une lassitude face au consentement. La multitude de choix et de mises à jour de politiques submerge souvent les individus, ce qui les paralyse dans leur prise de décision.

Les entreprises d’IA exploitent cette lassitude en créant une multitude de fenêtres contextuelles déroutantes qui atténuent l’impact des notifications « Nous avons mis à jour notre politique de confidentialité ».Ainsi, cliquer sur « Accepter » est passé d’une décision consciente à un réflexe automatique.

Cliquez sur Accepter par habitude

Selon une étude de Pew Research de 2023, près de 80 % des Américains renoncent à lire les politiques de confidentialité en raison de leur complexité et du temps qu’elles prennent. Les entreprises sont bien conscientes de ce problème et adaptent leurs politiques en conséquence.

Nous l’avons tous vécu : parcourir des termes que nous savons devoir examiner de plus près. Ces entreprises n’ont pas besoin de tromperie ; la lassitude des utilisateurs atteint tout aussi efficacement leurs objectifs, en faisant peser la responsabilité de la confidentialité sur les individus. Les utilisateurs doivent explorer des paramètres complexes pour recouvrer leurs droits en matière de données.

Dans le cas de Claude, même après désactivation, les données passées restent stockées pendant des années, tandis que les paramètres de confidentialité de Google peuvent supprimer l’historique uniquement après désactivation de l’utilisateur, l’obligeant à choisir entre préserver l’utilité ou garantir la confidentialité. Ce dilemme se retrouve sur diverses plateformes.

Qui en profite réellement ?

Le débat actuel sur la confidentialité des données d’IA n’est pas seulement une bataille pour la confidentialité des utilisateurs ; c’est aussi une compétition pour le gain financier et l’influence. Les entreprises d’IA profitent grandement des systèmes existants de consommation de données.

Les entreprises d'IA profitent de vos données

Selon les projections, le marché mondial de l’IA devrait passer de 638 milliards de dollars en 2024 à 1, 8 billion de dollars en 2030, alimenté en grande partie par les données des utilisateurs qui permettent la formation des modèles sans coûts de licence supplémentaires, selon Semrush et Statista.

Des technologies comme l’intégration de LinkedIn avec Azure et OpenAI, les vastes projets d’IA de Meta et Gemini de Google reposent toutes sur la collecte continue de vastes quantités de données à des fins d’amélioration. Plus le contenu généré par les utilisateurs est important, plus ces systèmes deviennent rentables.

Ce modèle garantit essentiellement un flux continu de données ; les utilisateurs servent de main-d’œuvre non rémunérée qui fournit du matériel de formation gratuit, permettant aux entreprises de monétiser ces informations dans des produits visant à optimiser ou à remplacer les rôles humains.

En fin de compte, ce scénario favorise un environnement monopolistique dans lequel les petites entités d’IA ont du mal à concurrencer ces géants riches en données.

Le résultat est évident : les grandes entreprises d’IA créent un cercle vicieux où les solutions d’IA améliorées attirent davantage d’utilisateurs, ce qui entraîne une augmentation de la production de données. Pendant ce temps, les utilisateurs quotidiens bénéficient peu des fonctionnalités améliorées, au détriment de leur vie privée et du contrôle de leurs données personnelles.

Malgré ces difficultés, les utilisateurs conservent leur autonomie. Partout en Europe, des défenseurs de la vie privée déposent des plaintes en vertu du RGPD contre les pratiques non autorisées en matière de données d’IA.L’article 21 du RGPD permet aux individus de s’opposer au traitement de leurs données personnelles, et des milliers de personnes commencent à invoquer ce droit.

Des lois comparables sur la confidentialité sont déjà pleinement en vigueur dans des régions comme l’Inde avec le DPDP Act, le PIPL chinois et le Consumer Privacy Act californien, tous visant à limiter les mécanismes d’approvisionnement et de traitement des données utilisés pour l’IA, ainsi que des amendes allant jusqu’à 4 % du chiffre d’affaires mondial pour les violations.

Dans les régions où la législation sur la protection de la vie privée est à la traîne, la vigilance est essentielle. L’adoption de mesures proactives, comme l’utilisation d’outils de navigation améliorant la confidentialité et la désactivation des recommandations d’IA, peut faire toute la différence.

Désactivez immédiatement les fonctionnalités d’entraînement de l’IA, ajustez les configurations de Meta, dissociez l’option « Améliorer le modèle pour tous » de ChatGPT et ajustez les paramètres de confidentialité de Copilot. Il est également conseillé de supprimer les anciennes conversations pour limiter leur exposition potentielle et d’utiliser les modes temporaires lors du traitement d’informations sensibles.

Le point essentiel à retenir est que l’action collective peut entraîner des changements substantiels. Si les utilisateurs s’unissent pour refuser et exprimer leur désaccord, les entreprises technologiques seront contraintes de rechercher un véritable consentement au lieu de le présumer.

Défendre la cause de l’adhésion volontaire

Cependant, la vigilance individuelle ne suffira pas. Un changement de paradigme vers l’adhésion volontaire doit devenir la norme. Cela permettrait de limiter les excès des entreprises et de restaurer la confiance.

L’adoption d’un consentement explicite et éclairé permettrait aux utilisateurs de décider volontairement du partage de données. Réduire la facilité d’accumulation de données dissuaderait les pratiques contraires à l’éthique et encouragerait des méthodes d’approvisionnement en données éthiques, comme les jeux de données sous licence.

La mise en œuvre de préférences d’adhésion ne freinerait pas l’innovation ; au contraire, elle pourrait favoriser les avancées technologiques visant à renforcer la confidentialité, comme l’anonymisation, afin d’attirer les utilisateurs partageant des données. Par exemple, le chatbot Lumo de Proton illustre parfaitement ces pratiques innovantes.

Bien que je ne sois pas opposé aux développements de l’IA – en tant qu’auteur spécialisé dans les technologies, je m’intéresse constamment à ces sujets – je défends la nécessité du choix. L’accent ne doit pas être mis sur l’exploitation de la vie privée, mais plutôt sur son respect par une véritable innovation.

Donner du pouvoir aux utilisateurs grâce à la sensibilisation

Une politique d’acceptation par défaut n’est pas seulement une question de commodité ; elle représente une quête de contrôle. Le débat actuel sur la confidentialité des données d’IA représente une lutte importante pour la propriété de nos identités numériques, plutôt qu’une simple discussion technique.

L’émergence de la lassitude envers l’opt-out illustre comment les géants de la technologie instrumentalisent l’épuisement des utilisateurs. Leur victoire réside dans le fait que les utilisateurs cessent de rechercher le contrôle. Par conséquent, nous devons rester déterminés et ne pas abandonner notre pouvoir.

Accepter un consentement tacite ne fait que faciliter leur capacité à agir sans notre accord. Nous devons donc rester vigilants et exiger que la confidentialité des données soit une priorité.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *