
Nel panorama tecnologico in rapida evoluzione, i frequenti aggiornamenti delle informative sulla privacy da parte di diverse aziende tecnologiche stanno diventando all’ordine del giorno. Un tema ricorrente in queste revisioni recita: “Stiamo usando i tuoi dati per addestrare l’intelligenza artificiale, a meno che tu non scelga di impedircelo”.Questa situazione non riflette un vero e proprio consenso, ma piuttosto un diffuso senso di stanchezza digitale, in cui gli utenti si sentono sopraffatti dalla necessità di proteggere i propri dati.
Questo fenomeno, spesso definito “opt-out fatigue”, evidenzia una questione critica dei diritti digitali nell’ambiente virtuale odierno. Gli utenti non hanno più solo il compito di navigare in Internet, ma anche quello di proteggere le proprie informazioni personali dall’utilizzo da parte dei sistemi di intelligenza artificiale.
Il passaggio agli opt-in predefiniti: una nuova norma
L’ondata di tecnologie di intelligenza artificiale generativa ha costretto le aziende ad accumulare ingenti dati utente per scopi di training dei modelli. Inizialmente, agli utenti veniva data la possibilità di scegliere se aderire o meno, ma questa pratica si è trasformata in una norma predefinita. La tendenza si è evoluta per normalizzare un ambiente in cui il consenso è dato per scontato e il dissenso richiede impegno.

Ad esempio, LinkedIn integra di default i contenuti generati dagli utenti, come post, commenti e profili, nel suo training di intelligenza artificiale, fornendo di fatto accesso a una grande quantità di dati senza il consenso esplicito dell’utente, nonostante le dichiarazioni di anonimato. Gli utenti possono scegliere di non acconsentire, tuttavia, questo richiede la navigazione di più menu, un processo che presuppone il consenso come base.
Allo stesso modo, i modelli Llama di Meta utilizzano automaticamente i contenuti pubblici di Facebook e Instagram, arrivando persino a influenzare la pubblicità mirata, con gli utenti che spesso devono eliminare intere discussioni di chat come soluzione alternativa per mantenere la privacy.
Allo stesso modo, il progetto Gemini di Google consente all’intelligenza artificiale di accedere alla cronologia e alle query di ricerca di YouTube, sempre a meno che gli utenti non modifichino proattivamente le proprie impostazioni sulla privacy. Approfondimenti su come Google inquadra la condivisione delle Gemini Gems illuminano il presupposto di fondo del consenso che privilegia l’accesso ai dati.
Inoltre, il chatbot Claude di Anthropic ha recentemente aggiornato le sue policy per conservare le chat degli utenti fino a cinque anni a fini di formazione, rendendo necessario un opt-out per coloro che desiderano evitare questa conservazione dei dati.
Questa tendenza è intenzionale e riflette una strategia più ampia in cui le aziende danno priorità al flusso continuo di dati, sfruttando il fatto che la maggior parte degli utenti potrebbe non notare questi cambiamenti e coloro che lo fanno spesso non hanno il tempo o la voglia di agire.
A complicare ulteriormente le cose, le normative sulla privacy vigenti in molte regioni sono state concepite principalmente per affrontare i problemi dei cookie e delle pratiche pubblicitarie, lasciando alle aziende un margine di manovra per stabilire queste impostazioni predefinite di opt-out, in quanto restano all’avanguardia rispetto ai quadri normativi.
Le carenze degli attuali sistemi di opt-out
Il concetto di libertà di scelta in materia di privacy online è diventato sempre più un’illusione. Sebbene gli utenti abbiano tecnicamente il diritto di negare il consenso, pochi lo rispettano davvero, principalmente a causa della “stanchezza del consenso”.La valanga di opzioni e aggiornamenti delle policy spesso travolge gli individui, portando a una paralisi nel processo decisionale.
Le aziende di intelligenza artificiale sfruttano questa stanchezza, creando una serie di pop-up confusi che attenuano l’impatto delle notifiche “abbiamo aggiornato la nostra informativa sulla privacy”.Pertanto, cliccare su “Accetta” si è evoluto da una decisione consapevole a un riflesso automatico.

Secondo uno studio del Pew Research Center del 2023, quasi l’80% degli americani rinuncia a leggere le informative sulla privacy a causa della loro complessità e del tempo che richiedono. Le aziende sono ben consapevoli di questo comportamento e adattano le proprie policy di conseguenza.
Ci è capitato a tutti: sfogliare velocemente termini che sappiamo di dover esaminare più attentamente. Queste aziende non hanno bisogno di inganni; la stanchezza degli utenti raggiunge i loro obiettivi con altrettanta efficacia, addossando l’onere della privacy ai singoli individui. Gli utenti devono esplorare impostazioni complesse per rivendicare i propri diritti sui dati.
Nel caso di Claude, anche dopo aver scelto di non partecipare, i dati passati rimangono memorizzati per anni, mentre le impostazioni sulla privacy di Google potrebbero cancellare la cronologia solo dopo che l’utente ha scelto di non partecipare, costringendolo a scegliere tra il mantenimento dell’utilità o la tutela della privacy. Questo dilemma è rispecchiato da diverse piattaforme.
Chi ne trae davvero vantaggio?
L’attuale dibattito sull’opt-out relativo alla privacy dei dati dell’IA non è solo una battaglia per la privacy degli utenti; è anche una lotta per ottenere guadagni finanziari e influenza. Le aziende di IA traggono grandi vantaggi dagli attuali sistemi di consumo dei dati.

Secondo Semrush e Statista, si prevede che il mercato globale dell’intelligenza artificiale crescerà da 638 miliardi di dollari nel 2024 a 1, 8 trilioni di dollari entro il 2030, alimentato in gran parte dai dati degli utenti che consentono l’addestramento dei modelli senza costi di licenza aggiuntivi.
Tecnologie come l’integrazione di LinkedIn con Azure e OpenAI, i piani di intelligenza artificiale di Meta e Gemini di Google si basano tutte sulla raccolta continua di enormi quantità di dati per il miglioramento. Più contenuti generati dagli utenti ci sono, più redditizi diventano questi sistemi.
Questo modello garantisce essenzialmente un afflusso continuo di dati; gli utenti fungono da manodopera non retribuita che fornisce materiale di formazione gratuito, consentendo alle aziende di monetizzare queste informazioni in prodotti volti a ottimizzare o sostituire i ruoli umani.
In definitiva, questo scenario favorisce un ambiente monopolistico in cui le entità di intelligenza artificiale più piccole faticano a competere con questi giganti ricchi di dati.
Il risultato è evidente: le principali aziende di intelligenza artificiale creano un circolo vizioso in cui le soluzioni di intelligenza artificiale migliorate attraggono più utenti, con conseguente aumento della generazione di dati. Nel frattempo, gli utenti comuni beneficiano solo in minima parte delle funzionalità avanzate, a scapito della loro privacy e del controllo sui dati personali.
Sostenere il vero consenso
Nonostante queste sfide, gli utenti mantengono la propria autonomia decisionale. In tutta Europa, i sostenitori proattivi della privacy stanno presentando reclami GDPR contro pratiche non autorizzate relative ai dati di intelligenza artificiale.L’articolo 21 del GDPR consente agli individui di opporsi al trattamento dei propri dati personali e migliaia di persone stanno iniziando a invocare questo diritto.
Leggi sulla privacy analoghe sono già pienamente in vigore in regioni come l’India con il DPDP Act, il PIPL cinese e il Consumer Privacy Act della California, tutte volte a limitare i meccanismi di acquisizione ed elaborazione dei dati utilizzati per l’intelligenza artificiale, insieme a multe fino al 4% del fatturato globale per le violazioni.
Nelle regioni in ritardo con le leggi sulla privacy, mantenere la vigilanza è fondamentale. Adottare misure proattive, come l’utilizzo di strumenti di navigazione che migliorano la privacy e la disattivazione delle raccomandazioni basate sull’intelligenza artificiale, può fare una differenza significativa.
Disattivare immediatamente le funzionalità di addestramento dell’IA, modificare le configurazioni di Meta, scollegare la funzione “migliora il modello per tutti” di ChatGPT e modificare le impostazioni sulla privacy di Copilot. Si consiglia inoltre di eliminare le chat più vecchie per limitare la potenziale esposizione e di utilizzare modalità temporanee quando si gestiscono informazioni sensibili.
La conclusione principale è che l’azione collettiva può portare a un cambiamento sostanziale. Se gli utenti si uniscono per esprimere il proprio dissenso e la propria opposizione, le aziende tecnologiche saranno costrette a ricercare un consenso autentico invece di darlo per scontato.
Sostenere la causa dell’opt-in
Tuttavia, la sola vigilanza individuale non sarà sufficiente.È necessario stabilire un cambio di paradigma verso l’opt-in per scelta come standard. Raggiungere questo obiettivo mitigherebbe l’eccesso di potere delle aziende e contribuirebbe a ripristinare la fiducia.
L’adozione di un consenso esplicito e informato consentirebbe agli utenti di decidere volontariamente sulla condivisione dei dati. Ridurre la facilità di accumulo di dati scoraggerebbe pratiche non etiche, incoraggiando metodi di acquisizione etica dei dati come i dataset concessi in licenza.
L’implementazione delle preferenze di opt-in non ostacolerebbe l’innovazione; al contrario, potrebbe favorire progressi nelle tecnologie di tutela della privacy, come una migliore anonimizzazione, per attrarre chi condivide i dati. Ad esempio, il chatbot Lumo di Proton esemplifica con successo queste pratiche innovative.
Pur non opponendomi agli sviluppi dell’intelligenza artificiale – come scrittore di tecnologia, mi interesso costantemente di questi argomenti – ciò che sostengo è la necessità di scelta. L’attenzione non dovrebbe essere rivolta allo sfruttamento della privacy, ma piuttosto al suo rispetto attraverso una vera innovazione.
Dare potere agli utenti attraverso la consapevolezza
Una politica di opt-in predefinita non è solo una questione di praticità; rappresenta una ricerca di controllo. L’attuale dibattito sulla privacy dei dati dell’IA rappresenta una significativa lotta per la proprietà delle nostre identità digitali, piuttosto che una mera discussione tecnica.
L’emergere della “opt-out fatigue” dimostra come i giganti della tecnologia strumentalizzino la stanchezza degli utenti. La loro vittoria sta nel fatto che gli utenti smettono di lottare per il controllo. Pertanto, dobbiamo rimanere fermi e non rinunciare alla nostra capacità di agire.
Accettare il consenso silenzioso non fa altro che agevolare la loro capacità di operare senza la nostra approvazione. Pertanto, dobbiamo rimanere vigili e chiedere che la riservatezza dei dati venga data priorità.
Lascia un commento