
LinkedIn affronta una class action per la condivisione dei dati con le aziende di intelligenza artificiale
LinkedIn, il principale sito di networking professionale di proprietà di Microsoft, è attualmente coinvolto in una class action intentata da un gruppo di suoi membri Premium. Questi utenti sostengono che la piattaforma ha condiviso impropriamente i loro messaggi privati e dati personali con entità terze allo scopo di addestrare modelli di intelligenza artificiale (IA), senza ottenere le autorizzazioni necessarie dagli utenti.
Informazioni di base sulle modifiche alla politica sulla privacy
La controversia risale alle modifiche alle policy sulla privacy di LinkedIn introdotte nel 2024. Ad agosto, l’azienda ha lanciato una funzionalità che apparentemente garantiva agli utenti un maggiore controllo sulle loro preferenze di condivisione dei dati. Tuttavia, solo un mese dopo, a settembre, LinkedIn ha rivisto la sua policy per affermare che i dati degli utenti potevano essere utilizzati per scopi di formazione dell’IA, anche se gli utenti avessero scelto di non condividere i dati in futuro. Inoltre, la policy specificava che tutti i dati già utilizzati nella formazione dell’IA sarebbero stati irreversibili, provocando una forte reazione negativa tra gli utenti che si sentivano ingannati riguardo all’uso delle loro informazioni.
Accuse e risarcimento desiderato
I querelanti affermano che LinkedIn ha violato la fiducia dei suoi abbonati Premium condividendo i loro dati privati senza esplicito consenso. La causa chiede un risarcimento di $ 1.000 per individuo interessato e insiste sulla responsabilità per ciò che i querelanti descrivono come pratiche non etiche.
La risposta di LinkedIn
In risposta alle accuse, LinkedIn ha rilasciato una dichiarazione a Reuters affermando: “Si tratta di affermazioni false e prive di fondamento”, indicando la propria intenzione di contestare vigorosamente la causa.
Implicazioni più ampie dell’utilizzo dei dati nell’intelligenza artificiale
La pratica di scartare dati online per perfezionare modelli di intelligenza artificiale generativa è stata esaminata attentamente in vari casi, evidenziando una tendenza crescente di contestazioni legali nel settore tecnologico. Ad esempio, recenti documenti giudiziari hanno rivelato che Mark Zuckerberg aveva autorizzato l’uso di LibGen, un archivio di e-book e articoli piratati, per addestrare i suoi modelli di intelligenza artificiale Llama. Inoltre, l’anno scorso diverse importanti organizzazioni di giornali hanno intentato cause legali contro Microsoft e OpenAI per aver presumibilmente utilizzato i loro contenuti per l’addestramento dell’intelligenza artificiale senza l’autorizzazione appropriata.
Conclusione
Questa situazione in corso solleva questioni cruciali sulla privacy degli utenti, sul consenso e sulle implicazioni etiche dell’utilizzo dei dati nello sviluppo dell’intelligenza artificiale. Mentre questa causa si sviluppa, l’esito potrebbe stabilire precedenti significativi su come le aziende tecnologiche gestiscono i dati degli utenti nel panorama in evoluzione dell’intelligenza artificiale.
Fonte: Reuters
Lascia un commento