
LinkedIn enfrenta ação coletiva sobre compartilhamento de dados com empresas de IA
O LinkedIn, o principal site de rede profissional de propriedade da Microsoft, está atualmente envolvido em uma ação coletiva movida por um grupo de seus membros Premium. Esses usuários alegam que a plataforma compartilhou indevidamente suas mensagens privadas e dados pessoais com entidades terceirizadas com o propósito de treinar modelos de inteligência artificial (IA), fazendo isso sem garantir as permissões necessárias dos usuários.
Histórico das alterações na política de privacidade
A controvérsia remonta a modificações nas políticas de privacidade do LinkedIn introduzidas em 2024. Em agosto, a empresa lançou um recurso que ostensivamente concedeu aos usuários maior controle sobre suas preferências de compartilhamento de dados. No entanto, apenas um mês depois, em setembro, o LinkedIn revisou sua política para declarar que os dados do usuário poderiam ser utilizados para fins de treinamento de IA, mesmo que os usuários optassem por não compartilhar dados no futuro. Além disso, a política especificou que quaisquer dados já empregados no treinamento de IA seriam irreversíveis, levando a uma reação significativa entre os usuários que se sentiram enganados quanto ao uso de suas informações.
Alegações e Compensação Desejada
Os autores afirmam que o LinkedIn violou a confiança de seus assinantes Premium ao compartilhar seus dados privados sem consentimento explícito. O processo busca indenização de US$ 1.000 por indivíduo afetado e insiste na responsabilização pelo que os autores descrevem como práticas antiéticas.
Resposta do LinkedIn
Em resposta às alegações, o LinkedIn emitiu uma declaração à Reuters afirmando: “Essas são alegações falsas e sem mérito”, indicando sua intenção de contestar o processo vigorosamente.
Implicações mais amplas do uso de dados na IA
A prática de raspar dados online para refinar modelos de IA generativos atraiu escrutínio em vários casos, destacando uma tendência crescente de desafios legais na indústria de tecnologia. Por exemplo, documentos judiciais recentes revelaram que Mark Zuckerberg havia sancionado o uso do LibGen, um repositório de e-books e artigos pirateados, para treinar seus modelos de IA Llama. Além disso, no ano passado, várias organizações jornalísticas proeminentes entraram com ações judiciais contra a Microsoft e a OpenAI por supostamente utilizarem seu conteúdo para treinamento de IA sem autorização apropriada.
Conclusão
Essa situação atual levanta questões cruciais sobre privacidade do usuário, consentimento e as implicações éticas da utilização de dados no desenvolvimento de IA. À medida que esse processo se desenrola, o resultado pode estabelecer precedentes significativos sobre como as empresas de tecnologia lidam com dados do usuário no cenário em evolução da inteligência artificial.
Fonte: Reuters
Deixe um comentário