
LinkedIn se enfrenta a una demanda colectiva por compartir datos con empresas de inteligencia artificial
LinkedIn, la red social líder para profesionales propiedad de Microsoft, se encuentra actualmente envuelta en una demanda colectiva interpuesta por un grupo de sus miembros Premium. Estos usuarios alegan que la plataforma compartió de forma indebida sus mensajes privados y datos personales con entidades de terceros con el fin de entrenar modelos de inteligencia artificial (IA), sin obtener los permisos necesarios de los usuarios.
Antecedentes sobre los cambios en la política de privacidad
La controversia se remonta a las modificaciones en las políticas de privacidad de LinkedIn introducidas en 2024. En agosto, la empresa implementó una función que aparentemente otorgaba a los usuarios un mayor control sobre sus preferencias de intercambio de datos. Sin embargo, solo un mes después, en septiembre, LinkedIn revisó su política para establecer que los datos de los usuarios podrían usarse para fines de entrenamiento de IA, incluso si los usuarios optaban por no compartir datos en el futuro. Además, la política especificaba que cualquier dato ya empleado en el entrenamiento de IA sería irreversible, lo que provocó una reacción significativa entre los usuarios que se sintieron engañados con respecto al uso de su información.
Alegaciones y compensación deseada
Los demandantes afirman que LinkedIn ha violado la confianza de sus suscriptores Premium al compartir sus datos privados sin su consentimiento explícito. La demanda solicita una compensación de 1.000 dólares por cada individuo afectado e insiste en la rendición de cuentas por lo que los demandantes describen como prácticas poco éticas.
La respuesta de LinkedIn
En respuesta a las acusaciones, LinkedIn emitió un comunicado a Reuters afirmando: “Estas son afirmaciones falsas sin fundamento”, indicando su intención de impugnar la demanda enérgicamente.
Implicaciones más amplias del uso de datos en la IA
La práctica de extraer datos de Internet para perfeccionar los modelos generativos de IA ha sido objeto de escrutinio en varios casos, lo que pone de relieve una tendencia creciente a los desafíos legales en la industria tecnológica. Por ejemplo, documentos judiciales recientes revelaron que Mark Zuckerberg había autorizado el uso de LibGen, un repositorio de libros electrónicos y artículos pirateados, para entrenar sus modelos de IA Llama. Además, el año pasado varias organizaciones periodísticas importantes presentaron demandas contra Microsoft y OpenAI por supuestamente utilizar su contenido para el entrenamiento de IA sin la autorización correspondiente.
Conclusión
Esta situación actual plantea cuestiones cruciales sobre la privacidad del usuario, el consentimiento y las implicaciones éticas del uso de datos en el desarrollo de la IA. A medida que se desarrolle esta demanda, el resultado podría sentar precedentes importantes sobre cómo las empresas tecnológicas manejan los datos de los usuarios en el cambiante panorama de la inteligencia artificial.
Fuente: Reuters
Deja una respuesta