
La rapida espansione della tecnologia dell’intelligenza artificiale (IA) ha spinto le organizzazioni a dare priorità all’uso responsabile e al controllo delle informazioni condivise. Gli utenti spesso si ritrovano a fare eccessivo affidamento su queste piattaforme, con il risultato di condividere involontariamente informazioni eccessive sui feed pubblici. In risposta a ciò, Meta sta introducendo un disclaimer volto a limitare l’eccessiva divulgazione, in particolare per quanto riguarda i dati sensibili o privati condivisi sulle sue piattaforme di IA.
Meta interviene: nuova clausola di esclusione di responsabilità per le preoccupazioni relative alla condivisione eccessiva nelle app di intelligenza artificiale
Con la continua proliferazione degli strumenti di intelligenza artificiale, gli enti regolatori stanno sottolineando l’importanza di un utilizzo etico dell’intelligenza artificiale e della protezione dei dati. Molti utenti divulgano inconsapevolmente dati personali su queste piattaforme, sollevando notevoli preoccupazioni in materia di privacy e reazioni negative riguardo ai contenuti digitali. Per mitigare potenziali problemi legali e danni alla propria reputazione, Meta ha aggiornato le sue applicazioni per includere chiari avvisi sulla condivisione di informazioni personali.
Un rapporto di Business Insider ha evidenziato come l’app sia diventata uno spazio problematico, mostrando una pletora di post privati e potenzialmente imbarazzanti. Gli utenti non erano a conoscenza del fatto che i loro messaggi potessero essere visualizzati nel feed pubblico “Discover”, il che ha portato alla divulgazione accidentale di conversazioni private. Sebbene le chat degli utenti non vengano automaticamente rese pubbliche all’interno dell’app Meta AI, molti utenti hanno involontariamente esposto questi dialoghi sensibili a un pubblico più ampio.
Dal lancio dell’app ad aprile, una varietà di conversazioni personali, che spaziavano da preoccupazioni fiscali a richieste di assistenza sanitaria, sono emerse pubblicamente all’insaputa degli utenti. Ciò è emerso quando screenshot di dialoghi insoliti sono apparsi sul feed “Discover” e sono circolati sui social media, attirando l’attenzione sia della comunità che delle aziende. I sostenitori della privacy hanno espresso notevole preoccupazione per l’eccesso di contenuti predefiniti del feed social di Meta, che contrasta nettamente con le pratiche osservate in altre piattaforme di chat basate sull’intelligenza artificiale.
La specialista della sicurezza Rachel Tobac, che ha già avuto esperienze con Meta, ha lanciato l’allarme sui potenziali rischi insiti in questa esperienza utente, affermando:
Gli esseri umani hanno creato uno schema attorno ai chatbot AI e non si aspettano che i prompt dei loro chatbot AI vengano visualizzati in un feed Discover in stile social media: non è così che funzionano gli altri strumenti.
Allo stesso modo, la Mozilla Foundation ha esortato Meta a riconsiderare il layout dell’app e a garantire che gli utenti vengano avvisati ogni volta che i loro post vengono resi pubblici. Meta ha risposto rapidamente a queste preoccupazioni, implementando un avviso monouso per le conversazioni condivise pubblicamente nella sua app di intelligenza artificiale. L’avviso recita quanto segue:
I messaggi che pubblichi sono pubblici e visibili a tutti. I tuoi messaggi potrebbero essere suggeriti da Meta su altre app Meta. Evita di condividere informazioni personali o sensibili.
Sebbene l’iniziativa di Meta di affrontare le crescenti preoccupazioni in materia di privacy sia lodevole, l’azienda dovrebbe perseguire una revisione più completa dell’esperienza utente, ponendo maggiore enfasi sulla privacy e sul controllo.
Lascia un commento