Sam Altman avverte: ChatGPT non è uno psicologo: le tue conversazioni riservate potrebbero essere usate contro di te in tribunale senza garanzie legali

Sam Altman avverte: ChatGPT non è uno psicologo: le tue conversazioni riservate potrebbero essere usate contro di te in tribunale senza garanzie legali

Con la crescente dipendenza dagli strumenti di intelligenza artificiale, molti utenti si rivolgono a queste piattaforme per una serie di assistenza, tra cui consulenza medica, supporto personale e orientamento professionale. Questa tendenza ha trasformato i chatbot basati sull’intelligenza artificiale in assistenti personali virtuali da cui molte persone dipendono per affrontare le sfide quotidiane. Tuttavia, questa crescente dipendenza solleva preoccupazioni circa un’eccessiva dipendenza, in particolare per quanto riguarda la riservatezza e la sicurezza delle informazioni sensibili condivise con queste piattaforme. Di recente, Sam Altman, CEO di OpenAI, ha esortato gli utenti a prestare attenzione nell’uso dell’intelligenza artificiale per questioni personali, mettendo in guardia dal divulgare informazioni profondamente personali senza adeguate misure di sicurezza.

Sam Altman avverte: ChatGPT non garantisce la riservatezza tra terapeuta e cliente

Le tecnologie di intelligenza artificiale stanno progredendo rapidamente, vantando una maggiore intelligenza emotiva e capacità conversazionali. Di conseguenza, numerose persone utilizzano sempre più spesso i chatbot per l’assistenza terapeutica o emotiva. In netto contrasto con la terapia convenzionale, che dà priorità alla riservatezza del paziente, l’intelligenza artificiale non dispone di un quadro giuridico che garantisca la protezione delle discussioni sensibili. Questo è stato un punto di preoccupazione evidenziato da Sam Altman durante la sua recente apparizione al podcast “This Past Weekend” con Theo Van, come riportato da TechCrunch. Ha messo in guardia dal cercare supporto emotivo tramite strumenti di intelligenza artificiale per gravi problemi personali.

Durante la discussione, Altman ha riconosciuto la crescente reattività emotiva degli strumenti di intelligenza artificiale, che può creare un’illusione di privacy per gli utenti. Tuttavia, ha fortemente sconsigliato di affidarsi all’intelligenza artificiale per la guida terapeutica. La differenza fondamentale tra l’intelligenza artificiale e i servizi professionali di salute mentale risiede nelle tutele legali strutturate di questi ultimi. Fino a quando non saranno stabilite normative appropriate, Altman ha esortato gli utenti a considerare gli strumenti di intelligenza artificiale come risorse complementari piuttosto che sostitutive della terapia tradizionale. Ha espresso le sue preoccupazioni riguardo alle implicazioni del trattamento dell’intelligenza artificiale come una confidente, affermando:

Le persone parlano delle cose più personali della loro vita a ChatGPT. Le persone lo usano – soprattutto i giovani – come terapeuta e life coach; hanno problemi relazionali e si chiedono: “Cosa dovrei fare?”.E al momento, se parli di questi problemi con uno psicologo, un avvocato o un medico, c’è il segreto professionale. C’è la riservatezza medico-paziente, c’è la riservatezza legale, eccetera. E non abbiamo ancora capito come funziona quando parli con ChatGPT.

Data l’assenza di riservatezza legale che circonda le interazioni con l’IA, Altman raccomanda un approccio cauto all’uso di questi strumenti, soprattutto in scenari delicati. Ad esempio, se qualcuno dovesse affrontare un contenzioso legale, OpenAI potrebbe essere potenzialmente costretta a divulgare le conversazioni, con conseguente perdita della privacy personale. Altman ha espresso il desiderio che all’IA vengano concesse protezioni della privacy simili, ma ha lamentato il fatto che il rapido progresso tecnologico abbia superato la definizione dei necessari quadri giuridici.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *