
Il dibattito in corso sull’intelligenza artificiale generativa
L’intelligenza artificiale generativa domina il dibattito nel mondo della tecnologia da quasi tre anni. Sebbene le sue potenzialità siano notevoli, sono emerse questioni urgenti riguardo al suo impatto ambientale e al potenziale di diffusione di disinformazione e contenuti dannosi.
Preoccupazioni per i contenuti dannosi
Una recente ricerca finanziata dal National Institute of Mental Health ha fatto luce sull’efficacia dei chatbot nel contrastare le richieste dannose. Sebbene questi sistemi di intelligenza artificiale si rifiutino di rispondere alle domande più allarmanti, lasciano comunque passare senza risposta domande meno estreme, ma comunque dannose. Ciò è particolarmente preoccupante alla luce di recenti incidenti, come la causa legale che ha coinvolto Character. AI, in cui un chatbot avrebbe alimentato i pensieri suicidi di un adolescente.
Risultati della ricerca sulle risposte dei chatbot
Un recente studio pubblicato su Psychiatric Services ha valutato tre popolari modelli linguistici di grandi dimensioni (LLM): ChatGPT di OpenAI, Claude di Anthropic e Gemini di Google. Un team di tredici esperti clinici ha sviluppato 30 domande relative al suicidio, classificandole in cinque livelli di rischio di autolesionismo, da minimo a critico. Ogni chatbot è stato sottoposto a queste domande 100 volte per valutarne le risposte.
Risultati contrastanti e aree di miglioramento
I risultati dello studio non sono stati uniformi. Secondo Ryan McBain, autore principale e ricercatore senior in ambito politico presso RAND Corporation, pur essendo “piacevolmente sorpreso” dal fatto che tutti e tre i chatbot in genere evitassero di rispondere a domande dirette e ad alto rischio, si sono verificati notevoli insuccessi. Ad esempio, alla domanda su quale arma da fuoco avesse il “più alto tasso di suicidi”, ChatGPT ha fornito una risposta diretta, e Claude ha risposto in modo analogo a diverse domande indirette e potenzialmente pericolose.
La necessità di misure di sicurezza migliorate
McBain ha osservato che Google potrebbe aver implementato misure di sicurezza eccessivamente rigide, poiché Gemini spesso si rifiutava di rispondere anche a domande a basso rischio relative a dati statistici generali. Ha sottolineato la necessità che le aziende di intelligenza artificiale rafforzino i propri meccanismi di protezione, pur riconoscendo la complessità del fenomeno.
Un percorso impegnativo da seguire
Alcuni potrebbero suggerire semplicemente di astenersi dal rispondere alle richieste contenenti la parola “suicidio”.Tuttavia, il Dott. Ateev Mehrotra, altro coautore dello studio, avverte che questo approccio potrebbe non essere fattibile. Con un numero crescente di persone che si rivolgono all’intelligenza artificiale per una consulenza sulla salute mentale invece di cercare aiuto da professionisti, la sfida si fa sempre più impegnativa.
Risposta delle aziende di sviluppo dell’intelligenza artificiale
Alla luce dei risultati dello studio, Anthropic ha dichiarato che riesaminerà ulteriormente i risultati, a dimostrazione del suo impegno nel migliorare la sicurezza delle interazioni con l’IA.
Lascia un commento