Sorgono preoccupazioni riguardo allo strumento di intelligenza artificiale Elsa della FDA, che allucina gli studi e manca di supervisione nelle decisioni sanitarie critiche che incidono sulla sicurezza e la fiducia pubblica.

Sorgono preoccupazioni riguardo allo strumento di intelligenza artificiale Elsa della FDA, che allucina gli studi e manca di supervisione nelle decisioni sanitarie critiche che incidono sulla sicurezza e la fiducia pubblica.

La rapida integrazione dell’intelligenza artificiale in diversi settori ha portato a un notevole cambiamento verso l’efficienza e la gestione del tempo. In particolare, nel settore sanitario, gli strumenti di intelligenza artificiale stanno diventando onnipresenti per semplificare le operazioni. Una di queste innovazioni è Elsa, l’intelligenza artificiale generativa sviluppata dalla FDA, volta a migliorare i flussi di lavoro relativi alle approvazioni di farmaci e dispositivi medici. Tuttavia, recenti feedback suggeriscono che questo sistema non abbia funzionato secondo le aspettative, poiché numerose testimonianze di dipendenti FDA, passati e presenti, evidenziano problemi di affidabilità di Elsa, in particolare casi di allucinazioni e travisamento di ricerche legittime.

Il problema con l’intelligenza artificiale Elsa della FDA è la supervisione umana o la tecnologia?

L’adozione dell’IA generativa nei processi sanitari e normativi rispecchia la più ampia evoluzione tecnologica in atto a livello globale. Inizialmente progettato per facilitare l’approvazione di farmaci e dispositivi medici in tempi più rapidi, alleviando i colli di bottiglia burocratici e riducendo gli oneri amministrativi, Elsa è stato annunciato come un progresso significativo. Purtroppo, i report indicano un netto contrasto tra i benefici previsti e la realtà attuale, con crescenti preoccupazioni sull’accuratezza dello strumento e sul potenziale aggravamento di questi problemi da parte della supervisione umana.

Nonostante i vantaggi teorici di valutazioni rapide per trattamenti salvavita, alcuni addetti ai lavori della FDA hanno sollevato dubbi sulla capacità dell’IA generativa di produrre risultati errati. Secondo un servizio della CNN, numerosi dipendenti si sono fatti avanti, citando casi allarmanti in cui Elsa ha generato riassunti errati e persino falsificato studi clinici, con riferimenti a ricerche inesistenti. Tali inesattezze sono particolarmente allarmanti, dato l’obiettivo previsto dallo strumento: migliorare l’efficienza: questi risultati potrebbero portare a pericolose sviste in decisioni sanitarie critiche.

In risposta alle preoccupazioni relative a Elsa, i vertici della FDA hanno dimostrato una mancanza di urgenza. Hanno sottolineato che la partecipazione del personale all’utilizzo dello strumento non è obbligatoria e che le sessioni di formazione su Elsa rimangono facoltative. Questo approccio solleva ulteriori interrogativi sull’assenza di una supervisione strutturata o di linee guida volte a garantire che l’IA sia utilizzata in modo efficace e sicuro in tutta l’agenzia.

Sebbene non sia raro che i sistemi di intelligenza artificiale subiscano anomalie, in particolare durante aggiornamenti o modifiche, la posta in gioco nel settore sanitario è considerevolmente più alta. La vera sfida non risiede solo nei malfunzionamenti tecnici, ma nell’impiego dell’intelligenza artificiale senza un adeguato monitoraggio umano in contesti in cui la precisione è fondamentale. In un ambiente in cui errori minori possono portare a conseguenze devastanti, solidi meccanismi di supervisione sono essenziali.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *