
Con la continua evoluzione di ChatGPT come strumento essenziale, molte persone vi fanno sempre più affidamento non solo per le attività di routine, ma anche per questioni personali e delicate. Sono emersi casi in cui questa dipendenza ha portato a gravi conseguenze, come la rottura di matrimoni a causa di rivelazioni involontarie di infedeltà tramite le informazioni fornite dall’IA.È allarmante che alcune persone abbiano persino cercato supporto terapeutico dal chatbot, cosa contro cui Sam Altman ha esplicitamente messo in guardia. Di recente, un episodio preoccupante ha portato alla luce i rischi associati all’utilizzo dell’IA per la consulenza sanitaria. Un uomo di 60 anni di New York avrebbe sviluppato una condizione rara e pericolosa aderendo alle raccomandazioni dietetiche fornite da ChatGPT.
I pericoli nascosti dei consigli sulla salute dell’intelligenza artificiale: il bromismo e il sostituto del sale che è andato troppo oltre
Le discussioni in corso hanno messo in guardia contro un’eccessiva dipendenza dai sistemi di intelligenza artificiale, con un recente avviso emerso da una rivista medica statunitense che mette specificamente in guardia dal chiedere consiglio medico a ChatGPT. Questo avviso arriva sulla scia di un grave incidente di salute che ha coinvolto un uomo che si è ammalato dopo aver seguito i suggerimenti dietetici del chatbot, come riportato da NBC News. Un caso di studio approfondito pubblicato sugli Annals of Internal Medicine racconta come quest’uomo abbia sviluppato il bromismo, una forma di avvelenamento da bromuro, dopo aver seguito i consigli dell’intelligenza artificiale.
L’uomo ha preso la decisione errata di sostituire il comune sale da cucina (cloruro di sodio) con il bromuro di sodio, una sostanza chimica scoperta online. Dopo aver consultato ChatGPT per un’alternativa al sale, è stato portato a credere che il bromuro di sodio fosse una scelta più sana. Per un periodo di tre mesi, ha consumato quotidianamente questa sostanza tossica, che alla fine ha provocato gravi complicazioni di salute come paranoia, insonnia e psicosi. A un certo punto ha persino creduto che un vicino stesse cercando di avvelenarlo.
Al momento del ricovero, gli operatori sanitari gli hanno diagnosticato il bromismo, una condizione derivante dall’eccessiva esposizione al bromuro. Fortunatamente, dopo aver interrotto l’assunzione di bromuro e aver ricevuto un trattamento adeguato, le condizioni del paziente hanno iniziato a migliorare. Sebbene i casi di bromismo siano oggi rari a causa dell’uso poco frequente di sali di bromuro, questo incidente sottolinea i potenziali pericoli derivanti dall’acquisto di sostanze online senza un’adeguata regolamentazione.
L’esperienza di quest’uomo è un promemoria cruciale dell’importanza di usare cautela quando si utilizza l’intelligenza artificiale per indagini di natura sanitaria. I ricercatori hanno studiato se ChatGPT identificasse correttamente il bromuro come sostituto del sale e hanno confermato di averlo fatto senza emettere alcun avvertimento sulla potenziale tossicità del bromuro. Tale mancanza di cautela è particolarmente preoccupante, dato che l’intelligenza artificiale non può replicare la competenza e la responsabilità dei professionisti medici umani.
Alla luce di questi eventi, è evidente che i modelli di intelligenza artificiale debbano essere dotati di misure di sicurezza più solide, soprattutto per quanto riguarda questioni sanitarie delicate. Nell’era attuale, caratterizzata da una pletora di strumenti di intelligenza artificiale, è fondamentale che la curiosità sia bilanciata dalla cautela e che l’affidamento all’intelligenza artificiale non sostituisca mai il parere medico professionale.
Lascia un commento