Homem de 60 anos é hospitalizado após seguir dieta recomendada pelo ChatGPT, resultando em envenenamento

Homem de 60 anos é hospitalizado após seguir dieta recomendada pelo ChatGPT, resultando em envenenamento

À medida que o ChatGPT evolui continuamente como uma ferramenta essencial, muitas pessoas estão cada vez mais recorrendo a ele não apenas para tarefas rotineiras, mas também para questões pessoais e sensíveis. Surgiram casos em que essa dependência levou a consequências graves, como o fim de casamentos devido a revelações inadvertidas de infidelidade por meio dos insights da IA. De forma alarmante, algumas pessoas até buscaram apoio terapêutico no chatbot — algo contra o qual Sam Altman alertou explicitamente. Recentemente, um incidente preocupante revelou os riscos associados ao uso da IA para aconselhamento sobre saúde. Um homem de 60 anos de Nova York supostamente desenvolveu uma condição rara e perigosa ao seguir as recomendações alimentares fornecidas pelo ChatGPT.

Os perigos ocultos das dicas de saúde da IA: bromismo e o substituto do sal que foi longe demais

Discussões em andamento têm alertado contra a dependência excessiva de sistemas de IA, com um alerta recente de uma revista médica dos EUA que alerta especificamente contra a busca por aconselhamento médico pelo ChatGPT. Este alerta surge na sequência de um grave incidente de saúde envolvendo um homem que adoeceu após seguir as sugestões de dieta do chatbot, conforme relatado pela NBC News. Um estudo de caso aprofundado publicado no Annals of Internal Medicine relata como esse homem desenvolveu bromismo, uma forma de envenenamento por brometo, após seguir as recomendações da IA.

O homem tomou a decisão equivocada de substituir o sal de cozinha comum (cloreto de sódio) por brometo de sódio, uma substância química que descobriu online. Após consultar o ChatGPT em busca de uma alternativa ao sal, ele foi levado a acreditar que o brometo de sódio era uma opção mais saudável. Durante três meses, ele consumiu essa substância tóxica diariamente, o que acabou resultando em graves complicações de saúde, como paranoia, insônia e psicose. Ele chegou a acreditar, em certo momento, que um vizinho estava tentando envenená-lo.

Após a hospitalização, profissionais de saúde diagnosticaram bromismo, uma condição decorrente da exposição excessiva ao brometo. Felizmente, após interromper o consumo de brometo e receber tratamento adequado, o quadro do paciente começou a melhorar. Embora casos de bromismo sejam raros hoje em dia devido ao uso infrequente de sais de brometo, este incidente ressalta os perigos potenciais da obtenção de substâncias online sem regulamentação adequada.

A experiência deste homem serve como um lembrete crucial da importância de se ter cautela ao utilizar IA em pesquisas relacionadas à saúde. Pesquisadores investigaram se o ChatGPT identificou corretamente o brometo como um substituto do sal e confirmaram que o fez sem emitir nenhum alerta sobre a potencial toxicidade do brometo. Tal falta de cautela é particularmente preocupante, visto que a IA não consegue replicar a expertise e a responsabilidade de profissionais médicos humanos.

Diante dessas ocorrências, é evidente que os modelos de IA precisam ser equipados com medidas de segurança mais robustas, especialmente em relação a questões de saúde sensíveis. Na era atual, caracterizada por uma infinidade de ferramentas de IA, é vital que a curiosidade seja equilibrada com a cautela, e que a confiança na IA nunca substitua o aconselhamento médico profissional.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *