
A medida que ChatGPT se convierte en una herramienta esencial, muchas personas recurren cada vez más a él no solo para tareas rutinarias, sino también para asuntos personales y delicados. Se han dado casos en los que esta dependencia ha tenido graves consecuencias, como la disolución de matrimonios debido a revelaciones involuntarias de infidelidad a través de la información de la IA. Resulta alarmante que algunas personas incluso hayan buscado apoyo terapéutico en el chatbot, algo que Sam Altman ha advertido explícitamente. Recientemente, un incidente preocupante ha sacado a la luz los riesgos asociados al uso de la IA para obtener asesoramiento sanitario. Un hombre de 60 años de Nueva York, según se informa, desarrolló una enfermedad rara y peligrosa al seguir las recomendaciones dietéticas proporcionadas por ChatGPT.
Los peligros ocultos de la IA: Consejos de salud: el bromismo y el sustituto de la sal que fue demasiado lejos
Los debates en curso han advertido contra la dependencia excesiva de los sistemas de IA, y una revista médica estadounidense ha emitido una alerta reciente que advierte específicamente contra la búsqueda de asesoramiento médico de ChatGPT. Esta advertencia surge tras un grave incidente de salud que involucró a un hombre que enfermó tras seguir las sugerencias dietéticas del chatbot, según informó NBC News. Un estudio de caso exhaustivo publicado en Annals of Internal Medicine relata cómo este hombre desarrolló bromismo, una forma de intoxicación por bromuro, tras seguir los consejos de la IA.
El hombre tomó la decisión errónea de sustituir la sal común de mesa (cloruro de sodio) por bromuro de sodio, una sustancia química que descubrió en internet. Tras consultar en ChatGPT una alternativa a la sal, se le hizo creer que el bromuro de sodio era una opción más saludable. Durante tres meses, consumió esta sustancia tóxica a diario, lo que finalmente le provocó graves complicaciones de salud, como paranoia, insomnio y psicosis. Incluso llegó a creer que un vecino intentaba envenenarlo.
Tras su hospitalización, los profesionales sanitarios le diagnosticaron bromismo, una afección derivada de la exposición excesiva al bromuro. Afortunadamente, tras suspender el consumo de bromuro y recibir el tratamiento adecuado, su estado comenzó a mejorar. Si bien los casos de bromismo son poco frecuentes hoy en día debido al uso poco frecuente de sales de bromuro, este incidente pone de relieve los posibles peligros de obtener sustancias en línea sin la debida regulación.
La experiencia de este hombre sirve como un recordatorio crucial de la importancia de ser precavidos al utilizar la IA para consultas de salud. Los investigadores analizaron si ChatGPT identificó correctamente el bromuro como sustituto de la sal y confirmaron que lo hizo sin emitir ninguna advertencia sobre su posible toxicidad. Esta falta de precaución es particularmente preocupante, dado que la IA no puede replicar la experiencia y la responsabilidad de los profesionales médicos humanos.
Ante estos sucesos, es evidente que los modelos de IA deben contar con medidas de seguridad más robustas, especialmente en asuntos de salud delicados. En nuestra era actual, caracterizada por una gran cantidad de herramientas de IA, es vital equilibrar la curiosidad con la cautela, y que la confianza en la IA nunca sustituya el consejo médico profesional.
Deja una respuesta