
A medida que aumenta la dependencia de las herramientas de IA, muchos usuarios recurren a estas plataformas para obtener diversos tipos de asistencia, como asesoramiento médico, apoyo personal y orientación profesional. Esta tendencia ha transformado los chatbots de IA en asistentes personales virtuales de los que muchas personas dependen para afrontar los desafíos cotidianos. Sin embargo, esta creciente dependencia plantea preocupaciones sobre la dependencia excesiva, en particular en lo que respecta a la confidencialidad y seguridad de la información sensible compartida con estas plataformas. Recientemente, Sam Altman, director ejecutivo de OpenAI, instó a los usuarios a ser cautelosos al usar la IA para asuntos personales, advirtiendo contra la divulgación de información profundamente personal sin medidas de seguridad.
Sam Altman advierte: ChatGPT carece de confidencialidad entre terapeuta y cliente
Las tecnologías de IA avanzan rápidamente, con una inteligencia emocional mejorada y capacidades conversacionales mejoradas. En consecuencia, cada vez más personas utilizan chatbots para obtener asistencia terapéutica o emocional. A diferencia de la terapia convencional, que prioriza la confidencialidad del paciente, la IA carece de un marco legal que garantice la protección de conversaciones sensibles. Este fue un punto de preocupación destacado por Sam Altman durante su reciente aparición en el podcast «This Past Weekend» con Theo Van, según informó TechCrunch. Altman advirtió contra la búsqueda de apoyo emocional mediante herramientas de IA para problemas personales graves.
Durante el debate, Altman reconoció la creciente sensibilidad emocional de las herramientas de IA, lo que puede crear una ilusión de privacidad para los usuarios. Sin embargo, recomendó encarecidamente no depender de la IA para la orientación terapéutica. La diferencia fundamental entre la IA y los servicios profesionales de salud mental radica en la protección legal estructurada de estos últimos. Hasta que se establezcan las regulaciones adecuadas, Altman instó a los usuarios a considerar las herramientas de IA como recursos complementarios, y no sustitutos, de la terapia tradicional. Expresó su preocupación por las implicaciones de tratar a la IA como confidente, afirmando:
La gente habla de los problemas más personales de su vida con ChatGPT. La gente, sobre todo los jóvenes, lo usa como terapeuta y coach de vida; tienen problemas de pareja y se preguntan: «¿Qué debo hacer?».Y ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe el privilegio legal. Existe la confidencialidad médico-paciente, existe la confidencialidad legal, etc. Y aún no hemos resuelto eso para cuando hablas con ChatGPT.
Dada la ausencia de confidencialidad legal en torno a las interacciones de IA, Altman insta a una interacción cautelosa con estas herramientas, especialmente en situaciones delicadas. Por ejemplo, si alguien se enfrenta a un desafío legal, OpenAI podría verse obligado a revelar conversaciones, lo que resultaría en la pérdida de la privacidad personal. Altman expresó su deseo de que la IA cuente con protecciones de privacidad similares, pero lamentó que el rápido avance de la tecnología haya superado el establecimiento de los marcos legales necesarios.
Deja una respuesta