
人工智慧在各領域的快速融合,顯著提升了效率和時間管理的效率。尤其是在醫療保健領域,人工智慧工具在簡化營運方面已變得無所不在。其中一項創新是由FDA開發的生成式人工智慧系統Elsa,旨在改善與藥品和醫療器材審批相關的工作流程。然而,最近的回饋表明,該系統的表現並未達到預期,因為來自FDA前任和現任員工的大量回饋都凸顯了Elsa的可靠性問題,尤其指出了出現幻覺和歪曲合法研究的情況。
FDA 的 Elsa AI 問題出在人為監管而非技術上嗎?
生成式人工智慧在醫療保健和監管流程中的應用,反映了全球更廣泛的技術變革。 Elsa 最初的設計目的是透過緩解官僚主義瓶頸和減輕行政負擔,加快藥品和醫療器材的審批速度,並被譽為一項重大進步。然而,報告顯示,預期效益與現實情況形成了鮮明對比,人們越來越擔心該工具的準確性以及人為疏忽可能會加劇這些問題。
儘管快速評估挽救生命的治療方法在理論上具有優勢,但FDA內部人士對生成式AI可能產生錯誤輸出的能力提出了警告。根據CNN報道,許多員工站出來指出,Elsa產生了錯誤的摘要,甚至偽造了臨床研究,引用了不存在的研究。考慮到該工具旨在提高效率的目標,此類不準確性尤其令人擔憂——這些發現可能會導致關鍵醫療決策中出現危險的疏忽。
針對圍繞Elsa的擔憂,FDA領導層展現了缺乏緊迫感。他們強調,員工參與該工具的使用並非強制性要求,Elsa的培訓課程仍然是可選的。這種做法進一步引發了人們對缺乏結構化監督或指導方針來確保整個機構有效安全地使用該人工智慧的質疑。
雖然人工智慧系統故障並不罕見,尤其是在更新或修改過程中,但醫療保健領域的風險要高得多。真正的挑戰不僅在於技術故障,還在於在準確性至關重要的環境下,缺乏足夠的人工監控就無法部署人工智慧。在這種環境下,微小的錯誤都可能導致災難性的後果,因此,健全的監督機制至關重要。
發佈留言