AI 技術不斷進步,科學家開始探討其在臨終醫療決策的應用潛力,尤其在病人無法表達意願時的角色。雖然目前尚未全面推行「AI 代理」應用,但多項研究已展現它幫助醫生及家屬理解病人偏好、提供決策參考的可能性。
華盛頓大學醫學中心早前進行一項研究,穆罕默德·奧蘭傑布·艾哈邁德沙(Muhammad Aurangzeb Ahmad)表示,基於哈伯維尤醫療中心的病人數據,AI 模型能幫助預測病人偏好,例如拒絕使用呼吸機或接受心肺復甦術,準確率逐步提升至約 67%,未來有望擴展到更多醫療設施測試。
然而專業人士一致認為 AI 在臨終決策中仍需謹慎應用。有人擔心過度依賴演算法會削弱醫護人員的判斷與同理心,導致忽略病人自身價值觀與意願。現階段許多專家呼籲,任何 AI 輔助都必須經過嚴格倫理審查,並始終融入人類判斷與溝通。
倫理挑戰亦包括資料私隱、偏見及去人性化問題,這些都迫使相關界別慎重規範 AI 在臨終階段的角色。雖然 AI 有潛力提升醫療效率和準確度,但在面對生死這種複雜敏感的議題時,人性化與倫理考量格外重要。
賓夕法尼亞州深切治療部醫生 Emily Moin 亦指出,AI 模型訓練數據多來自康復者,但其應用對象卻是無法溝通或沒有親屬的病人。這群病人的「根本真相」無從得知,令外界無法評估模型偏見或實際表現。生物倫理學專家 Robert Truog 警告,現實中臨終決策並非簡單二元選擇,答案往往「視乎情況而定」,牽涉複雜的個人價值、預後判斷及家庭因素,AI 難以掌握這種細微差別。
Emily Moin 亦擔心,醫護人員或家屬在壓力下,可能傾向依賴 AI 提供的「捷徑」作決定。醫院醫生 Teva Brender 補充,一個「黑盒」演算法僅提供「祖母不願搶救」的結論並無幫助,他強調 AI 必須具備「可解釋性」,清晰展示決策理據,而非取代人類對話。
總括而言,雖然 AI 未來有望成為協助生死決策的輔助工具,提升相關決策效率與準確性,但現階段仍需多方面倫理監督與全面討論,才能真正實現以「人」為本的醫療照護。
資料來源:Ars Technica
分享到 :
最新影片