香港文匯報訊(記者 曾業俊)顛覆性的創新科技往往需要全新的法律法規配合才得以落地應用,醫療AI亦不例外。中山大學附屬第一醫院醫療大數據與人工智能研究中心主任王海波教授表示,目前中國及歐美對醫療AI的監管都基本圍繞AI的有效性、風險及倫理三方面展開。AI的監管困難在於其不斷進化的特性。以往的醫療器械進行臨床試驗時是固定的版本,不會改變;惟AI的特點和優勢是可以不斷演變進化,這就產生了全新的監管課題。中國和歐美對此新課題的解決方案均致力於建立全生命周期的監管模式(Life Cycle Supervision Model),包括「上市前審批(Pre-Market Approval)」和「上市後監管(Post-Market Surveillance)」,亦即AI上市後的進一步算法演變還需後續監管,各國對於這兩種監管的側重點各有不同。

各地對AI器械風險界定標準不同

中國對醫療AI器械風險的界定非常嚴格,目前幾乎所有獲批的醫療AI器械都被納入高風險範疇,需進行嚴格的技術測試和臨床驗證後,才能取得官方批准上市使用。相較而言,美國食品藥品監督管理局(FDA)批准的醫療AI器械大部分被歸類為風險相對較低的第二類,強調在上市後透過持續監管來處理可能出現的問題。歐洲則兼顧醫療器械的風險分類和倫理規範,細緻地提出針對不同應用場景的倫理與監管要求。然而,由於醫療AI技術仍然處於快速發展且相對較新的階段,各國監管機構仍在逐步調整和完善相關政策,以應對其帶來的風險與挑戰。各國監管政策的實際效果如何,以及能否有效兼顧風險防範的同時促進AI產業發展,仍需透過長期且持續的實踐觀察來確定。

AI診斷結果或間接影響醫生判斷

王海波強調,當試圖界定醫療AI出錯時的責任歸屬時,往往會面臨一個複雜的現實局面:醫療AI從研發、評估、測試、採購、部署到臨床應用,每個階段都有各自不同的持份者,令界定責任變得非常不容易。同時,隨着醫療AI的廣泛應用及研究深入,一些新的現象也開始浮現。例如,去年發表於國際醫學期刊《新英格蘭醫學雜誌·人工智能》(NEJM AI)的一項研究發現,當放射科醫生反覆接觸到AI的診斷結果後,他們的專業判斷會在不自覺中逐漸與AI的判斷趨同。該研究指出,AI即使僅透過潛移默化地影響醫生的專業認知,也可能實質性地改變患者的診斷和治療結果。

他再舉一例,廣州中山大學附屬第一醫院肖海鵬研究團隊在著名醫學雜誌《刺針數字醫療》(Lancet Digital Health)發表的研究顯示,用AI自動判斷甲狀腺結節的良惡性時,AI的準確度堪比該頂級三甲醫院的高級醫生,優於經驗尚淺的低年資醫生。問題在於當醫生知道了AI與自己的檢測結果不一樣時,有超過一半(51%)的醫生將診斷結果改成跟AI的判斷一致,但當中有四分一修改診斷的案例中人類醫生的原先首診是正確,反而AI的判斷是錯誤。在這個受控的研究環境下沒有病人真正受到這種AI誘導的誤診的傷害,但隨醫療AI的廣泛應用,如何最大限度地減少這種傷害並界定責任已是刻不容緩的法律和倫理問題。

科技僅輔助性質 診療屬醫生責任

AI診療出錯時應由AI抑或醫生承擔責任?王海波認為,在現階段,無論是從法律、倫理,還是技術可信度方面,AI都僅僅被定位為輔助角色,醫療過程中的每項決策都應由人類來最終拍板,這種「人在環中(Human in the loop)」的設計能夠防止將病人直接暴露在AI的自主決策下。而從法律而言,由於醫生是現今醫療體制當中唯一擁有執照做出診療決定的主體,因此需負上最終法律責任。他直言:「更重要的原因是,倫理是人的價值判斷,而不是機器的價值判斷,所以最終應該由人來承擔責任。人類不能因為科技進步而放棄自身的倫理責任。科技是為人服務,人不是科技進步的手段,人是科技進步的目的。」