【智為未來】提升AI可解釋性 重建公眾信任


  隨着人工智能(AI)日益影響醫療決策、金融審批及網絡安全,專家指出,AI推理過程必須更容易讓人理解。目前,許多AI系統仍以「黑箱」模式運作,只提供結果,卻未揭示其推理過程。為解決此問題,AI研究者聚焦研究三個相關但有區別的概念:

  1. 可理解人工智能(Interpretable AI):採用本質上易於理解的模型,使推理過程自然透明;

  2. 可解釋人工智能(Explainable AI):在複雜系統中加入工具,闡明其推理邏輯;

  3. 透明人工智能(Transparent AI):強調模型構建方式及所使用資料的公開與透明。

  正如醫生在解釋診斷時,會指出症狀、檢測結果及推理過程,可理解AI採用邏輯可直接理解的模型,如簡單規則或決策路徑,清楚展示結論是如何得出。可解釋AI則有所不同:在複雜模型做出決策後,額外提供解釋,例如:「這張 X 光片看起來異常,原因是左上角的影像模式。」部分系統更追求透明度高的AI,即模型本身及其解釋均易於檢視,協助使用者清楚理解「如何」與「為何」決策。

  對非專業人士而言,透明度是建立信任的關鍵。若缺乏透明度,即使AI系統具備高度準確性,使用者仍會對其採用持保留態度。根據 OECD 報告,全球各地政府正積極擴展AI的應用,以提供更具智能、更高效,並以市民為中心的服務,這使公眾更迫切追求信任。

  「開箱」AI系統將成競爭優勢

  然而,近期《Forbes》調查顯示,全球對AI的信任度在過去五年間已從 61% 下降至 53%,反映公眾對透明度與問責的日益關注。

  為回應此挑戰,學術界正提出新的方法,在不犧牲效能的前提下提升AI系統的透明度,例如突顯影響決策的關鍵資料部分、將複雜模型步驟簡化為人類可讀的摘要及設計本質上可理解的模型。同時,領先AI研究機構(如 OpenAI)仍在探索「機制性可理解性」(mechanistic interpretability)的極限——即以簡單方式呈現大型AI模型中每個組件如何得出最終決策,而這仍是一項重大挑戰。

  公眾對AI的信任正在下降,提升系統的透明度與可理解程度,是重建信任的重要一環。在香港這個以服務為導向的城市,透明、可理解及可解釋的AI系統將成為競爭優勢。當市民清楚了解AI系統為何認可某項福利,或建議某個學習方案,信任自然提升。

  在一個高度重視信任與問責的環境中,可解釋系統能有效縮短新技術與公眾信任之間的距離。對香港而言,這既是機遇也是挑戰:隨着智能政府計劃及數碼經濟項目不斷擴展,解釋度清晰透明的AI系統將是市民信任並採納技術的關鍵。

  政府已開始在超過 70 個公共部門測試本地研發的大型語言模型 HKGAI V1,這些系統逐漸在公共服務中,擔任回應市民查詢、以至協助政策起草等幕後角色。

  因此,公眾對於理解這些系統如何得出結論的需求日益增加。私人領域也出現類似轉變。根據香港生產力促進局 2025 年的調查,近 90% 的香港企業已使用AI,但仍面臨人才短缺及數據安全等挑戰。這些趨勢均明確顯示,如要在公共領域以至整個社會負責任地推行AI,清晰與透明度至關重要。

  ●中大賽馬會「智」為未來計劃 由香港賽馬會慈善信託基金捐助,香港中文大學工程學院及教育學院聯合主辦,旨在透過建構可持續的AI教育生態系統將AI帶入主流教育。通過獨有且內容全面的AI課程、創新AI學習套件、建立教師網絡並提供AI教學增值,計劃將為香港的科技教育寫下新一頁。