香港生成式AI指引今日發布。(指引封面圖)

香港文匯報訊(記者 莫楠)為應對人工智能發展浪潮下帶來的挑戰,特區政府數字政策辦公室今日(15日)公布委託香港生成式人工智能研發中心(HKGAI)制定的《香港生成式人工智能技術及應用指引》,當中分為三大部分,包括生成式AI簡述、治理框架,以及針對技術開發者、服務提供者和使用者的實用指南。

在廣受關注的生成式AI治理章節,《指引》就模型幻覺、模型偏見、黑盒問題、數理能力等複雜語義和概念展開解釋,以及從五個維度介紹生成式人工智能治理框架。同時提出遵守法例、安全透明、準確可靠、公平客觀實用高效等主要治理原則,遵守法例幫助使用者釐清和掌握模型技術局限以及其風險。

  • 第一,在個人資料私隱保護方面,《指引》建議採用聯邦學習(Federated Learning)技術,通過在多個去中心化設備或伺服器上進行模型訓練,各設備僅保留本地數據樣本且無需交換原始數據,僅共享模型參數更新,既推動技術發展又能有效降低隱私洩露風險。
  • 第二,就知識產權保護部分,《指引》特別關注使用受版權保護材料進行AI訓練可能產生的侵權問題,建議研究制定專門的版權豁免條款,在促進技術創新與保護創作者權益之間取得平衡。
  • 第三,針對犯罪防治議題,《指引》指出AI技術猶如「雙刃劍」,雖能提升執法效率,實現數據驅動的精密執法模式,但也可能被用於深度偽造等新型犯罪。為此,指引強調必須保持技術透明度,確保應用符合社會價值觀,維護公眾信任。
  • 第四,在確保AI真實可信方面,《指引》表示需構建一套科學、嚴謹且行之有效的機制與框架,來確保生成式人工智能開發者、營運者以及使用者對模型運行邏輯、行為模式及其所產生的廣泛影響承擔相應責任。特別是在系統生成資訊出現失實、偏差或誤導性內容時,能夠依據該機制和框架,清晰、準確地劃分各相關主體的責任。
  • 第五,在系統安全防護措施方面,《指引》將數據安全列為核心要素,要求建立完善的監控更新機制,實施嚴格數據驗證流程,運用異常檢測算法篩查可疑數據,確保訓練數據來源可靠。同時強調需定期審計數據來源,構建安全傳輸通道,多管齊下防範數據投毒風險,保障系統穩定運行。

 

《指引》內容,請瀏覽