文/李廣宇
近日,人工智能(AI)技術再度成為輿論焦點。OpenAI推出的圖像生成新功能,讓用戶可以將照片轉換為吉卜力風格,引起全球熱話。許多用戶紛紛上傳個人照片或影視作品,甚至連OpenAI行政總裁奧爾特曼也參與其中,將個人社交媒體的頭像改為AI生成的吉卜力風格圖片。然而,這股「AI吉卜力改圖熱潮」亦喚起大眾對版權爭議的重視。
生成式AI技術的核心運作原理是,透過大量學習現存的藝術風格與作品,訓練出能夠模仿這些風格的模型。雖然AI技術的進步為創作帶來無限可能,但也衍生出法律和道德上的爭議。AI工具在學習過程中,是否已侵犯了原創藝術家的版權?在現行的香港法律框架下,這仍是一個尚未明確界定的灰色地帶。
根據香港《版權條例》,受版權保護的作品如未經授權被複製或改編,即有可能構成侵權。不過,許多AI企業主張其行為屬於「合理使用」,即在不影響原創作品市場價值的前提下,有限度地使用受保護內容,以推動創新和研究。據悉,OpenAI正積極遊說美國政府,希望將AI訓練納入「合理使用」範疇,以避免版權糾紛。目前,香港相關的版權法例並未明確涵蓋AI生成內容的使用範圍,一旦出現糾紛,裁決結果將視乎法庭對「合理使用」的解讀。對創作者與開發者而言,無疑是極大的不確定性風險。
面對這種法律模糊地帶,筆者認為,開發者與企業應採取更為審慎的態度,以降低版權糾紛風險。最直接的做法,是在訓練AI模型之前,先行獲取原創藝術家的同意或授權,例如採取合作模式,讓藝術家參與訓練數據的提供與監督,確保AI工具不會侵犯其版權。事實上,已有部分科技公司採取這種方式,例如Adobe推出的Firefly AI,就強調其訓練數據來自合法授權的內容,避免侵犯創作者的權益。
除了版權問題,生成式AI的私隱風險同樣不容忽視。現時AI圖像生成技術往往需要用戶上傳照片或其他個人資料進行轉換。這些上傳的內容是否會被平台儲存、如何使用,甚至會否成為AI進一步訓練的數據,均是現實中的重大隱患。更進一步的是,若有人惡意利用他人照片進行深偽(deepfake)造假,將進一步加劇網絡欺詐與身份盜竊的風險。因此,政府亦應加強監管,以防範技術被濫用。
近日,香港私隱專員公署便發布《僱員使用生成式AI的指引清單》,旨在提醒企業應訂立明確的內部政策,規範員工在工作環境中使用AI工具,避免因資料外洩或錯誤使用AI而造成法律責任。該指引雖然是重要一步,但單靠企業自律並不足以完全保障市民私隱。
AI技術的發展是大勢所趨,本港作為國際科技中心,應該在促進創新的同時,保障版權與私隱安全。筆者認為政府應積極參考國際經驗,及早研究及制定適合本地情況的AI監管框架,例如歐盟去年頒布的《人工智能法案》,針對高風險AI應用,包括人臉識別、社會評分系統等設立更嚴格的規範。本港應借鑑相關經驗,完善現有《版權條例》和《個人資料(私隱)條例》,明確AI技術中的版權歸屬問題和私隱保護標準,讓業界與市民有法可依,減少不確定性帶來的風險。筆者相信,唯有在明確規範的基礎上,AI技術才能真正發揮其潛力,為社會帶來長遠價值。
(作者為工聯會副理事長、香港I.T.人協會會長、中華海外聯誼會理事)

評論(0)
0 / 255