
香港文匯報訊 綜合新華社及本報記者盧靜怡報道,未來人工智能並非百利而無弊。傾向信息投餵、創意抄襲,甚至撰寫病毒程序,人工智能在進行高度進化的同時,也在打開「潘多拉的盒子」。中國作家協會科幻文學委員會副主任陳楸帆表示,需要為人工智能確定倫理規範,如數據安全與隱私保護、公平性與不歧視、可解釋性與透明度、責任與可追溯性等。
以ChatGPT為例,中山大學智能工程學院副教授沈穎認為,ChatGPT由於使用了更大的語料庫、更高的計算能力和更加通用的預訓練,其準確性、適應性和學習能力等性能都有了大幅度提升。但仍面臨着諸多技術性問題和合規性問題。她說:「例如無法解答專業性較強的問題、對不熟悉的問題隨意編造假答案、訓練時使用數據未經授權等。」
作品版權判斷成新挑戰
「ChatGPT可以說是海量數據的集大成者,但亦可能成為海量數據的『大抄手』」。華南農業大學數學與信息學院副教授黃棟直言,人工智能模型所生成的文章、圖像,其生成的作品要素可能來自於不同創作者的原創作品,人工智能內容生成模型可能也會帶來無聲無息的「創意竊取」問題,此時涉及的作品版權怎樣判斷、怎樣規範是新的挑戰。
「ChatGPT在一些問題的回答上可能帶有雙標性,針對不同主體或國家的同一個問題卻可能生成不同的答案內容,對提問者可能產生誤導。」 華南農業大學數學與信息學院院長黃瓊認為,如果提供給ChatGPT的訓練數據帶有傾向性,則其提供的答案也可能帶有傾向性,另一個值得關注的則是數據洩露問題。黃瓊指出,當越來越多的企業和單位接入ChatGPT服務,員工可能誤用或濫用ChatGPT服務,甚至將單位內部數據和敏感數據輸入到人工智能平台,而當平台截留這些數據作為算法模型的語料時,就產生了數據洩露的風險。
聯合國籲各國盡快規範
華南理工大學副教授陳俊穎指出,ChatGPT是數據生成者,甚至也可能成為工具生成者。ChatGPT已經可以寫代碼,以其迭代速度,或許在不遠的將來,發釣魚郵件、寫木馬病毒、發現系統安全漏洞也將能成為ChatGPT的功能。
今年3月,美國生命未來研究所網站發布公開信,呼籲所有機構將研發比GPT-4更強大的人工智能系統的工作暫停至少6個月,以商討相關倫理規範。著名科技企業家埃隆·馬斯克等上萬名業界人士簽名支持。3月30日,聯合國教科文組織發表聲明,表示注意到業界呼聲,呼籲各國政府根據2021年通過的《人工智能倫理問題建議書》盡快實施具體標準。
「目前幾乎所有推出人工智能產品的公司及其相關人員都已意識到必須設置所謂的『護欄』,讓未來人工智能的發展有序進行。」美國亞太法學研究院執行長孫遠釗認為,「基本原則還是技術中立」,最終要規制的還是人類自己的行為。
0 / 255