熱門搜尋:

嶺大與博洛尼亞大學合辦「人工智能治理技術國際研討會」 專家促提升AI監管成效

2025-10-26 16:00:00 教育科研資訊
嶺大和意大利博洛尼亞大學合辦「第二屆人工智能治理技術國際研討會」。(嶺大圖片)

香港文匯報訊 (記者 姜嘉軒)「自主決策AI」與「開源AI」的監管方向成為全球熱話。有鑒於此,嶺南大學與意大利博洛尼亞大學一連兩日(10月25日至26日)合辦「第二屆人工智能治理技術國際研討會」。該研討會是「第28屆歐洲人工智能大會」的一部分,匯聚多位世界頂尖專家、學者與政策制定者,旨在提升AI風險評估、責任追蹤及安全保障等方面的監測,促進亞洲與歐洲在AI治理上的跨區域交流。兩天活動共吸引逾150名學者和學生參與。

研討會於博洛尼亞大學工程學院以線上及線下形式進行,聚焦三大核心議題,包括「開源AI」的治理;「自主決策AI」的風險與治理;以及邁向「以人為本的AI」的技術。

嶺大副校長(研究及創新)及唐天燊機器學習講座教授姚新就「開源AI治理」發表專題演講。他指出,人工智能正迅速改變世界,但AI透過內部運算所作出的建議或決策,背後原因仍然模糊,業界有必要透過技術提升AI模型的透明度和可解釋性。「我們希望就AI治理的問題,將『亞洲觀點』帶入歐洲討論平台,同時汲取歐洲的經驗,促進全球在AI技術開發與應用方面制定藍圖。」

姚新致開幕辭。(嶺大圖片)

IBM研究部(東京)資深技術人員Takayuki Osogami指出,某些AI系統可以自己做決策、計劃未來甚至制定策略,這類「自主AI」如果沒有適當規管,可能帶來嚴重風險,包括危及人類安全或引發全球性災難。他認為,目前大部分規管只看AI的運算能力大小,這不足以判斷真正的風險。他建議應觀察AI系統「自主行動的程度」,即它能自己做多少決策,來作為評估風險的指標,這比單純看它處理的數據或環境更準確。

歐洲人工智能、數據與機器人協會主席 Emanuela Girardi表示,近年出現的「自主決策AI」與「實體AI」,能在數碼世界或現實中自行決策和行動,帶來前所未有的管治挑戰,更可能引發多層面的風險。

她舉例指,「自主決策AI」可能採取意想不到的方式完成目標,甚至透過心理手法影響用戶;而「實體AI」則可能出現安全問題,從自動駕駛汽車到家用機械人,一旦出錯可能造成傷亡或財物損失。無論是AI伴侶可能引發的心理操控,還是工業及家居自動機械人的部署,都顯示政府和機構目前仍難以跟上快速發展的新技術。她提出,歐洲及全球層面都需要建立可行的管治框架,確保AI符合人類價值觀並接受有效監管。

評論(0

0 / 255

顯示更多...
相關推薦
評論成功,請等待管理員審核...