(香港文匯網記者 李暢)中關村實驗室首席科學家、中國工程院院士雲曉春26日在中關村論壇分論壇上發表關於「AI賦能網絡安全」的演講。他指出,人工智能(AI)不是網絡安全的「可選項」,而是應對複雜威脅的剛需。大模型賦能網絡安全是一場從理想到現實的跨越。唯有正視技術局限、堅持人機協同、建立治理框架,才能構建真正可持續的AI安全生態。
「不是AI將替代安全人員,而是沒有AI的安全防線將越來越難以運轉。」雲曉春表示,網絡攻防的本質正在向機器對抗機器演進。面對指數級爆發的威脅數據與分鐘級蔓延的新型自動化攻擊,傳統基於人工研判和靜態規則的防線已觸達效能天花板。AI技術的深度應用,已成為破除人力瓶頸、構建現代防禦體系的必由之路。
雲曉春進一步解釋,網絡安全之所以難以完全交由人工智能處理,主要有三點原因:其一,安全工作不僅涉及信息處理,還包括證據判斷、業務影響評估和責任劃分等多維度考量;其二,高風險場景對事實準確性和上下文理解要求極高,容錯空間有限;其三,事件處置、合規審查和跨部門協同本質上都需要專家把關。
在雲曉春看來,人工智能時代的網絡安全,本質上是技術能力、治理機制與行為習慣的共同演進。在政策層面,推動人工智能在網絡安全領域健康發展的關鍵,不只是鼓勵應用,更是建立邊界清晰、責任明確、可審計可追責的治理體系。企業層面,應從採購AI工具走向構建安全運營體系,將AI嵌入檢測、分析。響應和決策支持流程,同時建立審批授權、權限控制、審計留痕和人工覆核機制。
在個人層面,雲曉春表示,個人不只是被保護對象,也是安全責任參與者。面對AI生成的高仿真釣魚、詐騙和身份偽造,應增強信息核驗意識,減少過度授權和數據暴露,養成審慎使用智能工具的習慣,以基本安全素養支撐整體網絡安全防線。
展望未來,雲曉春表示,「好的協作不是讓AI代替人類,而是把AI放在擅長的位置,把責任留在應在的位置」。他指出,隨着AI工具進入安全流程,專家的角色正在轉向更高層次的判斷、治理和把關。當前成熟、可控的方向,是把AI放在輔助分析和人機協同場景中使用,而不是讓其獨立承擔判斷與處置。
「今後的重點不應是討論『是否使用AI』,而是明確哪些低風險場景可交由AI,哪些高風險場景必須設置人工審核、權限控制和責任閉環。」他說,「技術可以更新,工具可以演進,但在複雜情境下綜合判斷風險、平衡代價、承擔責任並組織協同,仍然是人類專家不可替代的職責。」

評論(0)
0 / 255