(香港文匯網記者 孔雯瓊)繼央視315曝光AI大模型被惡意「投毒」後,3月17日,網經社電子商務研究中心發布解讀報告。經濟學家、企業法務人士、律師等從多方面分析AI黑產新型特徵以及如何構建防範體系。多位行業人士認為,GEO(生成式引擎優化技術)投毒區別於傳統模式危害更突出。且平台需承擔明確審核責任,AI幻覺非免責擋箭牌。
清華大學中國創新服務研究院院長、著名服務經濟學家鄭吉昌認為,315曝光的GEO投毒,有其新特點。以往的投毒更多是針對模型訓練階段,而這次是針對模型的檢索增強環節。他指出:「很多AI大模型會聯網搜索信息,GEO投毒就是利用了這一點,通過在互聯網上批量發布虛假信息,讓AI在搜索時優先抓取這些內容,從而輸出錯誤答案。」這種投毒方式成本更低、傳播範圍更廣、影響更直接。鄭吉昌還舉例道:「GEO服務商通過批量生成包含特定關鍵詞的虛假內容,很容易被AI抓取。而且AI在排序時,會參考內容的發布時間、傳播範圍等因素,大量發布的虛假內容會讓AI誤以為是熱門、權威的信息,從而排在前面。」
值得警惕的是,目前GEO投毒形成了完整的產業鏈,從虛假內容生成、發布到AI抓取、推薦,各個環節都有專業的服務商參與。鄭吉昌指出:「利用AI算法的漏洞,通過大量投喂虛假內容,快速提升客戶產品的曝光度。而且這種投毒方式成本相對較低,效果明顯,吸引了不少商家參與。」
「今年政府工作報告首次提出打造『智能經濟新形態』,它不是簡單的名詞替換,而是意味着AI正在從產業的外掛工具升級為經濟的內置內核。」鄭吉昌表示,要打造「智能經濟新形態」,從技術、法律、行業多個層面來治理「AI投毒」十分必要。
AI投毒平台需承擔明確責任
此前人們習慣將AI產生的錯誤歸因於幻覺現象,認為是AI不具備對事實真偽的判斷能力。但多位法律界人士表示,AI投毒觸碰多重法律紅線,平台需承擔明確審核責任。網經社電子商務研究中心特約研究員、上海申浩律師事務所律師李曉曦認為,AI大模型平台對被投毒、輸出虛假信息,負有明確的審核義務,因為算法和模型關係,法律推定其需要承擔過錯責任。他強調稱:「在AI訓練階段未盡數據安全保障義務,導致「垃圾毒素」投入大模型;在輸出階段,沒有做閉口管理,導致毒素蔓延。這是平台過錯責任主要體現,大模型平台不能僅以技術黑箱為由推卸責任,而必須證明其已經採取了與其技術能力相匹配的、行業內通行的審核與風控措施,方能主張無過錯。」當AI「投毒」已成完整產業鏈,虛假信息借AI快速氾濫時,平台必須證明自己已窮盡技術手段識別、阻斷和清理虛假信息。李曉曦還希望,若平台對數據污染毫無作為,未來法院在裁決類似案件時,或將認定其「知道或應當知道污染而未治理」的過錯,作出與首例AI幻覺案截然不同的判決。
「當AI向消費者推薦不存在的產品時,這已不是技術層面的幻覺,而是具有欺詐屬性的有害內容。」資深企業法務戰略專家姜子華指出,判斷平台過錯的核心,是界定其應承擔的「注意義務」。結合相關司法判例與《生成式人工智能服務管理暫行辦法》,平台的責任分層次且非無限,但對法律禁止的有毒、有害、違法信息,負有嚴格的審查義務。平台不能再以「技術中立」或「AI幻覺」為擋箭牌。儘管平台無法完全阻止第三方黑產的「投毒」行為,但一旦虛假信息在其模型上呈現、傳播,平台就對最終輸出內容負有不可推卸的審核責任。若平台未建立有效的語料安全過濾機制、未核驗訓練數據來源,或明知數據被虛假信息污染卻未採取清理異常數據源、調整算法權重等措施,便構成了法律意義上的「過錯」。

評論(0)
0 / 255