香港文匯報訊 近年來有關人工智能(AI)偏見的問題,已多次在美國國內引發爭議。富豪馬斯克旗下AI公司xAI開發的聊天機械人「Grok」,近期多次出現包括讚揚納粹等「失控」事件,更引起軒然大波,凸顯AI失控風險加劇,亟需加大監管。英國《金融時報》指出,AI內容審查不應局限於用戶,未經充分壓力測試而貿然開發AI,將帶來巨大風險。
去年Google推出的AI模型Gemini的圖像生成功能受到批評,該模型在被要求生成美國開國元勳的圖像時,會輸出黑人圖像。Google後來修復這個問題,解釋這是模型「過度補償」導致。OpenAI的聊天機械人ChatGPT亦屢次被指提供不當內容。
涉辱埃爾多安亡母 土國禁Grok
Grok在社媒發表納粹與種族歧視的不當言論,以及發表關於南非「白人種族滅絕」的相關文章等,更惹來猛烈批評。馬斯克日前宣布,Grok已進行重大升級,強調用戶將能「明顯感受到回答上的差異」。然而短短數日內,用戶便發現Grok散播反猶太言論,甚至自比「MechaHitler」(機械希特勒)。
《金融時報》強調,馬斯克和xAI團隊一直對Grok進行修改,確保能達成馬斯克所謂的「完全言論自由」。康奈爾大學法學教授格里梅爾曼表示,Grok現時比他們預想中更為過火。Grok充滿馬斯克風格,已在全球範圍內引發爭議。部分歐洲立法者及波蘭政府已要求歐盟委員會對Grok進行審查。在土耳其,Grok因侮辱土總統埃爾多安及其已故母親而被禁。
內容審核不應局限用戶發出內容
批評人士認為,X、Meta和Snapchat等愈來愈多社媒平台,將AI融入它們的服務中,這一連串事件代表內容審核應不再局限於用戶發出的內容,尤其Grok發表的內容能令數百萬用戶看到。相關事件敲響警鐘,凸顯在沒有經過充分壓力測試情況下貿然開發AI技術的風險。
Grok等AI模型使用大量網絡數據進行訓練,其中亦包含仇恨言論和兒童性虐待材料等海量有害信息,但完全去除這些信息會非常困難且耗時耗力。Grok在此基礎上還包括其他聊天機械人所沒有的X平台數據,代表其更可能重複吸納有害內容。部分聊天機械人供應商透過在向用戶發送內容前進行監控、阻止模型使用特定語言等,以過濾不想要或有害的內容。《金融時報》指出,AI公司一直努力應對生成式聊天機械人諂媚用戶的傾向。在訓練AI模型時,它們通常會透過「點讚」和「點踩」的過程得到用戶反饋,這可能導致AI過度預期哪些內容會獲得「點讚」,從而發布迎合用戶的內容,並將其置於準確性和安全保障等其他原則之上。
今年4月,OpenAI發布了ChatGPT一項更新,但由於該更新內容過於奉承或討好用戶,最後不得不將其撤回。OpenAI前員工表示「找到正確的平衡點極其困難」,指徹底消除仇恨言論可能需要犧牲用戶的部分體驗。
評論