fb近年多次被指對旗下平台的仇恨和暴力內容監管不力,公司高層則強調人工智能(AI)技術可有助平台處理相關問題,包括使用AI偵測並移除違規內容。但《華爾街日報》引述fb內部文件報道,AI監管平台內容的成效甚低,未能精準識別和分類內容,甚至將違規的鬥雞視頻,錯誤標籤為車禍,使這類原應被移除的影片繼續在平台傳播。

根據fb一名高級工程師在前年撰寫的文件,平台的自動識別功能只能移除2%涉及仇恨言論的違規內容,若fb的演算法未能判斷內容是否違規,平台只會減少向用戶顯示該內容,但發布者不會受到懲罰。今年3月時,另一班fb僱員亦得出差不多結論,指出系統只能移除3%至5%違規內容。

車禍內容被偵測為射擊

fb發言人斯通表示,該百分比只涵蓋AI移除的內容,並不包括平台其他用於減少用戶瀏覽仇恨言論的措施。但根據fb今年較早前公布的數據,稱AI的偵測率高達近98%,較2017年的24%大幅提升。fb更一直稱「幾乎所有被移除的涉及仇恨言論的內容,AI都在收到用戶舉報前已偵測到」,行政總裁朱克伯格此前亦曾表示,fb在前年年底前便可使用AI偵測到「大部分有問題內容」。

但民權組織和學者對fb的AI偵測率一直持懷疑態度,指出數據與用戶體驗和民間研究不符,很多應該被移除的視頻,如槍擊、車禍現場等血腥內容,並沒有被偵測到。偵測欠準確也導致fb的內容分類混亂,包括將遊戲視頻標籤為洗車、車禍則被偵測為射擊,部分原應被禁的鬥雞視頻,也因被錯誤標籤而未被移除。 ●綜合報道