● 美國國會今年1月爆發暴動,有示威者中槍喪命,被指是fb未有全力遏止網上仇恨言論所致。 資料圖片
● fb前僱員豪根在國會作證,指控fb去年大選後過早放寬限制。 資料圖片

美國大型科企facebook(fb)近來屢次被揭發在監管平台內容上出現問題,前僱員豪根早前在國會聽證會上,便指控fb去年大選後過早放寬限制。根據《華盛頓郵報》的最新調查,以及美國證券交易委員會取得的fb內部文件,顯示部分fb員工曾多次促請公司規管平台的仇恨和暴力內容。公司高層雖可阻止極端訊息擴散,卻遲遲未有採取行動,最終助長極端情緒迅速蔓延,更成為今年1月6日國會暴動的隱形推手。

去年大選結束後,時任總統特朗普及其支持者藉社媒大肆宣傳「選舉舞弊論」。然而fb在大選後不久,便匆匆移除至少22項遏止仇恨和不實訊息散播的限制措施。有fb數據分析師當時警告稱,平台上10%的政治議題討論都充斥「選舉舞弊論」,但高層並未及時規管,對員工呼籲採取行動的聲音充耳不聞,為衝擊國會事件埋下伏線。

局面失控始恢復緊急措施救亡

在國會暴動當日,原先在平台上流傳的「停止竊取選舉結果」標籤,紛紛演變成暴徒衝入國會時高呼的口號。fb平台亦被大量訊息淹沒,每小時新增的「虛假新聞」多達4萬條,眾多煽動暴力的內容源源不斷湧入特朗普官方賬號。

眼見局面失控,fb匆匆恢復部分緊急措施,包括關閉仇恨言論群組評論功能,以及過濾「停止竊取」標籤相關內容,但為時已晚。事後fb一份內部報告指出,對於當時平台上湧現的「停止竊取」標籤、虛假訊息和煽暴評論,fb未有全面規管。

平台演算法助長極端訊息傳播

內部文件更指出,fb平台演算法傾向引導用戶接觸極端訊息。公司前年曾進行一項動態消息(News Feed)演算法研究,實驗賬號設定為北卡羅來納州一名屬保守派的41歲女子,她主要關注霍士新聞台等右翼媒體,但並非極端人士。然而不論如何調整演算法,實驗賬號依然會瀏覽到極端主義訊息,其中一次實驗更在兩天內,便開始收到極右組織QAnon相關群組和陰謀論內容推薦。

許多fb員工近年已屢次向公司匯報,指平台演算法恐令用戶變得激進。公司多年來的內部研究,已發現有助找出規管不良內容、打擊陰謀論的新方法,但fb仍以「擔心公眾和政策利益相關者反應」為由,拒絕實施限制措施。

fb承認平台確實在大選後移除部分限制,但堅稱當時有問題的內容已「顯著減少」。公司亦宣稱國會暴動當天已迅速行動,控制平台仇恨和暴力內容,包括封鎖特朗普賬戶等措施更維持至今。至於國會暴動事件責任,fb則歸咎於參與暴動的暴徒及幕後煽動者,包括具影響力的政客,以及其他規管較fb更寬鬆的平台。

●綜合報道