在節奏迅速的數碼時代,許多人每日長時間停留在網上,從事閱讀新聞、瀏覽社交媒體、在群組應用程式聊天,參與線上論壇討論等活動。這些數字工具雖然促進了人際連結,卻同時令使用者更容易暴露於激烈爭論、錯誤信息以及高度情緒化的內容中。
專家指出,負面或過度對立的線上討論容易加劇社會極化,使個人逐漸採取更極端的立場,並僅依賴與自身既有信念相符的資訊來源。此類極化傾向對心理健康造成不利影響,近年的研究建議,透過工具重新排序或過濾數字內容,特別是降低憤怒或敵意貼文的能見度,有助營造更健康的線上環境。長期觀察顯示,這類內容調整措施能逐步改善使用者的整體態度與情緒。
隨着社會對線上敵意及其對心理健康所造成負面影響日益關注,愈來愈多使用者,尤其是年輕族群,開始轉向人工智能(AI)聊天機械人及心理健康應用程式等數字工具,尋求情緒上的支持。
專家提醒,這類科技雖具有一定助益,卻不應被視為專業醫療照護的替代方案。他們亦指出,相關技術本身仍存在局限與潛在風險。
一個值得日常使用者深思的問題隨之浮現:AI是否真能在降低線上敵意,為個人的心理健康提供支持?我們又應如何理解其在數碼生活中的角色與定位?
AI已實際應用於內容審核領域。許多線上平台現今依賴機器學習系統來辨識辱罵性語言、降低誤導性資訊的傳播,並調整用戶所接收的內容動態。研究顯示,降低高度挑釁或敵意貼文的曝光程度,與線上討論氣氛是否平和,以及使用者感到情緒耗竭與否息息相關。
這類系統並非封禁意見,而是默默於後端運作,猶如數字濾網,降低最可能引發憤怒或不安之內容的能見度,從而促進更具建設性的對話。
審核存局限 難理解複雜語境
然而,AI導向的內容審核亦存在明顯局限。由於自動化系統往往難以充分理解反諷、文化差異或間接表述等語境,過於嚴格的過濾機制或在無意間限制正當且必要的討論。
因此,專家一再強調提升透明度的必要,包括由外部專業人士對內容審核系統進行獨立審查,並加強與使用者的清楚溝通。他們亦指出訂定明確指引並結合人工監督的重要,以確保內容審核能降低有害行為,但不致於削弱開放且具意義的言論。
另一方面,AI聊天機器人愈來愈常用於心理健康支援領域,專家亦提醒其固有局限。這類系統雖能即時提供建議與策略,卻缺乏對人類情緒與複雜生活脈絡的真實理解,因而可能忽略痛苦徵象或誤判使用者的實際需求。其回應多以模擬同理心為主,容易營造出虛假的聯結感,取代較深層的人際互動,因而延誤尋求專業協助的時機。
研究人員與兒童安全倡議者亦警告,聊天機器人在辨識青少年複雜心理健康問題方面可能屢屢失誤,這更突顯結合人工監督的必要性。
AI雖在減輕線上敵意及擴大心理健康支援普及性方面發揮一定作用,但其角色仍在於作為人類照護的輔助,而非替代方案,其所產生的影響,取決於其設計是否透明、使用是否公平且負責,以及是否劃定清晰界線,將人類福祉置於演算法控制之上。隨着AI深度融入日常,當前的挑戰已不再是是否使用相關技術,而是如何審慎且明智地運用,確保科技能夠促進而非削弱整體社會的心理健康與福祉。
●中大賽馬會「智」為未來計劃 由香港賽馬會慈善信託基金捐助,香港中文大學工程學院及教育學院聯合主辦,旨在透過建構可持續的AI教育生態系統將AI帶入主流教育。通過獨有且內容全面的AI課程、創新AI學習套件、建立教師網絡並提供AI教學增值,計劃將為香港的科技教育寫下新一頁。

評論(0)
0 / 255