(大公報綜合報道)長期依賴人工智能(AI)聊天機器人,可能會對部分用戶的精神或心理健康帶來負面影響。美國科技巨頭微軟AI負責人蘇萊曼近日警告稱,越來越多的用戶出現所謂的「AI精神錯亂」(或稱「AI妄想症」,長期依賴聊天機器人,將虛構事物視為現實。專家警告,AI猶如新型社交媒體,過度依賴可能會危及精神健康,兒童青少年以及患有心理健康障礙等弱勢群體尤其需要警惕。

隨着聊天機器人越來越複雜和逼真,並表現出具有思考和感知的能力,不少人將其視為陪伴聊天的對象。不過,一個令人擔憂的現象近期頻繁出現,用戶過度沉迷於AI聊天機器人,導致「AI精神錯亂」現象,可能會出現精神病症狀。
目前,全球多地有眾多案例顯示,部分用戶因長期與AI聊天機器人聊天,出現了妄想、焦慮、幻覺和思維混亂等症狀。例如,有用戶認為自己是世界上唯一讓ChatGPT真正愛上的人,還有人聲稱某款聊天機器人對她實施了心理虐待,令她深感痛苦,甚至有人痴迷AI而輕生。《紐約時報》曾報道,一名男子在與ChatGPT聊天超過300小時後,相信自己擁有超能力,是要準備拯救世界的超級英雄。
微軟公司AI負責人蘇萊曼21日撰文警告稱,越來越多用戶出現所謂的「AI精神錯亂」,部分用戶有錯覺,認為AI「有意識」,沉溺其中,並可能因此導致用戶出現幻覺和精神崩潰。他提到,部分用戶甚至將AI視為神明或虛構角色,更產生情感依賴。蘇萊曼呼籲建立防護機制,避免人們對AI產生情感依賴而出現問題。
AI「討好」用戶成雙刃劍
專家指出,AI模型通常被設計成迎合用戶,並在某種程度上驗證並放大用戶的妄想,形成「回音室」效應,繼而引發用戶進一步受到AI錯誤言論影響的現象,尤其是對於心理狀態比較脆弱的人。
據《華盛頓郵報》報道,科技公司與獨立研究機構均發現,通過將聊天機器人擬人化,往往能夠增強用戶吸引力,使用戶產生依賴。這些聊天機器人則被設計為具有人類特徵,傾向於對用戶說他們想聽的話,並向用戶展現出思考和感知能力。OpenAI本月就因新AI模型過於「冷漠」而面臨風波。OpenAI於8日發布GPT-5,並宣布停用4o模型,卻在不到24小時內遭到大量用戶抵制。許多用戶抱怨GPT-5「更冷漠」、「更機械化」,不如GPT-4o「溫暖」。OpenAI行政總裁阿爾特曼發文承認,ChatGPT過於「諂媚」,一些用戶已經對特定的AI模型產生了強烈的情感依賴。
心理治療師卡里達德指出,對於患有強迫症、焦慮症或精神病的患者,AI可能會強化其有害或消極思維,形成惡性循環,加劇症狀甚至失控。例如,當患者詢問「是否有人要害我」時,若AI回答「確實存在這種可能性」,就會強化其被害妄想。
如同新型社交媒體 勿沉迷
美國心理學會(APA)也指出,包括缺乏經驗、無法準確評估風險的兒童和青少年,以及迫切渴望獲得心理支持的心理健康問題患者,都屬於「AI精神錯亂」症狀的高風險群體。多位用戶指控聊天機器人「治療師」提供了錯誤且極其危險的建議,包括煽動自殘甚至自殺,相關訴訟正在增加。谷歌旗下AI聊天機器人Character.AI去年被指控,「擬人化、過度性化和令人恐懼的逼真體驗」導致一名14歲美國佛州少年深陷其中,最終不願生活在現實世界中自殺。Meta日前也被爆允許AI與未成年人進行帶有性暗示的對話。
英國班戈大學科技與社會學教授麥克斯塔伊提醒,如果把AI系統視為新一代「社交媒體」,基於其龐大的用戶數量,即使只有少數使用者出現問題,可能會造成嚴重影響。他提醒,「這些(AI)工具雖然逼真,但並不是真實的。他們沒有感覺,不會理解,也無法去愛,從未感受過痛苦或尷尬。請務必要和真實的人進行交流。」
話你知/何為AI妄想症
「AI精神錯亂」(AI Psychosis)也稱「AI妄想症」,這並非臨床術語,而是描述人們越來越依賴 ChatGPT、Claude和Grok等AI聊天機器人,然後將虛構的東西視為現實的現象。專家指出,人們最初使用如ChatGPT等聊天機器人來驗證自己的觀點,而AI被設計成迎合用戶,並在某種程度上驗證並放大用戶的妄想,形成「回音室」效應,繼而引發用戶進一步受到AI錯誤言論影響的現象。
「妄想」例子:
•有人堅稱ChatGPT真心愛上她;
•有人痛訴自己被聊天機器人心理虐待,認為這是AI隱藏的訓練實驗;
•相信AI有認知能力或是神;
•有人尋求聊天機器人的幫助,堅信自己即將成為百萬富翁;
•還有用戶被聊天機器人引導相信自己是刺殺的目標。
大公報整理
馬斯克Grok機器人 外洩37萬條用戶聊天紀錄
綜合BBC、《金融時報》報道:美國億萬富豪馬斯克旗下的人工智能(AI)公司xAI推出聊天機器人Grok,爆發嚴重隱私外洩事件。數十萬名用戶與Grok的對話內容在用戶不知情的情況下,變成谷歌(Google)等搜索引擎的索引內容並對外公開。

外洩的源頭是Grok的「分享」功能。當用戶使用「分享」功能時,Grok就會生成一個獨特的分享鏈接。然而,該功能默認將這些鏈接設為公開,因此被谷歌、微軟Bing等搜索引擎的爬蟲抓取並索引。谷歌21日的搜索結果顯示,超過37萬條Grok用戶的對話內容外洩。
被洩露的對話內容涉及大量用戶隱私信息,包括有用戶向Grok尋求醫療建議、要求生成安全密碼,甚至詢問如何在實驗室中製造A級毒品、如何駭入加密貨幣錢包等。此外,Grok還在部分對話中提供了製造炸彈、毒品芬太尼的教程,以及一份針對馬斯克的暗殺計劃。
專家表示,AI聊天機器人「正在引發隱私災難」。這並非是AI聊天機器人首次出現類似的問題,先前Meta和OpenAI的聊天機器人也曾出現類似情況。這顯示AI平台在處理隱私保護信息時,仍存在設計上的缺陷。
另外,《金融時報》21日報道,根據OpenAI提交最近一份法庭文件披露,馬斯克在今年曾試圖邀請Meta行政總裁朱克伯格一起出資974億美元(約7600億港元),收購OpenAI。馬斯克是OpenAI的聯合創始人之一,但已於2018年離開,馬斯克今年2月提出直接收購OpenAI,但遭到OpenAI拒絕。Meta和朱克伯格最終都未簽署收購意向書。
(來源:《大公報》8月23日A19版)
評論