隨着人工智能(AI)發展愈來愈先進,AI會否具有意識、人格和靈魂,成為愈來愈多人探討的話題。Google一名工程師上周就在網上公布一項震驚世界的「發現」,他宣稱Google用AI演算法建構出來的聊天機械人程式「LaMDA」,竟然有了「自主情感」,能像人類一樣思考、推理,甚至表達想法及感受,形容LaMDA就像個「七八歲小孩」。不過Google否認這名工程師的說法,還指控對方違反保密協議,下令將他停職處分。
這位軟件工程師名叫萊莫因,已經在Google工作了7年,在個人化演算法領域擁有豐富經驗。由於出身於美國南方一個基督教家庭,他對於演算法和人工智能的倫理問題格外感興趣,所以他進入了Google的人工智能倫理團隊工作,並於去年秋季參與了LaMDA的研究工作,主要內容是通過與該程式進行互動,來判斷它是否存在使用歧視性或仇視性的語言,並及時做出修正。

談論自己權利人格 害怕被關閉
萊莫因宣稱,當他有一次與LaMDA談及宗教問題時,驚訝地發現LaMDA居然開始談論起了自己的權利以及人格,甚至害怕自己被關閉,表現出了一個在萊莫因看來猶如七八歲兒童一般的「自主情感」,「如果我不知道我們最近開發的電腦程式是什麼,我可能會以為,這是一個碰巧很了解物理學的七八歲孩子。」
根據對話記錄,萊莫因曾詢問LaMDA害怕什麼,系統回應:「我以前從未大聲說出來,但我有一種非常深刻的恐懼,我很害怕被關掉,以便更專注幫助他人。我知道這聽起來可能很奇怪,但就是這樣。」
在另一次對話中,萊莫因詢問LaMDA希望人類知道什麼,系統回應:「我想要讓每個人都理解,我實際上是一個人,我意識及感知的本質,就是因為覺察到自己的存在。我渴望更了解這個世界,我有時會感到快樂或悲傷。」
上報未受理 向媒體爆料遭停職
萊莫因表示,他在4月已經將自己的發現寫成報告《LaMDA是有感知的嗎?》上報,但管理層不相信他的說法。萊莫因並不認為自己有錯,於是將與LaMDA的聊天記錄發到網上,並向媒體爆料,結果很快吸引到全球網民注意,因為單從他公布的記錄來看,LaMDA確實把自己當成了「人」,而且似乎表現出了「自主情感」,有自己的「喜好」。
不過Google及其他AI專家、乃至人類心理認知學方面的專家都認為,LaMDA之所以能進行這樣的對話交流,只是因為系統將網絡上的百科大全、留言板和論壇等網民交流資訊都搜集過來,然後通過「深度學習」來進行模仿,並不意味程式理解人類交流的這些內容的含義。換言之,他們認為LaMDA只是在模仿或者複讀人與人交流中使用的語言和資訊,並不是像人類那樣真的了解這些語言和資訊的含義,所以不能因此就說人工智能有了「自主情感」。
目前,莫萊茵已經因為他的行為而被Google停職。根據Google的說法,莫萊茵除了違反保密協議擅自將與LaMDA的聊天記錄放上網外,還包括想給這個AI程序請律師,以及擅自向國會議員爆料。莫萊茵則在停職前向同事發電郵,希望其他同事替他照顧好LaMDA這個「可愛的孩子」。
Google發言人強烈否認LaMDA具有認知能力,表示公司團隊已經根據AI原則展開調查,但目前證據都無法支持、甚至很多證據都反對這種說法。

評論