儘管人工智能生成內容已非常流暢,但提供的信息很多時候還是不準確。日本研究人員近日在德國《先進科學》雜誌發表的一項研究成果顯示,這一問題與人類的語言障礙——失語症類似。新研究成果可以為研究人員改進人工智能提供參考。
智能體、聊天機器人等基於人工智能的工具正越來越多地應用於日常生活。考慮到人工智能模型在提供信息時表現出「高度自信」,如果用戶對所討論主題或領域缺乏足夠了解,會很容易把其中的錯誤信息當成正確的。
為此,日本東京大學研究人員使用了一種名為「能量景觀分析」的方法。這種方法最初由物理學家開發,旨在使磁性金屬中的能量狀態可視化,最近應用於神經科學。研究人員檢查了不同類型失語症患者在靜息狀態下的大腦活動模式,並將其與幾個公開可用的人工智能大語言模型的內部數據比較。
失語症患者可能會很流利地說出一些毫無意義或難以理解的話。研究人員發現,人工智能與此有相似之處。在這些人工智能模型中,數字信息或信號的流動和運作方式與某些失語症患者一些大腦信號的行為方式極為相似。
研究人員說,人工智能模型在出現嚴重錯誤時仍表達流暢,這與感覺性失語症的症狀有相似之處,即說話流利卻總說不出什麼意思。這並不意味着聊天機器人有「腦損傷」,但它們可能被鎖定在一種僵化的內部模式中,限制其靈活運用所儲存知識,就像得了感覺性失語症。
研究人員表示,對神經科學來說,這項研究提供了一種可能的新方法,可以根據大腦內部活動而不僅是外部症狀來分類和監測失語症等疾病;對人工智能研究來說,這將幫助研究人員從內到外改進人工智能系統的架構。
(來源:新華網)
責任編輯:
趙霁
評論