香港文匯報訊 全球領先的人工智能(AI)集團正加緊努力,減少大語言模型中的「幻覺」現象,以解決這一制約技術應用的關鍵障礙。Google、亞馬遜、Cohere和Mistral等企業通過技術修復、優化訓練數據質量,以及在生成式AI產品中構建驗證與事實核查系統,試圖降低虛構答案的出現頻率。這一努力被視為推動AI在法律、醫療等依賴精準信息的領域廣泛應用的關鍵。

Mistral與法新社合作整合數據

所謂「幻覺」,是指AI因統計性預測機制生成與事實不符或偏離指令的內容,例如模型可能錯誤總結事件年份,或虛構不存在的引用。研究顯示,不同模型的幻覺率差異顯著,從0.8%至29.9%不等。儘管新一代具備推理能力的AI初期錯誤率上升,但通過引入「數據錨定」技術,企業已顯著降低錯誤。例如Mistral與法新社合作整合新聞數據,而Cohere和Mistral還允許客戶連接內部數據庫,以增強事實核查。

亞馬遜AWS則嘗試通過數學邏輯自動驗證加強準確性,Google DeepMind等公司還訓練小型評估模型,專門檢測輸出錯誤。然而專家指出完全消除幻覺並不可行,Cohere聯合創始人弗羅斯特強調模型無法僅學習「真實」,因真相隨世界動態變化,且可能因觀點而異。此外,聯網檢索可能使AI遭受「提示注入」攻擊,例如Google AI曾因Reddit惡作劇建議用戶「吃石頭」。

行業面臨的另一挑戰是平衡準確性與創造性。Google DeepMind指出,創意功能雖提升實用性,但也可能增加非事實性回答。