熱門搜尋:

【創科新視野】AI 「編故事」 事實核查須更精細

2025-09-10 04:19:01 評論

姚兆明 香港大學計算與數據科學學院碩士課程總監

什麼是幻覺?為什麼它會在類AI ChatGPT系統中出現?

事實上,沒有任何AI系統能夠100%準確,有時可能會給出錯誤的答案。在本文中,我們將透過討論類AI ChatGPT系統的一個特殊問題——幻覺問題,來進一步闡述這個問題。

幻覺是指當類AI ChatGPT系統回答問題時,會給出一個看似合理的答案,但這個答案實際上是AI系統編造的,要麼沒有任何文獻證據支持(即沒有任何事實支撐),要麼是斷章取義。舉一個簡單的例子。你可能想問類ChatGPT系統一個問題:「香港兒童的營養狀況與貧窮有何關係?」系統可能會用一篇文章「SM Yiu et al.香港兒童貧窮與營養關係,教育心理學評論,23(3),110-125」。但事實上,這篇聲稱由我撰寫的文章並不存在。簡而言之,一些類似AI ChatGPT的系統正在編造故事,並使用不存在的事實來回答問題。

為什麼會發生這種情況?這個問題源自於許多因素。首先,系統可能沒有足夠的訓練數據,即系統尚未接受過這些問題的訓練,並且取決於底層AI模型是否需要回答某些它可能不太準確或沒有足夠的信息(例如,某些模型允許系統回答「我不知道」,但某些系統可能仍然希望AI系統提供一些答案)。最近,一些研究機構報告稱,虛假的幻覺問題日益嚴重。他們提供的統計數據表明,對於某些AI系統,虛假資訊百分比可能高達50%以上。要注意的是,幻覺可以由AI系統編造,也可以基於假訊息資訊。

幻覺帶來風險

另一方面,區分幻覺和有意為之的AI輸出非常重要。例如,如果我們希望AI系統根據你的描述製作影片或圖像,AI系統可以基於其學到的知識和創建的大型語言模型為你產生一些創意輸出。這些創意AI輸出大多與藝術任務相關,與幻覺無關。如今,我們能夠使用AI系統創作大量藝術作品,其速度遠超人類設計師。我並不是說AI系統可以取代人類設計師,而是AI系統可以提供他們更多見解和想法,從而創造出更好的設計。另一方面,幻覺與準確性和可靠性息息相關。因此,在使用AI或網絡資源時,事實查核仍然非常重要。

如果你一直在關注本系列文章,你應該明白風險與問題的重要性有關。如果你的問題與一些電影明星的新聞有關,那麼幻覺或錯誤的答案可能不會造成太大影響。然而,如果問題涉及公共衞生和法律方面(例如,在一個法庭案件中,人工智能的幻覺編造了一個不存在的過去案件作為證據提交給法庭),那麼這將非常重要。這個概念與我們迄今為止討論的內容一致:我們需要什麼程度的安全取決於我們需要保證和保護的資訊的價值。

這個問題並不新鮮。在過去的幾年裏,我們經常使用谷歌,谷歌會提供大量的連結。你認為所有這些連結中的資訊都是100%準確的嗎?當然不是,現在,我們擔心我們的下一代,如果他們過度依賴谷歌和類似ChatGPT的系統,並認為它們總是正確和準確的,那麼這對我們的下一代來說將是一場災難。我們應該充分利用這項技術,但我們也需要了解它的局限性,並思考如何利用它來為全世界所有人的日常生活帶來巨大的進步。因此,我們鼓勵年輕一代使用類似ChatGPT的人工智能系統。但他們應該審查內容,進行事實核查,並進一步改善結果。

讀文匯報PDF版面
評論(0

0 / 800

相關推薦
評論成功,請等待管理員審核...