AI(人工智能)在短短兩年之內,由新奇玩意變成校園日常:不論老師備課或是學生做功課,第一時間都會打開AI求助。AI的速度與流暢度,確實為教與學帶來了新可能。然而,在享受技術便利的同時,如何辨別資訊真偽?如何保護個人私隱?如何確保學術誠信?這些問題已成為現代教育不可迴避的課題。
在很多人的印象中,AI 就像一個無所不知的超級大腦。然而,生成式 AI 的本質並非「理解」知識,而是基於大數據、機器學習和雲端計算的「預測」。
以文字生成為例,它並不真正明白文字背後的邏輯與意義,而是根據海量數據的幾率,預測下一個字詞應該出現什麼。這種機制雖然強大,卻也帶來了潛在風險 。當提問進入AI的知識盲點,為了維持對話的流暢度AI就會一本正經地說出錯誤、虛構或與現實不符的資訊,亦即是「AI 幻覺」(AI Hallucinations)。對教育而言,讓學生知道AI其實是在玩「大型猜字遊戲」,是建立AI素養的第一步。當他們明白AI並非「有意識的智者」,對系統輸出的內容自然會多一分質疑和判斷,而不是照單全收。
優化提示詞 降幻覺影響
從 AI 模型生成機制而言,幻覺現象是無可避免的;然而,為了將其影響降至最低,我們可以從優化提示詞策略(Prompt Engineering)以及選擇適配的模型這兩方面着手。
首先是優先使用具即時搜尋能力的AI工具。不少新一代模型加入網上搜尋功能,能參考較新的資料,減少因知識庫落後而產生的錯誤。教師可以示範如何查看系統列出的資料來源,帶學生一起對照原文,確認AI有沒有斷章取義或誤解。
其次,可以進行「交叉驗證」。同一條問題,可以用兩至三個不同平台提問,比較答案是否一致。市面上甚至有工具可以一次接駁多個模型,同時顯示回應,方便學生做比較。當答案差異很大時,反而是一個很好的課堂討論起點。
此外,學習「分步提問」,可以減少AI亂估。 與其一句「請分析垃圾徵費在香港推行的困難」,不如具體說:「請分步分析香港在公眾接受度、基礎設施、執法及經濟影響四方面的挑戰,為每點提供例子和原因,最後提出可能的緩解方案。」這樣既能減少模型「自由發揮」的空間,又能幫學生整理思路。
同時,亦可以善用角色設定與篇幅要求,例如可以指示:「你是一名公共政策分析員,請用客觀語氣、300字至400字,分析並引用香港實際數據。」清晰的角色和結構要求,會令生成內容更貼近學術寫作,而非聊天式閒談。
最後,在合適情況下使用「檢索增強生成」(RAG)框架。 簡單來說,就是使用支援專案和資料庫的工具(如Poe 和Grok)先把學校的教材、課程文件、校本政策等整理成資料庫。再讓AI在回答問題時優先參考這個資料庫,這樣會較容易追溯引用來源,也讓生成內容更貼合教學需求,大大降低了AI 產生幻覺的機會。
這些做法看似技術性,其實本質是把「查證」變成一種日常學習習慣。當學生習慣質疑和驗證,就不容易被AI幻覺牽着走。享受AI為教育帶來的便利同時,我們必須清醒認識AI只是輔助工具,而非萬能權威。優化提示詞、交叉驗證來源及建立檢索增強生成等方法能有效降低幻覺風險。AI素養的核心在於培養學生批判性思考與學術誠信,唯有將「質疑與驗證」內化為日常習慣,AI才能真正成為提升教與學質素的可靠夥伴,而非潛在隱患。
●中大賽馬會「智」為未來計劃 由香港賽馬會慈善信託基金捐助,香港中文大學工程學院及教育學院聯合主辦,旨在透過建構可持續的AI教育生態系統將AI帶入主流教育。通過獨有且內容全面的AI課程、創新AI學習套件、建立教師網絡並提供AI教學增值,計劃將為香港的科技教育寫下新一頁。

評論(0)
0 / 255