
上期我們提出一個問題:AI是否有「人設」?就工作原理來講,AI並不具有真實的性格,輸出的文本風格由用戶輸入、基礎訓練數據、人類反饋強化學習(RLHF)、提示詞等因素調控。
模型在訓練階段「閱讀」了海量的互聯網文本、書籍、代碼等。其回覆的知識範圍、事實準確性(雖然可能出錯)和涉及的話題都源於此。訓練數據的質量和覆蓋面是基礎。模型從數據中統計學習語言的規則、常見表達方式、不同風格(正式、隨意、技術、文學等)的詞彙和句式特征。回覆傾向於模仿訓練數據中常見的、高概率出現的語言模式。
RLHF是塑造模型行為,如樂於助人、安全無害,是否會拒絕不當請求的關鍵步驟。人類評估員會對模型的多個候選回覆進行打分或排序,其後模型通過數學上的優化算法調整其內部參數,目標是最大化其輸出獲得人類好評的預期獎勵。這使得模型更傾向於生成符合人類價值觀和期望的回覆風格和內容策略。
善用提示詞 回覆更合意
而對於用戶來說,最值得注意的或許是提示詞——開發者「注入」模型的、在每次對話開始前或運行中後台添加的隱藏指令。它用自然語言或結構化指令明確設定AI的角色(如「你是一個樂於助人的AI助手」)、行為規範(如「用中文回覆」「回答要簡潔」「避免主觀意見」)、知識範圍(如「基於以下文檔回答」)等。
用戶的問題或指令的內容、語氣、用詞風格本身就是一個強大的上下文信號。模型會基於其訓練模式,傾向於匹配用戶輸入的風格和深度。如果用戶提問簡潔,回覆可能也較簡潔;如果用戶使用正式語言,模型也可能調整其回覆的正式程度。
模型在處理用戶輸入時,會同時考慮這些系統指令的向量表示,其內部計算會調整注意力權重,使得回覆更符合系統提示的要求,顯著影響回覆的語氣、詳細程度、正式程度和內容範圍。
總之,AI處理文字是一個將輸入轉化為數字向量,通過多層神經網絡進行大規模矩陣運算和信息整合,並基於統計概率迭代預測生成下一個標記的數學過程。它沒有理解、意識或思考。不過,你仍然可以把它當做一個可靠的助手或是隨時能和你搭上話的網友。(二之二)
●文鯉
0 / 255