姚兆明 香港大學計算與數據科學學院副院長

「AI系統絕對安全嗎?」如果我問大家這個問題,每個人都會思考片刻然後回答我「不」。現在人們認為AI非常強大,這固然正確,但同時筆者希望大家能夠關注一些問題。

讓我們簡單回顧一下AI系統的訓練過程,當中至少有3個關鍵要素:訓練數據、標記訓練數據、AI模型和算法。舉一個非常簡單的例子,如果我想創建一個AI系統來識別一張圖片是狗還是貓,就像訓練孩子識別貓狗一樣,我們可能不需要準確地說出狗或貓的特徵,而是當我們看到狗時,我們會告訴他們這是狗,當我們看到貓時,我們會告訴他們這是貓。訓練AI系統也是類似,我們會提供大量狗和貓的圖片,然後告訴AI模型哪張圖片是狗,哪張圖片是貓,AI模型(加上底層算法)會嘗試學習狗和貓的特徵,最後便會提取足夠的特徵來識別給定圖片是狗還是貓。

如果理解了上述概念,大家就會明白,AI系統的準確度有幾個關鍵點。首先,我們是否有足夠的訓練數據?如果一個孩子從未見過老虎或獅子,我們能指望他區分老虎和獅子嗎?這非常困難。有時,我們遇到的動物可能很難區分是狗還是貓,甚至人類也無法分辨,AI系統的情況非常相似,如果它從未見過,可能也無法準確區分。這就是為什麼我們會看到一些使用自動駕駛AI系統發生的車禍,因為AI系統可能沒有針對道路中的這些特殊情況進行訓練。其次,AI系統的訓練依賴於我們如何標記訓練數據。如果我們給一張狗的圖片貼上「貓」的標籤,系統就會被錯誤地訓練,這也是一些政府部門擔心大型語言模型的原因,因為我們永遠不知道訓練數據是否「完整」,以及訓練過程中是否存在任何「偏差」。最後,現實中有很多AI模型和底層算法,是否選擇出正確的模型也是一個問題。總而言之,我們可以看到AI系統並非100%安全。

但是,儘管AI並非100%準確和安全,筆者仍然鼓勵每個人都使用這項技術,因為它對我們的日常生活大有裨益,只是我們需要添加額外的保護措施。例如,人臉識別可能並非100%準確,但是,如果我們在系統中添加指紋、虹膜識別,那麼錯誤識別的可能性就會大大降低。此外,人工智能系統是否安全還取決於其背後數據的價值。如果人工智能系統與金融應用掛鈎,並且當中涉及大量資金,那麼我們需要確保該系統真正安全可靠,並添加額外的保護措施。因此,如何判斷人工智能系統是否足夠安全,將取決於如果被黑客攻擊會造成多少損失。所以,無論進入住宅區還是軍事建築,我們都會發現其對人工智能系統的關注點有所不同。

筆者將在之後的文章中討論如何利用人工智能讓我們的日常生活更輕鬆,以及別有用心之人如何利用人工智能進行詐騙。