張俊獅 香港恒生大學經濟及金融系副教授 澳洲悉尼科技大學客座副教授
近一段時間,網絡興起一股「養龍蝦」熱潮。所謂「養龍蝦」,是指一款名為OpenClaw的應用程式,用戶安裝後,可藉由該程式自動執行各類任務,例如收發電子郵件、整理文件資料等。「龍蝦」這類AI代理人工具,其核心技術邏輯並非全新創舉。自ChatGPT等大語言模型問世後不久,業界便已嘗試將大模型與代理人程式相結合,通過編程實現任務自動化,替代用戶完成重複、瑣碎的工作。
賦予權限過多 操作容易失控
這一技術構想早在2022年出現雛形,當時的LangChain框架,實現了大語言模型與簡單代理人程式的對接。不過早期版本在長期記憶、自主規劃及循環執行等方面能力有限,僅屬於基礎型代理人工具,難以承擔複雜任務。
到2023年前後,AutoGPT的出現實現了較大突破,程式具備自主規劃、自主執行並完成目標的能力。儘管早期版本在電腦操控方面穩定性不足、整體效能有限,但相對而言,也降低了自主操作帶來的安全風險。
以前的這些程式雖然簡單,但相對比較安全,而現在的「龍蝦」,卻存在更高的安全風險。
關於風險的取捨,可以用一個通俗的比喻:就是你聘請一個鐘點工人(龍蝦)幫忙清潔家居(處理工作)。如果你想安全一些,你可以吩咐他只可在指定的時間上門,你親自開門給他(沒有提供權限),然後指揮他如何做清潔。這種做法比較安全。但如果你不想親自監督,你可以直接給他鎖匙,讓他自選時間上門清潔,清理什麼,清理多少由他拿主意(提供更多權限,由程式自主決定)。選擇這種管理方法,雖然不用費心監督,但同時也引起不小風險。程式自主決定的操作,未必符合用戶真正需求,也可能產生額外費用。更有甚者,由於「龍蝦」可自主操控用戶的電腦,不法之徒或者有機可乘,透過「龍蝦」入侵用戶電腦。
用戶授權「龍蝦」執行任務,本質上是開放了相應的系統權限。授予的權限越多,工具的自主操作空間越大,潛在風險也隨之升高。不少用戶反映,「龍蝦」程式誤刪電腦內重要文件,最終得不償失。此外,「龍蝦」等代理人程式多調用大語言模型API,使用「龍蝦」有可能產生高昂的服務費用,用戶最終收到超出預期的賬單。若選擇本地部署開源大模型規避API費用,則需要配備高規格顯示卡,不僅硬體成本高、電能消耗大,運行速度也遠不及科技公司提供的雲端模型。
安全機制未完善 避免盲目跟風
值得關注的是,「龍蝦」這一工具在開源初期並未受到廣泛關注,卻自今年2月起迎來爆發式增長。在開源社區GitHub上,「龍蝦」的點讚數目在短期內突破31萬,這樣的增長速度在開源領域極為罕見,令人質疑如此異常的增速,背後是否有別有用心者故意推波助瀾。
與此同時,網絡上也出現大量「龍蝦」的偽裝版本。不少不法分子仿冒「龍蝦」的介面與名稱,提供帶有木馬、病毒的惡意安裝包,這類被網民稱為「毒龍蝦」的假程式,會導致用戶電腦被黑客入侵,進而造成財產損失,目前已有不少用戶受害。
人工智能雖是未來發展的大趨勢,但當下相關技術仍未完全成熟,安全配套機制亦不完善,大眾需要保持理性與耐心,避免盲目跟風。如確實希望嘗試接觸新科技,可使用單獨的測試電腦,確保設備內不儲存任何重要數據與敏感資訊,即便出現異常操作,也不會造成實質性損失。用戶也可以考慮使用本地的大語言模型,避免讓API產生過多開支。把網絡安全放在首位,才能在安全的前提下享受科技帶來的便利。

評論(0)
0 / 255