「深偽」變臉換聲全球蔓延 港設「防騙刑警」未雨綢繆




警方教絕招:叫對方鏡頭前動手指搖頭便顯破綻
網絡騙案防不勝防,「有圖有真相」已成過去,接下來即將面臨「有影片也難有真相」的挑戰。AI人工智能「換臉」、「換聲」的「深偽技術」開始運用於詐騙,正在全球迅速蔓延,香港今年以來也收到兩宗涉及AI詐騙的查詢。儘管因技術和成本等原因尚未成為詐騙案的主要類型,香港警方仍提醒,隨着AI技術日趨成熟,市民應及早提高防範意識。警方日前講解和分析「深偽技術」騙局的趨勢及現存的「穿煲」弱點,建議市民可叫對方在鏡頭前做指定動作來識破「真人假象」,同時提醒市民避免接聽陌生人的視像電話,保護好個人臉部、聲音等生物特徵信息,免被騙徒收集成數據用來「換臉」「換聲」造假行騙。 ◆香港文匯報記者 廖傑堯
利用人工智能(AI)技術生成的deepfake(深度偽造技術),是透過人工智能作深度學習的方法,模擬特定對象的多角度面部特徵和聲音,製成高仿真的模擬影聲,有海外個案顯示此技術被騙徒利用來行騙。
四督察首次出任「防騙刑警」
香港警方網絡安全及科技罪案調查科首次委任4名警務督察作為「防騙刑警」,包括高級督察吳柏慧、高級督察陳智穎、高級督察張文瀚及督察梁珮筠,日前向香港文匯報等媒體分享包括AI「深偽技術」在內的科技罪案趨勢和手法以及有效防騙策略。
目前香港警方尚未接獲涉人工智能詐騙案的舉報,但警方獲悉有兩宗涉及香港元素的個案查詢。今年5月,一名日本男子在社交平台瀏覽到一名香港銀行CEO的賬號,發現內有關於在香港投資的新聞報道片段,殊不知是騙徒以深偽技術製造新聞女主播推介投資項目及專訪CEO的報道。日漢信以為真,最終被騙購買1,570港元的點數卡,他其後致電到涉案銀行尋找該名CEO,該銀行指並沒有此人,男子和銀行都將事件通知日本警方,得知騙徒是盜用了另一間銀行CEO的樣貌。
今年3月,一名25歲香港男子在交友平台玩裸聊,被誘騙下載不知名手機程式,騙徒透過程式的視像功能盜取港男的樣貌及手機電話簿,再以「深偽技術」將其頭像移花接木到色情影片,然後向事主勒索1萬元。事主拒絕付款,但他只是通知警方,沒有正式報案。因此,香港警方暫時未有接到利用「深偽技術」實施詐騙的報案。
至於早前內地有報道指有科技公司老板被AI偽術騙去數百萬元,國家反詐中心已澄清沒有相關案件舉報。不過,近期以「深偽技術」進行實時「換臉」、「換聲」的騙案再度成為網民熱搜對象。
眨眼視線變化等易露破綻
警方分析指,理論上AI「深偽技術」也可使用在網戀騙案、電郵騙案、釣魚騙案中。現階段,騙徒通常需要收集大量被模擬對象的原始影像及語音數據,才能達到理想的偽造成果,過程要配合高運算力的電腦,需時費力,加上現時技術尚無法作非常細緻的處理, 例如眨眼、視線變化或臉部抽搐的動作會較不自然,通常在畫面邊緣處會出現不協調,故利用「深偽技術」實時對話較易露出破綻。
警方日前向記者演示利用人工智能「變臉」的手法,以數星期時間搜集及模擬到的一名警司臉部資料,將其套用在另一人身上並作實時視像聊天,可見因數據不完善,畫面中被偽冒人物的眼神、口型出現不協調,臉部邊緣線不自然。
手指動作變得模糊和遲滯
警方指出,要特別留意手指在鏡頭擺動的動作,因數據不完整及電腦運算力不足,無法應對突然改變的畫面,令手指動作變得模糊和遲滯。所以,市民若有懷疑,只要叫對方在視像中做出用手指橫過臉部的動作,便可看出上述破綻,即可判定這可能是一個假影像。
根據警方了解,現時騙徒使用的所謂「變臉」片段,都是騙徒預先製作,並且透過視像的通話播放,為免「夜長夢多」露出破綻,往往只會播放數秒鐘,便會以不同借口結束視像聊天,然後返回傳統的詐騙「劇本」,用即時通訊軟件繼續行騙。
警方指出,利用「深偽技術」做視像電話,其實都是增加受害人信任度的一個行騙手段,無論人工智能發展到何地步,只不過是其中一個接觸受害人的手段,整體行騙套路與傳統的手法大致相同。不過,科技發展一日千里,市民必須時刻保持警惕,提高防騙「免疫力」,謹記「眼見不一定為實,有圖並不一定是真相」。