狸美美

確實萬萬沒料到,普通老百姓還沒聊上ChatGPT,卻已經開始被AI騙光了底褲。面對被反詐平台驚呼為「成功率幾近100%」的AI詐騙,原本正優哉嘆下午茶的人類,突然間就迫不得已被掛上步槍推上了抵抗的戰場。雖然混亂、簡陋又猝不及防,但卻是個現實的問題——長年存在於想像中的「人機大戰」,就這樣倏忽而至了嗎?奇點,這就來了嗎?

「AI詐騙」的霸屏態勢確實毫不奇怪,反詐平台的驚呼也不算失態,因為現實確實太令人震驚了。在最近廣傳的真實案例中,福州的一個公司老闆,接到好友的視頻電話,被要求幫忙走一筆賬。關係太鐵磁,操作太常見,老闆想都沒想,看到好友發來已轉入款項的截圖後,二話不說就從自己賬上又把這筆錢「原封不動」地轉了出去。總額430萬元人民幣,全程歷時10分鐘。然而讓老闆以及所有人都驚掉下巴的是,視頻電話中活蹦亂跳、有說有笑的「好友」竟然不是真人,它是騙子利用AI的「建模換臉」和「模擬聲音」等技術製造出的「數字假人」。當然了,那張轉入款的截圖自然也是假的。

當親眼所見、親耳所聽都不一定為真,那還能讓人怎麼辦?面對這種武力值的敵人,別說老年人難以防範,就是年輕的,甚至專業人士,又真的肯定自己能防住嗎?

在大批媒體隨之而來的報道中,我們可以知道,目前的AI詐騙主要是兩種形式:一是「聲音合成」,二是「AI換臉」。 聲音合成,以目前民間能掌握的AI技術,只需要10分鐘的聲音素材就可以完成,合成的語音可以說任何話,甚至真實聲音主人的口癖都可以完美保留——這個並不是杜撰,而是一個同樣被AI詐騙了22萬英鎊的英國能源公司CEO的親身經歷。而這,還只是「民間水平」,如果是真正的官方能力,比如微軟今年初推出的語音模型VALL-E,只需要3秒鐘就能複製任何人的聲音,包括保持語氣和模仿出背景音。順帶一提,之前在各大視頻平台爆紅的「AI孫燕姿」,也是用了聲音合成技術,讓「她」去翻唱各種歌曲。至於「AI換臉」,就更容易了。只需要一張背景乾淨的正面照,就可以生成視頻,裏面的AI人哪都能動,非常自然。而最讓人崩潰的還在於價格,生成一段1分鐘的視頻只要30元,短的甚至幾塊錢就可以。最高級的「建模」,即隨便動隨便說的,也就是幾十塊錢的事。值得一提的是,AI詐騙通常還會順手用上「大數據」,精準篩選出目標對象,再自動生成專屬腳本。

形勢雖嚴峻,但也不能躺平受死。面對超級敵人,人類拚技術目測不趕趟,最有效的做法反倒是大道至簡——物理防範最重要,總結出3個點就是:第一,把個人信息暴露減到最少。尤其是盡量少地發布個人正面照或視頻,不公開提及年齡地址工作等資訊;第二,永遠存疑,多渠道核實身份。來電顯示可以作假,親友的聲音面貌可以作假,詢問你姓名電話賬號等私人資料的都是騙子,奇怪的事情十有八九都是騙局,而當涉及大額轉賬或不常見的操作時,打電話、問隱秘問題、定暗號以及見面確認都不失為好方法。第三,及時報警。尤其在被騙之後,第一時間打電話給銀行及110攔截。

最後必須要說的是,AI只是科技,科技並沒有對錯,「AI詐騙」真正的騙子是背後的人,AI並不背鍋。想明白了這點,就知道這場戰役的取勝之法——完善法制,嚴懲騙徒,保民民安。

人機終有一戰,但不應該是這一場。