姚兆明 香港大學計算與數據科學學院碩士課程總監

人工智能技術日漸先進和強大,為我們的日常生活帶來了許多便利,例如,它可用於進入辦公大樓和出入境的人臉辨識、自動駕駛以及機器人送貨等。但是,沒有任何人工智能系統能夠100%安全且準確,更有甚者,會利用人工智能的安全漏洞危害社會。近年,基於人工智能技術的詐騙案例持續增加,目前已經有大量的電視節目、報紙文章、雜誌文章以及執法部門的公告談論這些詐騙案件,但是仍然有許多被騙的受害者。

我們從新聞報道中不難發現,涉及人工智能的詐騙案件,尤其是使用深度偽造技術,在世界各地都有,香港也不幸曾經出現。在香港發生最大的人工智能詐騙案之一,是涉及一家跨國公司,涉案金額高達2億元。在一次線上會議中,只有受害者是真實的,其他所有主管都是假的,但由於受害者對他們的面容和聲音都很熟悉,致使他落入人工智能深偽技術的陷阱之中。

另一個發生在印度的案例是,一位退休老人接到了他「老同事」的WhatsApp電話。嫌疑犯對老人的家庭背景做了一番研究,他們先聊起了彼此的家庭,之後,這名嫌疑犯開始向老人要錢。老人家並不傻,他讓「老同事」在WhatsApp上開啟視訊聊天,當老人在視訊畫面上看到了他的「老同事」時,就相信了他。然而,這通視訊電話,也是AI深度偽造的。我們中國有句古話,西方也有,叫做「眼見為實」,但是在人工智能時代,我們必須牢記,「眼見也未為真」。

事實上,大眾現時很容易從網絡上取得免費的人工智能深偽技術App,例如只需要擁有一個社交媒體賬戶,就很容易獲得,從而利用深度偽造技術製作假照片和假視頻。他們可能只需要一張受害人的照片和大約20至30秒的聲音,而且可能不需要太多的IT或AI知識。筆者相信,即使是一個喜歡玩電腦應用程式的高中生也能輕鬆做到。例如最近,香港有一名大學生利用人工智能技術將他同學和朋友的照片變成了色情內容;而在韓國也發生了類似的事件。

隨着人工智能技術愈來愈成熟,人類有時很難辨識資訊的真偽。社會需要更進一步利用先進科技來打擊科技犯罪;市民要時刻提高警覺,提防騙徒層出不窮的詐騙手法,同時關心身邊人,經常提醒他們多留意警方的防騙訊息,善用升級版的「防騙視伏App」或者防騙易熱線18222,避免成為騙案受害人。