AI換臉新型詐騙來襲
雙“法”齊下破解AI詐騙難題
這幾天,AI換臉詐騙的話題引發(fā)社會關注。
包頭警方近日發(fā)布一起利用AI實施電信詐騙的典型案例。有騙子通過AI換臉和擬聲技術佯裝好友,對福州市某科技公司法人代表郭先生實施詐騙,在視頻聊天“核實”對方身份后,郭先生10分鐘內被騙子騙走430萬元。
那么,如何判斷AI詐騙,有哪些方法和手段可以防范AI詐騙?5月底,科技日報記者采訪了相關專家。
AI換臉詐騙讓人難以分辨
AI詐騙就是利用AI技術,模仿、偽造他人的聲音、面孔、視頻等信息,進行欺騙、敲詐、勒索等的犯罪活動。北京郵電大學信息與通信工程學院副教授路兆銘告訴科技日報記者,騙子會通過撥打騷擾電話等方式,錄音提取詐騙對象及其重要關系人的聲音特征,再利用AI技術進行語音合成,使詐騙對象放松警惕,進而用偽造的聲音實施詐騙。
“而人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人!甭氛足懕硎,騙子會利用AI技術,將他人的臉換成指定人的臉,冒充詐騙對象的親人、朋友,通過合成視頻或照片的方式來“以假亂真”,擾亂詐騙對象的視線,進而實施詐騙。
安天移動安全副總經(jīng)理彭智俊在接受科技日報記者采訪時表示,由于AI詐騙具有高度逼真、難以追蹤、針對性強、手段多樣的特點,受害者往往難以分辨真假,從而降低警惕。同時,犯罪分子隱匿在網(wǎng)絡的陰暗角落,這也給警方偵破帶來困難。
問題治理關鍵在“法”
面對AI技術濫用風險,如何整治AI詐騙,防止AI作惡?
關鍵在一個“法”字。這個“法”既包括科學技術方法的應用,也包括剛性治理的法律法規(guī)。
在科學技術方面,打擊電信網(wǎng)絡詐騙的科技裝備發(fā)展迅速。例如,由廈門市美亞柏科信息股份有限公司研發(fā)的“AI-3300慧眼視頻圖像鑒真工作站”,不僅能鑒定利用傳統(tǒng)偽造手段篡改的影像,而且對利用深度偽造技術進行了換臉、美顏、生成人臉、同圖或異圖復制篡改的影像也能夠進行鑒定,可以為公安、司法行業(yè)提供技術支持。
而在法律法規(guī)方面,2022年12月,《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》發(fā)布,對人臉生成、替換、操控,合成人聲、仿聲等都進行了明確約束。該項規(guī)定發(fā)布實施后,此前一款主打AI換臉的App在被監(jiān)管部門約談后進行下架處理,處理原因為“如此換臉侵犯了公民的肖像權”。
需注意不自然的細節(jié)
“對于普通百姓而言,AI詐騙也不是完全‘防不勝防’,這需要大家有甄別的‘慧眼’!迸碇强「嬖V科技日報記者,雖然AI生成的語音和表情已經(jīng)相當逼真,但仍然可能存在一些不自然的細節(jié)。具體細節(jié)包括AI生成語音的節(jié)奏、音高變化和AI生成圖像的面部表情過渡等,這些細節(jié)均與原始視頻有較大的差別。
進行判斷與甄別的技巧有很多。彭智俊表示,在視頻通話的過程中,用戶可以讓對方展現(xiàn)全身特征,再觀察人臉是否出現(xiàn)消失或特殊變化,以檢測是否存在面部置換的可能性。用戶還可以讓對方用一張白紙在臉前緩慢晃動,觀察是否出現(xiàn)閃爍現(xiàn)象,以此判斷是否可能存在換臉現(xiàn)象。
“無論多厲害的騙局,歸根結底都是用欺詐的手段獲取對方信任,以謀取公私財物。對于個人來說,多方驗證、確認身份,才能避免和防范騙局的發(fā)生!甭氛足懕硎荆绕涫窃谏婕敖疱X、財產(chǎn)和隱私等重要事項時,更要小心謹慎,可要求對方提供更多證據(jù)、進行更多交流,并核實其身份和回答的準確性,以排除AI技術欺騙的可能。
公眾在平時要有警惕高風險行為的意識。對于緊急轉賬、提供大額保證金或其他不尋常要求,要保持警惕,并仔細核實真實性。路兆銘提醒,不要被高額回報或緊迫情況迷惑。在不能確定真實身份時,要格外留意、不要著急匯款,避免上當受騙,同時,建議將到賬時間設定為“2小時到賬”或“24小時到賬”,以預留處理時間。(科技日報 記者 何 亮)