審核專家:劉相權
北京信息科技大學機器人工程系主任
AI換臉
眼見不再為實!AI以假亂真的時代,我們如何確保真實?
最近,香港警方披露了一起AI“多人換臉”詐騙案,涉案金額高達2億港元。
被騙的是一家跨國公司香港分部的職員,他被邀請參加一場由總部首席財務官發起的“多人視頻會議”,并按照要求,將2億港元分多次轉賬到了5個本地銀行賬戶內。
來源 | 央視網
其后向總部確認時,該員工才發現自己受騙。
警察調查后發現,在那個視頻會議里,只有員工一個是真人,其他參會人全都是騙子用AI換臉技術偽造的!
據了解,詐騙者通過盜取該公司的YouTube視頻和其他公開渠道媒體資料,巧妙地復制了公司高層管理人員的外貌和聲音。然后,他們運用深度偽造技術,制作出詐騙視頻,讓受害者誤以為其正在多人視頻會議中,與其他真實人員交流。
深度偽造技術是啥?
深度偽造(Deepfake)是由深度學習(Deeplearning)和偽造(Fake)組合成的名詞。
原本,這種對視頻或圖片進行調整的人工智能技術只是一種有趣的新突破,能夠將一個人的面部表情、說話內容和動作放到別人的圖片或視頻上,并且看起來十分真實。
來源 | 央視網
由于這種技術很方便、成本低、效果逼真,給藝術、社交、醫療等領域都帶來了很多新的機會。
但是,由于這種技術使得制作假視頻變得更加容易,一些不法分子可能會利用它來騙人、傳播假消息或制造社會矛盾,給我們的安全帶來了很大的風險。
在AI面前,“有圖有真相”和“眼見為實”的定律都被顛覆了。
AI詐騙一般什么樣?
在生活中,遇到親戚朋友線上借錢,謹慎的人一般會選擇和對方打個語音或視頻電話,確認對方的身份后再轉賬。
但是,如果接電話的“親戚朋友”也是騙子用AI偽造的呢?
來源 | 新華社
利用了AI技術的騙局,通常包含以下幾個步驟:
1、盜取目標對象的社交賬號,尋找潛在的受害者;
2、 利用AI機器人撥打騷擾電話,收集目標對象(改為目標親友)的聲音資料,進行聲音偽造;
3、 通過多種渠道搜集目標親友的照片、視頻等資料,通過AI換臉偽裝成目標對象親友;
4、利用AI換臉技術,與受害人進行視頻通話,以獲取他們的信任,從而實施詐騙。
經過這三步操作,以往通過“發送語音”或“進行視頻通話”來防范詐騙的方法在AI詐騙面前變得不再有效。
來源 | 澎湃
更令人擔憂的是,掌握AI技術的騙子數量正在不斷增加。公開資料顯示,自2021年以來,多個省份都出現了利用AI進行詐騙和不當牟利的案件。中國互聯網協會也指出,利用“AI換臉”和“AI換聲”等技術進行詐騙和誹謗的違法行為頻繁出現。
學會幾招,及時識別AI偽造
如此以假亂真的詐騙方式,我們到底該如何防范呢?
1、要求視頻對象在臉前揮手,或者捏鼻子、按臉頰
在視頻電話時,揮手會干擾面部的數據,導致偽造的人臉出現抖動、閃現或其他異常情況,因此我們可以要求對方在臉部前面揮手進行識別。
另外,我們還可以讓對方嘗試按壓鼻子或臉部,觀察其面部變化。真人的鼻子在被按壓時會發生變形,但AI生成的鼻子則不會。
但隨著AI訓練日趨成熟以后,捏鼻子也不是最保險的識別方法。
來源 | 央視網
2、問一些只有對方知道的問題
盡管外形可以被偽造,但個人的記憶和經歷是無法被復制的。
因此,在視頻通話中,我們可以問一些只有對方知道的問題,如家庭地址、生日、寵物名字等私人信息。如果對方在回答時表現出猶豫或無法準確回答,那么這很可能是一個詐騙行為。
來源|文心一格(圖片由AI繪制)
加利福尼亞大學伯克利分校信息學院副院長法里德表示:“當新聞、圖像、音頻、視頻——任何事情都可以偽造時,那么在那個世界里,就沒有什么是真實的。”
當我們踏入AI以假亂真的時代,確保真實性的挑戰似乎比任何時候都更加艱巨。
然而,面對這場技術革命,我們并非束手無策。通過技術素養的提升、全球合作和公眾教育,我們有信心能夠應對挑戰,維護信息的真實與可信。
下一篇:返回列表
【免責聲明】本文轉載自網絡,與科技網無關。科技網站對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。