AI詐欺

AI詐欺

“AI詐欺”是一種利用智慧型AI技術實施詐欺的詐欺手段。

2024年3月15日,2024年中央廣播電視總台3·15晚會曝光了使用“AI換臉”進行詐欺的行為。

基本介紹

  • 中文名:AI詐欺
  • 含義:利用智慧型AI技術實施詐欺的詐欺手段 
發展情況,常用手法,防範措施,具體案例,相關法規,央視曝光,

發展情況

2023年5月24日,中國網際網路協會公眾號發文提示“AI換臉”新騙局。2023年以來,伴隨著深度合成技術的開放開源,深度合成產品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻,進行詐欺、誹謗的違法行為屢見不鮮。
2024年3月15日,2024年中央廣播電視總台3·15晚會曝光了使用“AI換臉”進行詐欺的行為。

常用手法

  • 第一種:聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材後進行聲音合成,從而可以用偽造的聲音騙過對方。
  • 第二種:AI換臉
人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。
騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。
  • 第三種:轉發微信語音
騙子在盜取微信號後,便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。
儘管微信沒有語音轉發功能,但他們通過提取語音檔案或安裝非官方版本(外掛程式),實現語音轉發。
  • 第四種:AI程式篩選受害人
騙子利用AI來分析公眾發布在網上的各類信息,根據所要實施的騙術對人群進行篩選,在短時間內便可生產出定製化的詐欺腳本,從而實施精準詐欺。
例如:實施情感詐欺時,可以篩選出經常發布感情類信息的人群;實施金融詐欺時,可以篩選出經常搜尋投資理財信息的人群。

防範措施

識別假臉
多數假臉是使用睜眼照片合成,假臉極少甚至不會眨眼,缺少眨眼是判斷一個視頻真假的好方法。辨識“深度偽造”換臉視頻的方法還包括語音和嘴唇運動不同步、情緒不符合、模糊的痕跡、畫面停頓或變色。
多重驗證,確認身份
如果有人要求你分享個人身份信息,如你的地址、出生日期或名字,要小心;
對突如其來的電話保持警惕,即使是來自你認識的人,因為來電顯示的號碼可能是偽造的;
網路轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助;
如果有人自稱“熟人”、“領導”通過社交軟體、簡訊以各種理由誘導你匯款,務必通過電話、見面等途徑核實確認,不要未經核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息;
在涉及到轉賬交易等行為時,通過電話等形式詢問具體信息,多重驗證確認對方是否為本人。最好向對方的銀行賬戶轉賬,避免通過微信等社交軟體轉賬,將轉賬到賬時間設定為“24小時到賬”,以預留處理時間。
保護信息,避免誘惑
不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;
陌生連結不要點,陌生軟體不要下載,陌生好友不要隨便加,防止手機、電腦中病毒,微信、QQ等被盜號;
加強個人信息保護意識,謹防各種信息泄露,不管是在網際網路上還是社交軟體上,儘量避免過多地暴露自已的信息。對於不明平台發來的廣告、中獎、交友等連結提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”。
提高安全防範意識
公檢法沒有安全賬戶,警察不會網上辦案,如果有網路警察說你犯事了,讓他聯繫你當地的派出所。
相互提示,共同預防
要多多提醒、告誠身邊的親人、朋友提高安全意識和應對高科技詐欺的能力,共同預防受騙。提醒老年人在接到電話、簡訊時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。
拒絕誘惑,提高警惕
要學會拒絕誘惑,提高警惕。避免占便宜心理,警惕陌生人無端“獻殷勤”。

具體案例

2020年,上海某公司高管因對方使用AI換臉與人工生成的語音技術製作公司領導的面孔,並要該高管轉賬,致使該高管被詐欺150萬元。
2021年,拱宸橋派出所接到報警,受害人小陳稱他在與女網友視頻聊天后被對方敲詐勒索。經警方調查,對方利用AI換臉技術,將小陳視頻中的面部合成到不雅視頻中,藉此對其實施勒索。
2022年2月,有位陳先生到浙江溫州市公安局甌海分局仙岩派出所報案稱,自己被“好友”詐欺了近5萬元。經警方核實,詐欺分子利用陳先生好友“阿誠”在社交平台發布的視頻,截取其面部視頻畫面後再利用“AI換臉”技術合成,製造陳先生與“好友”視頻聊天的假象騙取其信任,從而實施詐欺。
2023年,內蒙古自治區包頭市公安局電信網路犯罪偵查局發布一起使用智慧型AI技術進行電信詐欺的案件,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。4月20日中午,郭先生的好友突然通過微信視頻聯繫他,自己的朋友在外地競標,需要430萬保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。基於對好友的信任,加上已經視頻聊天核實了身份,郭先生沒有核實錢款是否到賬,就分兩筆把430萬轉到了好友朋友的銀行卡上。郭先生撥打好友電話,才知道被騙。騙子通過智慧型AI換臉和擬聲技術,佯裝好友對他實施了詐欺。
2024年,短視頻平台頻繁刷到一位俄羅斯博主的視頻。這些短視頻有著統一的故事腳本,包括熱愛中國文化,想嫁給中國男人等,並希望看視頻的人能夠買一點俄羅斯特產。這些在全網傳播的短視頻,均是由行銷號通過 AI 換臉製作而成。人臉盜用自烏克蘭網紅奧爾嘉(Olga Loiek)。

相關法規

針對技術手段日益更新的AI詐欺事件,2022年11月25日,國家網際網路信息辦公室、工業和信息化部、公安部聯合發布《網際網路信息服務深度合成管理規定》(以下簡稱規定),自2023年1月10日起施行。規定要求深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智慧型對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。要求任何組織和個人不得採用技術手段刪除、篡改、隱匿相關標識。
2023年4月11日,國家網信辦起草了《生成式人工智慧服務管理辦法》(徵求意見稿),提出AI內容必須真實準確,其中也明確提到,禁止非法獲取、披露、利用個人信息和隱私、商業秘密。

央視曝光

2024年3月15日,2024年央視315晚會曝光AI換臉詐欺,在視頻中穿插了一段對“AI換臉”的科普,實際上,視頻通話AI換臉詐欺已經不是什麼稀罕事了,為了更好地防詐欺,大家在懷疑對方換臉時可以讓對方摸臉、按鼻子等,這樣可以更容易地識別AI換臉視頻。此外,AI換臉、變聲功能雖然看起來很強,但詐欺分子由於訓練數據不足、技術能力欠缺等硬傷,基本都會在幾秒鐘後掛斷視頻/電話。

相關詞條

熱門詞條

聯絡我們