FTNN 新聞網
新聞大追查
  • FTNN 新聞網 Facebook 粉絲專頁
  • FTNN 新聞網 Youtube 頻道
  • FTNN 爆料投稿
【週六21~週日21】
鄉民監察院_每周二三
楊皓如 顏博志【好厝抵家】完整版20250718

「視訊確認長一樣」秒轉132萬給表哥 他一通電話驚覺慘了

發布時間:2023/11/23 09:34

中國一名黃姓男子以視訊方式確認「表哥」的身份,沒想到是落入AI換臉陷阱。(示意圖,photo-AC)

圖文/鏡週刊

眼見不再為真!以AI換臉、換聲的深偽(Deepfake)技術進步的同時,要當心被不法分子利用而掉入陷阱。大陸廣東省商河縣公安局的刑警大隊,近日就破獲一起利用AI換臉技術詐騙案件。

根據陸媒報導,當地警方表示,一名黃姓男子5月在家看短影片時收到一則私訊,對方自稱是他的表哥,兩人寒暄幾句後,這名表哥請黃男幫忙轉一筆錢給一位需要資金周轉的朋友。黃男一開始覺得有異,沒有立即匯款,但提出要以視訊通話,經黃男鑑定後,發現對方跟表哥長得一模一樣,才確定了對方身份,因此放下了警戒心。

廣告 更多內容請繼續往下閱讀

警方指出,雖然對方聲音較低沉,但黃男當下還是先匯了人民幣30萬元(約新台幣132萬元),收到這筆錢後,對方還繼續催促黃男匯出剩餘的錢,最後帳號還被封鎖,此刻意識到不對勁的黃男,便急忙打電話給「真表哥」確認,這才驚覺遇到詐騙了,只好趕緊報警。

警方透露,根據IP地址判定嫌犯在境外實施詐騙,由國內銷贓物洗錢,是一起採用AI技術換臉、冒充受害者熟人進行點對點網路詐騙的案件,警方通過技術手段調查後,已逮捕7名嫌疑犯,目前此案進入法院審判階段。

廣告 更多內容請繼續往下閱讀

警方提醒,這類AI合成技術的視訊通話時間一般都相對較短,因嫌犯擔心通話時間過長會露出破綻,人臉一旦變化位置或外圍環境發生變化,都可能會使得嫌犯恢復原貌,因此遇到類似事件,可儘量延長時間以及請對方做出臉部遮擋的動作,看是否有變化,以此判斷對方真實身分。

更多鏡週刊報導
生日當天海撈台幣1億! 23歲「日本最美第一女公關」宣布引退
竹科工程師大膽揪小三回家滾床 人妻佈局一招當場抓姦兩人賴不掉
揭露臨終病人死前最常看到「祂們」 送走2千人的安寧醫師更相信來生
top