FTNN 新聞網
新聞大追查
  • FTNN 新聞網 Facebook 粉絲專頁
  • FTNN 新聞網 Youtube 頻道
【週二12~週四12】
王淺秋 謝寒冰 邱毅 王育敏【鄉民監察院】完整版20241211
政治讀新術_每周一四

「視訊鑑定過」秒匯款132萬給表哥 他見1狀況傻了…下場超悲劇

發布時間:2023/11/22 13:45

大陸山東省濟南市商河縣公安局刑警大隊,近日破獲了一起利用AI換臉技術詐騙的典型案件。(示意圖/PIXABAY)
大陸山東省濟南市商河縣公安局刑警大隊,近日破獲了一起利用AI換臉技術詐騙的典型案件。(示意圖/PIXABAY)

圖文/CTWANT

AI換臉、換聲的影片在網路平台上流行,但帶給人們新體驗的同時,也被不法分子利用。大陸山東省濟南市商河縣公安局刑警大隊,近日破獲了一起利用AI換臉技術詐騙的典型案件。

廣告 更多內容請繼續往下閱讀

根據陸媒《極目新聞》報導,警方表示,黃姓男子5月收到一封私訊,對方自稱是表哥,由於在體制內工作,因此不方便轉帳為由,請黃男幫忙轉一筆錢給一個需要資金周轉的朋友;黃男一開始覺得很奇怪,因此沒有付款,直到視訊鑑定過後,發現對方跟表哥長得一模一樣,才放下警戒。

警方指出,雖然對方聲音較低沉,但黃男當下不疑有他,便先幫忙匯了30萬人民幣(約新台幣132萬元),事後黃男發現帳號被封鎖,急忙打電話給「真表哥」確認,這才驚覺上當受騙,趕緊報警。

廣告 更多內容請繼續往下閱讀

警方透露,根據IP地址判定嫌犯在境外實施詐騙,由國內銷贓物洗錢,是一起採用AI技術換臉、冒充受害者熟人進行點對點網路詐騙的案件,經過技術手段偵查,已逮捕犯罪嫌疑人共7名,目前此案已進入法院審判階段。

警方提醒,這類AI合成技術的視訊通話時間一般都相對較短,因嫌犯擔心通話時間過長會露出破綻,人臉一旦變化位置或外圍環境發生變化,都可能會使得嫌犯恢復原貌,因此遇到類似事件,可儘量延長時間以及請對方做出臉部遮擋的動作,看是否有變化,以此判斷對方真實身分。

top