FTNN 新聞網
新聞大追查
  • FTNN 新聞網 Facebook 粉絲專頁
  • FTNN 新聞網 Youtube 頻道
【週六21~週日21】
鄉民監察院_每周二三
政治讀新術_每周一四

熟人、名人突視訊、拍片揪投資 網紅「異色檔案」揭其中真相

發布時間:2023/10/22 14:34

AI深偽變臉技術可製造出逼真的虛假影像和聲音,仿真度極高,網紅「異色檔案」與警方合作教民眾辨識詐騙。(中正二分局提供)
AI深偽變臉技術可製造出逼真的虛假影像和聲音,仿真度極高,網紅「異色檔案」與警方合作教民眾辨識詐騙。(中正二分局提供)

圖文/鏡週刊

隨著科技發展、社群媒體興盛,詐騙集團也「與時俱進」,透過通訊軟體假冒親友、同事、名人來行騙。尤其近來利用AI深偽(Deepfake)的變臉技術日趨成熟,為了防範詐騙集團裡用深偽技術行騙,台北市中正第二警分局特與網紅「異色檔案」攜手合作宣導公布破解絕招,只要一秒鐘就能辨別影中人的真偽。

廣告 更多內容請繼續往下閱讀

眼見不一定為憑,AI深偽(Deepfake)變臉技術,可以製造出逼真的虛假影像和聲音,仿真度極高,AI變臉軟體還內建許多來自不同人種的臉部圖片,甚至連名人、明星照片也有,且使用者可自由選擇性別及種族合成。從正面觀看以假亂真,很容易讓民眾誤以為是檢警或名人。

網紅「異色檔案」於影片中教導大家AI深偽詐騙手法的破解之道。在AI深偽的影像中,人的側臉、脖子等部位,現今軟體不會偵測分析及套用到,因此側面影像會產生模糊狀,臉部跟脖子也會產生色差,如果忽然有親友、同事要求視訊,或是生活中未見過的人、自稱檢警等單位視訊,且在通話中要求民眾匯錢,民眾可以要求對方轉頭、變換姿勢、在臉前揮手,就可以藉由影像破綻分辨出對方是否使用深偽AI技術變臉,避免受騙。除此之外,民眾也可以親友互相約定「通關密語」,進一步避免被騙。

廣告 更多內容請繼續往下閱讀

中正二分局表示,未來與熟人視訊,或與未見過的人或自稱檢警等單位視訊,可要求對方轉頭、變換姿勢、在臉前揮手,就可藉由影像破綻分辨對方是否使用深偽AI技術變臉,千萬不要因為鏡頭的那端是熟人就信以為真,接獲各項影音訊息務必提高警覺,也謹記「談到錢要警覺、談借錢要查證、談投資金錢要當心」,發現深偽犯罪或遇有疑慮時,請打反詐專線165諮詢查證保護您的荷包。

更多鏡週刊報導
候選人搭萬聖節出奇招 扮動漫角色拜票超吸睛
牙醫熱戀陪聊妹「完事就給10萬」 她傳惹火裸照結果悽慘
拍片開藍寅倫玩笑爆爭議 方昶詠下架影片、捐收益還原道歉過程
top