FTNN 新聞網
新聞大追查
  • FTNN 新聞網 Facebook 粉絲專頁
  • FTNN 新聞網 Youtube 頻道
  • FTNN 爆料投稿
【週一12~週二12】
鄉民監察院_每周二三
林楚茵 周偉航 陳柏惟 吳沛憶【政治讀新術】完整版20250519

眼見不能為憑 慎防AI深偽科技詐騙

發布時間:2023/12/30 15:36

刑事局公布AI變臉詐騙宣導圖。(刑事局提供)
刑事局公布AI變臉詐騙宣導圖。(刑事局提供)

圖文/鏡週刊

深偽影像技術的進步為我們帶來劃時代的意義,有別以往的眼見為憑,現在已不復見,這樣先進的科技倘若運用在電影拍攝還原或改變演員容貌,能夠創作出更多元精采的影視作品,然而若遭不肖人士將此項科技用在詐騙,對民眾肖像隱私之人格權及財產法益無非是一大威脅。

刑事局指出,最早「深偽」專用於替換人臉的軟體名稱,以「自動生成編碼器」的深度學習系統為基礎,以AI掌握對象特徵點,訓練判別生成高度相似的臉孔影像或聲音,目前「Deepfake」已經成為利用深度生成技術生成影像、聲音、文字等多媒體內容的總稱,包括臉部特徵變換、性別與年齡轉換、圖像風格轉換。

廣告 更多內容請繼續往下閱讀

深偽內容的氾濫,成為詐騙的犯罪手法,近期就有詐騙方利用Deepfake影片詐騙金錢、感情的案例,演變成另一場科技犯罪風暴。舉案例來說,一間外商公司的執行長,因為接到英國母公司上司一通電話,要求他緊急將新台幣620萬元匯至指定供應商的帳戶,而該執行長認為其對上司聲音相當熟悉不疑有它,隨即派人轉帳,但上司的聲音是透過聲音轉換(Voice Conversion)的技術偽造的,單純的聲音深偽的犯罪手法,對嫌犯來說更加容易,使民眾降低戒心而上當受騙。

刑事局強調,隨著近年來深度學習技術模型技術的快速發展,大幅提升做出高仿真內容偽造的效能,深偽技術變得更容易取得、偽造時間縮短、技術獲取門檻變低的趨勢,在AI來臨的時代,民眾遇到親友或陌生人以影片或電話請求借錢或威脅匯款等,應以其他方式聯繫當事親友以多方聯繫管道或撥打165反詐騙諮詢專線查證,才能避免避免AI科技造成的危害或財產損失。

廣告 更多內容請繼續往下閱讀

更多鏡週刊報導
【獨家】鄭文燦影片有詭 《鏡週刊》技術團隊比對6張圖辨真假
熟人、名人突視訊、拍片揪投資 網紅「異色檔案」揭其中真相
【全文】防境外勢力利用AI亂大選 國安大動員追深偽影音
top