眼見不能為憑,慎防AI深偽科技詐騙
深偽影像技術的進步為我們帶來劃時代的意義,有別以往的眼見為憑,現在已不復見,這樣先進的科技倘若運用在電影拍攝還原或改變演員容貌,能夠創作出更多元精采的影視作品,然而若遭不肖人士將此項科技用在詐騙,對民眾肖像隱私之人格權及財產法益無非是一大威脅。
最早「深偽」專用於替換人臉的軟體名稱,以「自動生成編碼器」的深度學習系統為基礎,以AI掌握對象特徵點,訓練判別生成高度相似的臉孔影像或聲音,目前「Deepfake」已經成為利用深度生成技術生成影像、聲音、文字等多媒體內容的總稱,包括臉部特徵變換、性別與年齡轉換、圖像風格轉換。
深偽內容的氾濫,成為詐騙的犯罪手法,近期就有詐騙方利用Deepfake影片詐騙金錢、感情的案例,演變成另一場科技犯罪風暴。舉案例來說,一間外商公司的執行長,因為接到英國母公司上司一通電話,要求他緊急將新臺幣620萬元匯至指定供應商的帳戶,而該執行長認為其對上司聲音相當熟悉不疑有它,隨即派人轉帳,但上司的聲音是透過聲音轉換(Voice Conversion)的技術偽造的,單純的聲音深偽的犯罪手法,對嫌犯來說更加容易,使民眾降低戒心而上當受騙。
隨著近年來深度學習技術模型技術的快速發展,大幅提升做出高仿真內容偽造的效能,深偽技術變得更容易取得、偽造時間縮短、技術獲取門檻變低的趨勢,在AI來臨的時代,民眾遇到親友或陌生人以影片或電話請求借錢或威脅匯款等,應以其他方式聯繫當事親友以多方聯繫管道或撥打165反詐騙諮詢專線查證,才能避免
避免AI科技造成的危害或財產損失。
資料來源:刑事警察局公共關係室