▲「深偽(Deepfake)」技術成為近來詐騙集團的新興手法。(圖/金門縣警局提供)
記者林名揚、黃資真/金門報導
近期很常見的AI人工智慧技術「深偽(Deepfake)」,能結合AI仿真人學習,加上影像合成,以非常逼真的方式,來達到換臉或是變聲等效果,金門縣警局提醒,新興的詐騙手法,恐怕會結合深偽技術混淆被害人,容易讓民眾受騙機率上升,如果遇到類似情形,可要求對方做出轉頭、揮手等身體動作,以影像破綻確認真實性。
金門縣警局表示,早期深偽技術主要用於假訊息散布,或是誹謗以及侵犯個人隱私等犯罪行為,例如先前YouTuber小玉換臉事件,或是模仿名人進行冒名宣傳。然而,隨著這項技術的普及,其應用範圍逐漸擴展到娛樂、新聞、社交媒體,甚至進一步被詐騙集團學習應用。
縣警局針對深偽技術進行了研析,並列舉了深偽結合詐騙三大手法如下:
1.電話詐騙(猜猜我是誰):歹徒利用模仿特定人物聲音的功能,冒充親朋好友或其他知名人士的聲音,取信被害人後,以詐騙金錢和個人資料。
2.視訊詐騙:深偽技術可用於合成逼真的影片、語音,或結合視訊功能,冒充企業高層向下屬發送虛假指示,例如要求轉移資金或提供機密信息。
3.恐嚇詐騙:詐騙集團可能會將個人肖像移花接木,用以合成不雅照片,在寄送給被害當事人,藉此恐嚇勒索。
提醒民眾如果與熟人視訊察覺有異,或與生活中未見過的人或者自稱檢警的公務人員視訊,可要求對方轉頭、變換姿勢、在臉前揮手,藉由影像破綻分辨對方是否使用深偽AI技術。
縣警局局長盧廷彰呼籲社會大眾,不能再以「眼見而憑」看待,深偽技術結合詐騙手法,個人的聲音和影像遭到盜用後,民眾更難區分真偽,面對科技進步所帶來的犯罪威脅時,保持警惕和懷疑的心態,檢查來源的可信度,化被動為主動,確保信息的真實可靠,才不會落入詐騙集團陷阱。
讀者迴響