眼見不為憑!詐團瘋用AI深偽變臉 金門警曝高招:身體動作是破綻

▲▼             近期很常見的AI人工智慧技術「深偽(Deepfake)」,能結合AI仿真人學習,加上影像合成,達到換臉或是變聲等效果。(圖/金門縣警局提供)

▲「深偽(Deepfake)」技術成為近來詐騙集團的新興手法。(圖/金門縣警局提供)

記者林名揚、黃資真/金門報導

近期很常見的AI人工智慧技術「深偽(Deepfake)」,能結合AI仿真人學習,加上影像合成,以非常逼真的方式,來達到換臉或是變聲等效果,金門縣警局提醒,新興的詐騙手法,恐怕會結合深偽技術混淆被害人,容易讓民眾受騙機率上升,如果遇到類似情形,可要求對方做出轉頭、揮手等身體動作,以影像破綻確認真實性。

金門縣警局表示,早期深偽技術主要用於假訊息散布,或是誹謗以及侵犯個人隱私等犯罪行為,例如先前YouTuber小玉換臉事件,或是模仿名人進行冒名宣傳。然而,隨著這項技術的普及,其應用範圍逐漸擴展到娛樂、新聞、社交媒體,甚至進一步被詐騙集團學習應用。

縣警局針對深偽技術進行了研析,並列舉了深偽結合詐騙三大手法如下:

1.電話詐騙(猜猜我是誰):歹徒利用模仿特定人物聲音的功能,冒充親朋好友或其他知名人士的聲音,取信被害人後,以詐騙金錢和個人資料。

2.視訊詐騙:深偽技術可用於合成逼真的影片、語音,或結合視訊功能,冒充企業高層向下屬發送虛假指示,例如要求轉移資金或提供機密信息。

3.恐嚇詐騙:詐騙集團可能會將個人肖像移花接木,用以合成不雅照片,在寄送給被害當事人,藉此恐嚇勒索。

提醒民眾如果與熟人視訊察覺有異,或與生活中未見過的人或者自稱檢警的公務人員視訊,可要求對方轉頭、變換姿勢、在臉前揮手,藉由影像破綻分辨對方是否使用深偽AI技術。

縣警局局長盧廷彰呼籲社會大眾,不能再以「眼見而憑」看待,深偽技術結合詐騙手法,個人的聲音和影像遭到盜用後,民眾更難區分真偽,面對科技進步所帶來的犯罪威脅時,保持警惕和懷疑的心態,檢查來源的可信度,化被動為主動,確保信息的真實可靠,才不會落入詐騙集團陷阱。

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

關鍵字:

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面