▲小玉變臉幕後技術曝光,警方憂恐成詐騙手段。(圖/記者邱中岳翻攝)
記者邱中岳/台北報導
科技的進化往往帶來令人意想不到的改變,如同雙面刃般,為文明帶來創新與變革的同時,卻也讓歹徒動起歪腦筋,進而催生出更加可怕的犯罪手法。有詐騙集團利用AI(Artificial Intelligence)人工智慧,有一種名為「深偽(Deepfake)」技術的應用,製造假聲音、換臉取信被害人騙取財物。
近期相當火紅的AI(Artificial Intelligence)人工智慧,有一種名為「深偽(Deepfake)」技術的應用,其結合了深度學習和影像合成,能以逼真的方式替換或操縱現有的媒體內容,以達到換臉、變聲等效果。
多年前,「深偽」技術犯罪主要與偽造成人影片(如YouTuber小玉的換臉事件)或模仿政治人物、名人進行宣傳有關,可能涉及假訊息散布、誹謗以及侵犯個人隱私等罪刑。
然而隨著該技術的取得愈發容易,期應用範圍亦逐漸擴展到其他領域,包括娛樂、新聞、社交媒體,乃至詐騙手法的精進;臺北市政府警察局針對此技術進行研析,列舉出下列詐欺手法:
首先,電話詐騙(猜猜我是誰),利用模仿特定人物聲音的功能,恐遭歹徒用於仿冒家人、朋友或其他知名人士的聲音,以利向受害者索取金錢與個人資料。
其次,視訊詐騙,深偽技術可用於合成擬真的影片、語音,或結合視訊功能,冒充企業高層,藉此對下屬發送虛假的指示,例如要求轉移資金或提供機密信息。
近期大陸便出現一起科技公司老闆接到AI換臉詐騙視訊電話的案例,一夕間遭詐430萬人民幣(約1873萬新台幣)。
再者,恐嚇詐騙,個人肖像可能遭詐騙集團移花接木,用以合成不雅照片,再寄送予當事人藉機恐嚇勒索。今年3月便曾有多位國內知名大學教授,收到類似的合成照片與恐嚇信息的騷擾。
讀者迴響