AI深偽變臉技術淪詐騙工具!假冒親友視訊騙錢 刑事局3招破防

記者邱中岳/台北報導

刑事局發現詐騙集團手法日新月異,原本透過電話假扮親朋好友詐騙被害人,但民眾防詐意識抬頭,所以單憑聲音無法取信被害人,於是利用AI深偽(Deepfake)變臉技術假冒親友、同事或名人的詐騙手法也隨之而生,刑事局呼籲民眾,可要求視訊對象在臉前揮手、變換姿勢或者轉頭,確認是不是詐團成員透過變臉進行詐騙。

刑事局指出,所謂的AI深偽(Deepfake)變臉技術,可以製造出逼真的虛假影像和音訊,仿真度極高,從正面觀看來以假亂真,很容易讓民眾誤以為偽冒者是被害者本人、檢警或名人,引發社會治安的隱憂與製造假訊息。

[廣告] 請繼續往下閱讀.

▲AI深偽變臉技術恐被詐團運用,刑事局拍片教導3招破解。(圖/記者邱中岳翻攝)

日前也傳出網紅透過AI深偽技術,將多名知名人物的臉套用在「動作愛情片」,事後遭到刑事局逮捕到案,而此技術也可能傳出被詐騙集團利用,為了取信被害人。

刑事局指出,目前可先破解AI變臉詐騙的方式是側臉、脖子部位現今軟體不會偵測分析及套用到,因此側面影像會產生模糊狀,臉部跟脖子也會產生色差。

[廣告] 請繼續往下閱讀..

有鑒於此,刑事警察局呼籲民眾,由於科技進步,任何事情不再能以「眼見而憑」視之,現今AI變臉軟體內建許多來自不同人種的臉部圖片,甚至連名人、明星的照片也有。

且軟體使用者還可以自由選擇性別及種族,民眾如果與熟人視訊察覺有異,或是與生活中未見過的人或者自稱檢警的公務人員視訊,可以要求對方轉頭、變換姿勢、在臉前揮手,就可以藉由影像破綻,分辨出對方是否使用深偽AI技術變臉,千萬不要因為鏡頭的那端是您以為的熟人,就受騙上當。