▲AI技術已能夠模擬逼真人聲,卻被不肖人士用來詐騙。(示意圖/CFP)
記者吳美依/綜合報導
加拿大一對夫妻接到「兒子」來電表示出車禍急需法律費用,趕緊透過比特幣匯款2.1萬美元(約新台幣64萬元),後來才知道慘遭詐騙,原來熟悉嗓音竟是人工智慧(AI)模擬而成。《商業內幕》指出,詐騙集團可能從當事人在YouTube發布的雪上摩托車影片擷取音軌,進而仿造聲音。
《華盛頓郵報》報導,受害夫妻接到第一通電話,從自稱「律師」的男子口中得知,兒子班傑明(Benjamin Perkin)在一場車禍中撞死外交官而入獄,話筒還傳來「班傑明的聲音」開口要錢。後來,他們又接到第二通電話,「律師」宣稱班傑明需要2.1萬美元法律費用才能出庭。
夫妻倆愛子心切,迅速籌措資金匯款,後來才隱約感覺有些奇怪。不過,直到「真正的」班傑明當天稍晚打電話過來,他們才驚覺被騙。
班傑明受訪時說,那個聲音「足夠接近(我的聲音),讓我的父母真的相信他們在跟我說話。」儘管一家人趕緊向加拿大當局報案,但「錢不見了,沒有保險,拿不回來了。」
▲美國人工智慧公司OpenAI開發的ChatGPT掀起熱議。(圖/路透)
《商業內幕》報導,更強大的人工智慧興起之際,冒充身分的詐騙案也持續增多。不過,早在ChatGPT問世之前,涉及AI技術的詐騙就已經出現。
2019年,英國能源公司(British Energy)一名經理把24萬多美元匯入一個匈牙利帳戶,因為他以為「老闆」打電話要求這麼做。今年1月,研究AI聲音複製及語音合成的美國新創公司ElevenLabs也表示,他們注意到有人「把我們的科技用於惡意目的」,出現「越來越多聲音複製的濫用案例」。舉例來說,4chan等匿名論壇上就有不肖人士使用AI技術模擬與名人相似的聲音,說出種族歧視等不恰當言論。
美國聯邦貿易委員會(FTC)去年一共接獲240萬人通報詐欺案,最常見類型就是冒名頂替者詐騙(Imposter scams),儘管案件數比前一年低,損失金額卻更高,達到88億美元。
FTC已經新成立一間科技辦公室,專門調查有發展前景且可能使用AI的公司,是否嘗試降低產品可能造成的風險。發言人格倫瓦爾德(Juliana Gruenwald)表示,他們已經發現社群媒體上的詐欺案激增,「產生看似真實影片、相片、音檔及文本的AI工具可能加速這個趨勢,讓騙子更容易接觸受害者,速度也更快…我們也關心深偽技術(deepfake)與其他基於人工智慧的合成媒體的風險,它們變得越來越容易創作及散布,將被用於詐騙。」
讀者迴響