被AI騙走60多萬!夫妻接電話「以為兒子在求救」 聲音竟是合成

▲▼客服,打電話。(圖/CFP)

▲加拿大夫妻誤信詐騙電話,他們以為聽見的「兒子」聲音竟是AI合成。(示意圖/CFP)

記者吳美依/綜合報導

加拿大一對夫妻接起電話,聽見「兒子」表示出車禍急需法律費用,心急如焚地透過比特幣匯款2.1萬美元(約新台幣64.3萬元),後來才知道慘遭詐騙。原來,他們當初聽見的熟悉嗓音不是親生孩子,而是人工智慧(AI)模擬合成。

[廣告] 請繼續往下閱讀.

《華盛頓郵報》報導,受害夫妻接到第一通電話,從自稱「律師」的男子口中得知,兒子班傑明(Benjamin Perkin)在一場車禍中撞死外交官而入獄,接著話筒還傳來「班傑明的聲音」開口要錢。後來,他們又接到第二通電話,「律師」宣稱班傑明需要2.1萬美元的法律費用才能出庭。

夫妻倆愛子心切,迅速籌措資金匯款,後來才隱約感覺有些奇怪。不過,直到「真的」班傑明當天稍晚打電話過來,他們才驚覺被騙。

班傑明受訪時說,那個聲音「足夠接近(我的聲音),讓我的父母真的相信他們在跟我說話。」儘管一家人趕緊向加拿大當局報案,但「錢不見了,沒有保險,拿不回來了。」他不知道詐騙集團從哪裡獲取自己的聲音,但確實曾在YouTube發布關於雪上摩托車的影片。

▲美國人工智慧公司OpenAI開發的ChatGPT掀起熱議。(圖/路透)

[廣告] 請繼續往下閱讀..

《商業內幕》報導,更強大的人工智慧興起之際,冒充身分的詐騙案也持續增多。不過,早在ChatGPT問世之前,涉及AI技術的詐騙就已經出現。

2019年,英國能源公司(British Energy)一名經理把24萬多美元匯入一個匈牙利帳戶,因為他以為「老闆」打電話要求這麼做。今年1月,研究AI聲音複製及語音合成的美國新創公司ElevenLabs也表示,他們注意到有人「把我們的科技用於惡意目的」,出現「越來越多聲音複製的濫用案例」。舉例來說,4chan等匿名論壇上就有不肖人士使用AI技術模擬與名人相似的聲音,說出種族歧視等不恰當言論。

美國聯邦貿易委員會(FTC)去年一共接獲240萬人通報詐欺案,最常見類型就是冒名頂替者詐騙(Imposter scams),儘管案件數比前一年低,損失金額卻更高,達到88億美元。

[廣告] 請繼續往下閱讀...

FTC已經新成立一間科技辦公室,專門調查有發展前景且可能使用AI的公司,是否嘗試降低產品可能造成的風險。發言人格倫瓦爾德(Juliana Gruenwald)表示,他們已經發現社群媒體上的詐欺案激增,「產生看似真實影片、相片、音檔及文本的AI工具可能加速這個趨勢,讓騙子更容易接觸受害者,速度也更快…我們也關心深偽技術(deepfake)與其他基於人工智慧的合成媒體的風險,它們變得越來越容易創作及散布,將被用於詐騙。」