最新趨勢

Latest News

可怕!AI 只需3秒就能「複製你的聲音」打給親友騙錢

2023-07-03

三立新聞網 SETN.COM
2023/06/30 11:10:00

記者谷庭/台北報導


 ▲ 詐騙集團現在透過AI複製人聲,來矇騙親友轉帳。 (圖/資料照)
 

近年AI 發展快速,很多企業開始導入AI 加快辦公效率,不過現在也被有心人士用來當詐騙工具。

外媒報導,AI風險評估公司Blackbird.AI共同創辦人哈利德指出,發現有詐騙集團開始利用AI技術,複製他人的聲音,進行電話語音詐騙,來竊取銀行帳密或是要求轉帳。

由於透過AI技術,這樣的AI語音複製人聲音跟真人非常相近,所以很容易讓人受騙上當,尤其是一些常在電視、公開場合講話的公眾人物,最容易成為詐騙集團的目標,節錄發言片段,讓AI去複製聲音,甚至只要花3秒就能成功複製出來。

不過目前尚未有辨別是真人還是AI語音複製人的技術,所以若要避免被騙,若突然接到親友打電話來要求緊急匯款,一定要進一步再跟本人確認,以免落入詐騙集團的陷阱中損失慘重。另外也提醒民眾,平常在網路上盡量不要留下個資、電話等資訊,也容易成為詐騙集團鎖定的目標。