可怕!AI 只需3秒就能「複製你的聲音」打給親友騙錢
2023-07-03三立新聞網 SETN.COM
2023/06/30 11:10:00
記者谷庭/台北報導
▲ 詐騙集團現在透過AI複製人聲,來矇騙親友轉帳。 (圖/資料照)
近年AI 發展快速,很多企業開始導入AI 加快辦公效率,不過現在也被有心人士用來當詐騙工具。
外媒報導,AI風險評估公司Blackbird.AI共同創辦人哈利德指出,發現有詐騙集團開始利用AI技術,複製他人的聲音,進行電話語音詐騙,來竊取銀行帳密或是要求轉帳。
由於透過AI技術,這樣的AI語音複製人聲音跟真人非常相近,所以很容易讓人受騙上當,尤其是一些常在電視、公開場合講話的公眾人物,最容易成為詐騙集團的目標,節錄發言片段,讓AI去複製聲音,甚至只要花3秒就能成功複製出來。
不過目前尚未有辨別是真人還是AI語音複製人的技術,所以若要避免被騙,若突然接到親友打電話來要求緊急匯款,一定要進一步再跟本人確認,以免落入詐騙集團的陷阱中損失慘重。另外也提醒民眾,平常在網路上盡量不要留下個資、電話等資訊,也容易成為詐騙集團鎖定的目標。