產業新聞


【產業動態】親耳聽到也不是真的,AI語音複製詐騙興起

日期
2023-04-18
新聞來源
科技新報
內容

AI應用蓬勃發展,帶來方便也帶來詐騙,其中最新手法即是AI語音複製詐騙。透過AI語音複製技術,歹徒只需三秒人聲即可製作逼真語音,如果搭配來電顯示詐騙,將造成嚴重的社會問題。舉例而言,歹徒可能打電話給被害人,宣稱綁架對方親人,並讓對方與親人語音對話,進而勒索贖金。美國聯邦通信委員會(FCC)表示,歹徒如果結合前述兩項技術和Deepfake技術,將可偽造視訊電話,進行更高階的詐騙。

 

資料來源:reurl.cc/gZo0W4

責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)

關鍵字
AI、AI語音複製詐騙、來電顯示詐騙、綁架、Deepfake