AI應用蓬勃發展,帶來方便也帶來詐騙,其中最新手法即是AI語音複製詐騙。透過AI語音複製技術,歹徒只需三秒人聲即可製作逼真語音,如果搭配來電顯示詐騙,將造成嚴重的社會問題。舉例而言,歹徒可能打電話給被害人,宣稱綁架對方親人,並讓對方與親人語音對話,進而勒索贖金。美國聯邦通信委員會(FCC)表示,歹徒如果結合前述兩項技術和Deepfake技術,將可偽造視訊電話,進行更高階的詐騙。
資料來源:reurl.cc/gZo0W4
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)
欲加入會員者,請先完成註冊程序