產業新聞


【產業動態】【換臉換聲騙到你特輯】小心AI攻陷你的戒心,3個動作護你財產安全

日期
2024-05-28
新聞來源
鏡周刊
內容

AI科技發展日新月異,詐騙集團已將AI換臉換聲技術運用於製作假訊息,透過Deepfake生成的逼真人像大量出現在網路上,如何辨識虛擬親友、保護財產安全成為重要課題。刑事警察局預防科科長林書立表示,大眾接到親朋好友要求借錢或匯款的語音或視訊電話時,必須謹記「聽、掛、查」三字訣:先謹慎聆聽觀察對方,如果發覺對話可疑,可以掛斷電話,再透過其他管道向本人查證來電內容。

 

資料來源:www.mirrormedia.mg/story/20240528mkt001
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)
 

關鍵字
AI、Deepfake、換臉換聲、虛擬親友、財產安全、詐騙集團