蘋果此前推出保護兒童安全的影像監測系統,希望透過機器學習技術找出儲存於iCloud上的兒童性剝削內容(Child Sexual Abuse Material, CSAM),進而發出警告或舉報,然而這套系統引致諸多關於隱私權的爭議。反對人士擔心,蘋果將運用這套系統來比對用戶裝置上尚未傳輸至iCloud的影像,成為對於線下儲存內容的隱私侵犯。受到輿論的壓力,蘋果決定推遲這個系統的上線時間,以便詳加考量各種可能出現的問題。
資料來源:reurl.cc/0xg1aY
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)