兒童色情內容層出不窮,蘋果也致力保護兒童免於性剝削。此前蘋果有意推出兒童色情照片偵測系統,比對美國用戶上傳至iCloud的照片是否違規,進而啟動人工審查或向有關當局舉報,不料這個計畫引發諸多關於隱私安全的憂慮與批評。為此蘋果近日宣布修改相關政策,未來系統將只會偵測被多國標註的兒童色情照片,同時每個蘋果裝置的辨識影像清單全都相同,不會因人而異。
資料來源:reurl.cc/mLgARG
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)
欲加入會員者,請先完成註冊程序