美國社交平台Reddit今日更新使用規範,阻擋外部程式在此自動搜尋資料。未來幾週,Reddit將調整「機器人排除協議」(robot.txt),嚴格限制網路爬蟲的存取範圍,避免用戶隱私外洩。與此同時,美國雜誌《連線》、《富比士》雙雙指控AI新創公司Perplexity未經許可、未標記來源就竊取自家內容來訓練AI模型。此二事件再度引發有關「如何既發展AI又保障隱私權與著作權」的辯論。目前,許多內容平台與AI公司簽訂資料授權合約,然而雙方對於素材價值的評估有時未必一致。
資料來源:https://www.thenewslens.com/article/204442
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)