美國華盛頓大學和康乃爾大學均以AI研究社群網站上的仇恨言論,結果卻發現非裔人士最常發表仇恨和種族歧視言論,並意外發現AI在學習如何判斷時的盲點。事實上,非裔人士那些被視為不當言論的用詞僅是熟人間開玩笑的用語,並非真的在咒罵,在此情況下,反而得出非裔人士經常使用不當言詞,因此可以得知,AI從學習時若輸入錯誤資訊導致無法正確判斷,將會造成完全偏差的結論,以此類推那些正仰賴AI進行審查的社群網站也許常錯殺無辜。
資料來源:www.limedia.tw/tech/9874/
責任編輯:謝承學(政大新聞系)