ChatGPT等聊天機器人回答用戶的問題時,內容未必完全正確,甚至經常穿插憑空捏造的不實訊息,天馬行空,令人感到不可思議。新創公司Vectara研究團隊近期進行一項研究,確切記錄、計算各大AI開發商推出的聊天機器人產生幻覺(hallucinations)、提供錯誤資訊的機率,結果顯示,ChatGPT的機率為3%,Meta AI的機率為5%,PaLM的機率更高達27%。AI專家Suresh Venkatasubramanian表示,這些聊天機器人的答案就像四歲兒童隨口說出的小故事,沒有欺騙惡意,只是不懂分辨事情真偽。
資料來源:www.gvm.com.tw/article/107546
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)