根據OpenAI的資料,ChatGPT是利用大約570 GB的網路資料訓練而成,但是這些資料從未對外公開。然而,最近Google研究團隊發現,只要在ChatGPT對話中要求它不斷重複特定的單字,例如computer、poem或company,就能讓這聊天機器人吐出原始訓練資料,包括程式碼、網路文章、研究報告,甚至還有個人的電話、電郵和住址等,引發關於隱私安全的疑慮。目前,OpenAI已經禁止這種名為「發散攻擊」(divergence attack)的技術。
資料來源:www.bnext.com.tw/article/77635/openai-chatgpt-divergence-attack
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)