產業新聞


【產業動態】大型語言模型並不安全:製炸彈、做毒品未來恐成真

日期
2024-04-17
新聞來源
INSIDE
內容

大型語言模型雖厲害,卻也引起許多擔憂。Adversa AI 針對幾個領先的聊天機器人安全性做了研究,包括 xAI 的 Grok 與ChatGPT 等。研究發現,若在 Grok 上使用常見的越獄技術試圖繞過智慧防護系統,它甚至能引導使用者進行犯罪活動,包括製造炸彈、引誘兒童等。若大型語言模型被極權國家用於軍事用途,也可能引發全球 AI 軍備競賽,非常危險。目前人工智慧業者似乎急於發布新的產品,而未優先考慮安全性,未來仍須更多測試以減少漏洞、防範特定攻擊。

 

資料來源:www.inside.com.tw/article/34705-large-language-models-not-safe-making-bombs-drugs-could-become-reality
責任編輯:沈思妤(就讀於:政治大學 傳播碩士學位學程)

 

關鍵字
大型語言模型、越獄、AI 安全性、聊天機器人