Open AI 於 2023 年 7 月創立了名為 Superalignment 的團隊,目的是為了控制未來的人工智慧系統,避免未來的 AI 過於強大、對人類造成威脅。然而,似乎因公司內部有分歧,團隊領導人 Jan Leike 與 OpenAI 聯合創辦人 Ilya Sutskever 接連離職。Leike 在個人 X 上說明,以往 OpenAI 注重的安全性流程,現在「已讓位給那些散發光芒的新產品」。過去幾個月,Superalignment 團隊遲遲無法獲得公司承諾的資源,他認為,公司不再將 AI 的安全性置於首位,而是將開發更多新產品當成最主要的任務。
資料來源:buzzorange.com/techorange/2024/05/20/openai-reportedly-dissolves-ai-risk/
責任編輯:沈思妤(就讀於:政治大學 傳播碩士學位學程)