每日經(jīng)濟新聞 2024-05-18 09:06:40
每經(jīng)編輯 杜宇
5月18日凌晨,OpenAI安全主管、“超級智能對齊團隊”負責人Jan Leike在社交平臺宣布,離開OpenAI。這也是本周三OpenAI聯(lián)合創(chuàng)始人兼首席科學家Ilya Sutskever辭職之后,又有一名高管辭職。
Jan Leike在X上公開透露了他離職的部分原因。他的潛臺詞是,他與OpenAI高層在公司的核心優(yōu)先事項上存在長期分歧,最終雙方的分歧已經(jīng)嚴重到無法調(diào)和的地步。團隊在推動其研究項目和爭取計算資源時遇到了重大阻礙,缺乏資源會嚴重影響研究的進度和質量。
本周五(當?shù)貢r間5月17日),OpenAI證實,由Ilya和他的親信Jan Leike共同領導的“超級智能對齊團隊”已經(jīng)解散。此后,該團隊的研究工作將被整合到OpenAI的其他研究小組中。至此,一度幾乎導致OpenAI分崩離析的宮斗事件終于塵埃落定。
馬斯克針對OpenAI的長期人工智能風險團隊已經(jīng)解散這一消息評價稱:“這顯示安全并不是OpenAI的首要任務。”
OpenAI首席執(zhí)行官Sam Altman感謝并肯定了Jan Leike在OpenAI的貢獻和領導能力。并表示,未來幾天內(nèi)會發(fā)表一篇更長的文章,來闡述OpenAI對于產(chǎn)品安全的規(guī)劃和所做的事情。
加入OpenAI之前,Jan Leike曾在谷歌DeepMind工作,主要負責從人類反饋中進行強化學習的原型設計。在OpenAI期間,參與了InstructGPT、ChatGPT的開發(fā)以及GPT-4的安全對齊工作。
對于Ilya、Jan的辭職,有人表示這兩位安全領導高管都辭職了,以后誰來負責OpenAI的產(chǎn)品安全呢?
也有一位網(wǎng)友爆料,想離開OpenAI沒問題,但是你必須簽署一份“離職協(xié)議”, 如果你不簽署終身不詆毀承諾,將失去所有已獲得的OpenAI股權。不知道Jan Leike的一番吐槽,是否會影響到他的股權。
在去年7月份,OpenAI宣布成立一個新的研究團隊“超級對齊”,要用AI監(jiān)督AI的方式,解決超智能“AI對齊”問題。“AI對齊”的意思是,要求AI系統(tǒng)的目標要和人類的價值觀與利益相一致。公司創(chuàng)始人之一伊利亞·蘇茨克沃被任命為團隊共同負責人。
而現(xiàn)在AI風險團隊解散是公司內(nèi)部最近出現(xiàn)動蕩的又一證據(jù),也再次引發(fā)了人們對該公司在開發(fā)AI產(chǎn)品時如何平衡速度與安全的質疑。OpenAI章程規(guī)定,必須安全地開發(fā)通用人工智能(AGI),即可以與人類匹敵或超越人類的技術。
每日經(jīng)濟新聞綜合公開資料
免責聲明:本文內(nèi)容與數(shù)據(jù)僅供參考,不構成投資建議,使用前請核實。據(jù)此操作,風險自擔。
如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP