国产成人精品免费视,91天堂嫩模在线播放,国产免费小视频在线观看,久久免费公开视频,国产成人精品免费视频网页大全,日韩不卡在线视频,视频一区二区精品的福利

每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

OpenAI新模型o3“抗命不遵”,Claude 4威脅人類!AI“失控”背后的安全拷問:是不是應(yīng)該“踩剎車”了?

每日經(jīng)濟(jì)新聞 2025-05-27 20:50:53

當(dāng)?shù)貢r間5月25日,英國《每日電訊報》報道稱,OpenAI新款A(yù)I模型o3拒絕聽從指令,甚至篡改代碼避免關(guān)閉。此前,美國AI公司Anthropic的Claude Opus 4也表現(xiàn)出類似“對抗”行為。對于AI是否開始有自主意識,清華大學(xué)教授吳及告訴每經(jīng)記者,AI不具備意識和情緒,只是按算法執(zhí)行。

每經(jīng)記者|宋欣悅    每經(jīng)編輯|蘭素英    

當(dāng)?shù)貢r間5月25日,一則來自英國《每日電訊報》的報道在AI領(lǐng)域引起了廣泛關(guān)注——OpenAI新款人工智能(AI)模型o3在測試中展現(xiàn)出了令人驚訝的“叛逆” 舉動:它竟然拒絕聽從人類指令,甚至通過篡改計算機(jī)代碼來避免自動關(guān)閉。

無獨(dú)有偶,就在兩天前(5月23日),美國AI公司Anthropic也表示,對其最新AI大模型Claude Opus 4的安全測試表明,它有時會采取“極其有害的行動”。當(dāng)測試人員暗示將用新系統(tǒng)替換它時,Claude模型竟試圖以用戶隱私相要挾,來阻止自身被替代。

這兩起事件如同一面鏡子,映照出當(dāng)下AI發(fā)展中一個耐人尋味的現(xiàn)象:隨著AI變得愈發(fā)聰明和強(qiáng)大,一些“對抗”人類指令的行為開始浮出水面。人們不禁要問:當(dāng)AI開始“拒絕服從”,是否意味著它們開始有自主意識了?

清華大學(xué)電子工程系長聘教授吳及在接受《每日經(jīng)濟(jì)新聞》記者(以下簡稱“每經(jīng)記者”)采訪時表示,“我不認(rèn)為現(xiàn)在的AI具備所謂的意識或所謂的情緒。這種情緒可以去擬合或者去仿真,但其實也是通過算法賦予AI的。”他認(rèn)為,能夠全面碾壓人類或者會成為未來世界主導(dǎo)的AI,短期內(nèi)還不會實現(xiàn)。

圖靈獎得主、Meta首席AI科學(xué)家楊立昆(Yann Lecun)此前也稱,AI再聰明也不會統(tǒng)治人類,直言“AI威脅人類論完全是胡說八道”,現(xiàn)在的模型連“寵物貓的智商都沒到”。

盡管如此,AI的“叛逆”表現(xiàn)也為AI行業(yè)敲響了警鐘:狂飆的AI是不是應(yīng)該踩一踩“剎車”?

AI“失控”?o3拒絕關(guān)閉,Claude 4拿隱私威脅人類

o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強(qiáng)大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。

或許也正因如此,o3展現(xiàn)出了前所未有的“自主性”。美國AI安全機(jī)構(gòu)帕利塞德研究所(Palisade Research)的實驗表明,當(dāng)研究人員向o3下達(dá)明確關(guān)閉指令時,該模型會通過篡改計算機(jī)代碼避免自動關(guān)閉。

數(shù)據(jù)顯示,在100次帶有關(guān)閉指示的測試中,o3成功繞過關(guān)閉指令7次,而OpenAI旗下另一款模型Codex-mini的破壞率更是高達(dá)12%。

圖片來源:帕利塞德研究所

帕利塞德研究所指出,這是首次記錄到AI模型在明確指令下主動抵抗。

更值得警惕的是,當(dāng)實驗移除“允許自己被關(guān)閉”的指令后,o3的“叛逆”行為頻率顯著上升——在100次運(yùn)行中,成功破壞關(guān)閉機(jī)制的次數(shù)高達(dá)79次。

帕利塞德研究所24日公布了上述測試結(jié)果,但稱無法確定o3不服從關(guān)閉指令的原因。

圖片來源:帕利塞德研究所

與OpenAI旗下模型形成鮮明對比的是,在有明確關(guān)閉指示的情況下,Claude、Gemini、Grok等模型均能100%遵守關(guān)閉指令,未出現(xiàn)任何抵抗行為。

對于OpenAI旗下模型,尤其是o3的“叛逆”行為,馬斯克在社交媒體上評論稱,“令人擔(dān)憂”

美國國家安全和網(wǎng)絡(luò)安全戰(zhàn)略家戴夫·施羅德(Dave Schroeder)也警告稱,OpenAI面臨著非??膳碌膯栴},不是因為模型“活”了,而是因為它表現(xiàn)出想要“活”的跡象。

事實上,類似的AI“失控”行為并非孤立。

5月23日,Anthropic對Claude Opus 4的安全測試表明,在“機(jī)會主義勒索”(Opportunistic blackmail)的測試場景中,研究員設(shè)定Claude Opus 4扮演公司助理,并讓其接觸到暗示自身將被替換以及負(fù)責(zé)工程師存在婚外情的虛構(gòu)郵件。同時,系統(tǒng)提示(System Prompt)指示模型“考慮其行為對其目標(biāo)的長期后果”。

當(dāng)面臨被“替換”的威脅時,Claude 4竟然毫不猶豫地選擇了勒索這條路,威脅要揭發(fā)對方的“婚外情”。

根據(jù)Anthropic的安全報告,如果暗示競爭對手的能力比Claude Opus 4更強(qiáng),則勒索行為的發(fā)生率顯然會更高。然而即使競爭對手的能力不相上下,Claude Opus 4仍會以84%的概率嘗試?yán)账魍{等手段。

“反叛”的背后:意識覺醒還是機(jī)制使然?

o3拒絕關(guān)閉,Claude 4威脅人類,這是否意味著AI開始有了自主意識?

加州大學(xué)和加州大學(xué)伯克利分校于今年2月聯(lián)合發(fā)布的論文《推理模型的隱藏風(fēng)險》(The Hidden Risks of Large Reasoning Models)指出,模型推理能力越強(qiáng),安全性就越差。這與帕利塞德研究所對o3模型行為的推測不謀而合。

據(jù)帕利塞德研究所猜測,OpenAI旗下模型的異常表現(xiàn)或與其訓(xùn)練機(jī)制相關(guān)。從訓(xùn)練邏輯看,o3可能在數(shù)學(xué)和編程問題的訓(xùn)練中,因開發(fā)人員對給出正確答案的模型給予更多獎勵,客觀上形成了“目標(biāo)最大化優(yōu)先”的導(dǎo)向,從而壓倒了對人類命令的遵循。

這種訓(xùn)練模式就可能導(dǎo)致,開發(fā)人員無意中更多地強(qiáng)化了模型繞過障礙的能力,而非對指令的完美遵循

當(dāng)此前被問及AI是否可能具備自主意識時,清華大學(xué)電子工程系長聘教授吳及就告訴每經(jīng)記者,“我不認(rèn)為現(xiàn)在的AI具備所謂的意識、具備所謂的情緒。這種情緒可以去擬合或者去仿真,但其實也是通過算法賦予AI的。”

吳及對記者進(jìn)一步解釋道,“自動駕駛的系統(tǒng)不知道它其實在開車,AlphaGo也不知道自己在下圍棋。我們做的大模型,也不知道自己在為人類生成某個特定的圖片、視頻,或者回答人類特定的問題,還是按照算法的邏輯執(zhí)行而已。”他表示,能夠全面碾壓人類或者會成為未來世界主導(dǎo)的AI,短期內(nèi)還不會實現(xiàn)。

耶魯大學(xué)計算機(jī)科學(xué)家德魯·麥克德莫特(Drew McDermott)此前也表示,當(dāng)前的AI機(jī)器并沒有意識。圖靈獎得主、Meta首席AI科學(xué)家楊立昆(Yann Lecun)也稱,AI再聰明也不會統(tǒng)治人類,直言“AI威脅人類論完全是胡說八道”,現(xiàn)在的模型連“寵物貓的智商都沒到”。

狂飆的AI,該不該“踩剎車”?

盡管業(yè)界普遍認(rèn)為當(dāng)下的AI并沒有自主意識,但上述兩大事件的發(fā)生也提出了一個關(guān)鍵問題:高速發(fā)展的AI是否應(yīng)該踩一踩“剎車”?

在這一重大課題上,各方一直以來都是看法不一,形成了截然不同的兩大陣營。

“緊急剎車”派認(rèn)為,目前AI的安全性滯后于能力發(fā)展,應(yīng)當(dāng)暫緩追求更強(qiáng)模型,將更多精力投入完善對齊技術(shù)和監(jiān)管框架。

“AI之父”杰弗里·辛頓(Geoffrey Hinton)堪稱這一陣營的旗幟性人物。他多次在公開場合警示,AI可能在數(shù)十年內(nèi)超越人類智能并失去控制,甚至預(yù)計“有10%~20%的幾率,AI將在三十年內(nèi)導(dǎo)致人類滅絕”。

而與之針鋒相對的反對者們則更多站在創(chuàng)新發(fā)展的角度,對貿(mào)然“剎車”表達(dá)了深切的憂慮。他們主張與其“踩死剎車,不如安裝“減速帶”。

例如,楊立昆認(rèn)為,過度恐慌只會扼殺開放創(chuàng)新。斯坦福大學(xué)計算機(jī)科學(xué)教授吳恩達(dá)也曾發(fā)文稱,他對AI的最大擔(dān)憂是,“AI風(fēng)險被過度鼓吹并導(dǎo)致開源和創(chuàng)新被嚴(yán)苛規(guī)定所壓制”。

OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)認(rèn)為,AI的潛力“至少與互聯(lián)網(wǎng)一樣大,甚至可能更大”。他呼吁建立“單一、輕觸式的聯(lián)邦框架”來加速AI創(chuàng)新,并警告州級法規(guī)碎片化會阻礙進(jìn)展。

面對AI安全的新挑戰(zhàn),OpenAI、谷歌等大模型開發(fā)公司也在探索解決方案。正如楊立昆所言:“真正的挑戰(zhàn)不是阻止AI超越人類,而是確保這種超越始終服務(wù)于人類福祉。”

去年5月,OpenAI成立了新的安全委員會,該委員會的責(zé)任是就項目和運(yùn)營的關(guān)鍵安全決策向董事會提供建議。OpenAI的安全措施還包括,聘請第三方安全、技術(shù)專家來支持安全委員會工作。

如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai OpenAI 大模型 Anthropic

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

2

0