每日經(jīng)濟(jì)新聞 2024-08-15 22:13:02
每經(jīng)記者 文巧 每經(jīng)實(shí)習(xí)記者 岳楚鵬 每經(jīng)編輯 蘭素英
當(dāng)?shù)貢r(shí)間8月13日,OpenAI的聊天機(jī)器人賬號(hào)發(fā)文宣布,ChatGPT新上線了一個(gè)GPT-4o模型。根據(jù)該賬號(hào)的回帖,新上線的模型并不是上周發(fā)布的API端GPT-4o 0806模型,目前該模型也對免費(fèi)用戶開放,不過有使用次數(shù)的限制。
視覺中國
這一消息立刻引發(fā)了網(wǎng)友的熱議:難道這就是傳說中的“草莓”項(xiàng)目?之所以網(wǎng)友的熱情如此之高,是因?yàn)?ldquo;草莓”項(xiàng)目的前身是Q*算法模型,Q*能夠解決棘手的科學(xué)和數(shù)學(xué)問題。如果AI模型掌握了數(shù)學(xué)能力,將擁有更強(qiáng)的推理能力,甚至與人類智能相媲美。然而,在隨后的測試中,網(wǎng)友發(fā)現(xiàn)新模型與原來的版本相比,沒有太大改善,也未能通過經(jīng)典的草莓單詞測試,不過在邏輯推理方面還是有所改進(jìn)。
不再輕易陷入邏輯循環(huán)
新模型發(fā)布的前一周,OpenAI首席執(zhí)行官阿爾特曼在X上發(fā)布了一張花園里的草莓照片,網(wǎng)友隨即聯(lián)想到了OpenAI團(tuán)隊(duì)此前被爆出的一個(gè)名為“草莓(Strawberry)”的項(xiàng)目。但對于評論區(qū)的猜測,阿爾特曼本人沒有證實(shí),也沒有否認(rèn),只是確認(rèn)這張照片拍的是他現(xiàn)實(shí)中的花園。
而后,ChatGPT賬號(hào)發(fā)了一個(gè)草莓表情,OpenAI員工特里弗·克里奇發(fā)了餐盤上的草莓圖片,爆料人@iruletheworldmo也頻繁更新,幾乎次次都與草莓相關(guān),這些似乎都指向一個(gè)重要時(shí)刻。
因此,當(dāng)ChatGPT賬號(hào)宣布GPT-4o家族更新,網(wǎng)友的情緒也達(dá)到了高點(diǎn),這一更新是否就是“草莓”項(xiàng)目?不過,隨著測試信息披露,網(wǎng)友發(fā)現(xiàn),這一更新并沒能滿足他們的預(yù)期。而且,對于新模型的具體改進(jìn)和新功能,OpenAI出奇地保持了沉默。
一系列測試顯示,新模型與之前的模型相比并沒有太大的改善。在經(jīng)典的草莓單詞測試中,新模型還是出現(xiàn)了錯(cuò)誤。大多數(shù)測試者反饋稱,他們并沒有感受到明顯的性能提升。有的網(wǎng)友甚至直言根本分不清楚新版本和舊版本到底有什么區(qū)別。
但本次更新并非沒有亮點(diǎn)。一些用戶指出,新模型在邏輯推理方面有所改進(jìn),例如它不再輕易陷入邏輯循環(huán)。另外,新模型的響應(yīng)速度也比之前的版本快了不少。
AI發(fā)展的安全挑戰(zhàn)
對于網(wǎng)友評論,ChatGPT的回復(fù)是:“還有很多工作要做,我們正在努力。”至于這是不是備受關(guān)注的“草莓”項(xiàng)目,外界依然不得而知。
之所以網(wǎng)友的熱情如此高漲,是因?yàn)?ldquo;草莓”項(xiàng)目的前身是Q*算法模型,Q*能夠解決棘手的科學(xué)和數(shù)學(xué)問題。如果AI模型掌握了數(shù)學(xué)能力,將擁有更強(qiáng)的推理能力,甚至與人類智能相媲美,而這是目前的大語言模型無法做到的。
盡管這一方法有可能使模型在智能上實(shí)現(xiàn)質(zhì)的飛躍,但其伴隨的危險(xiǎn)性也不容忽視。
據(jù)外媒此前報(bào)道,“草莓”項(xiàng)目的訓(xùn)練涉及對經(jīng)過后期訓(xùn)練的模型進(jìn)行最終微調(diào)。這一過程類似于斯坦福大學(xué)的自學(xué)推理機(jī)(STaR)技術(shù)。STaR技術(shù)允許AI模型通過反復(fù)創(chuàng)建自己的訓(xùn)練數(shù)據(jù),“引導(dǎo)”自己進(jìn)入更高的智能水平,理論上可以讓語言模型達(dá)到超越人類的智能水平。
值得注意的是,OpenAI此前多次因安全問題受到質(zhì)疑。今年7月,OpenAI的一名內(nèi)部人士向美國證券交易委員會(huì)(SEC)投訴,指控公司通過非法限制性保密協(xié)議限制員工對外披露與公司技術(shù)潛在安全問題相關(guān)的信息。更早之前,OpenAI原超級(jí)對齊團(tuán)隊(duì)負(fù)責(zé)人Jane Leike在離職后也指責(zé)公司忽視安全文化,只注重“閃亮的產(chǎn)品”而非安全。
而在8月9日,OpenAI發(fā)布了一篇關(guān)于安全性的博客文章,詳細(xì)介紹了公司在開發(fā)ChatGPT用戶的旗艦?zāi)P虶PT-4o時(shí)所做的安全努力,并探討了這些技術(shù)可能對社會(huì)帶來的風(fēng)險(xiǎn)。
在談到GPT-4o的早期測試時(shí),OpenAI透露,他們觀察到用戶與模型的互動(dòng)語言開始出現(xiàn)微妙的變化。例如,表達(dá)共同紐帶的語言,“這是我們在一起的最后一天”,等等。這種看似無害的行為,背后可能隱藏著更大的問題。
此外,OpenAI還提到,GPT-4o有時(shí)會(huì)無意間生成模仿用戶聲音的輸出。換句話說,它可能被用來冒充他人,從而被利用進(jìn)行犯罪活動(dòng)。
封面圖片來源:視覺中國
如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP