国产成人精品免费视,91天堂嫩模在线播放,国产免费小视频在线观看,久久免费公开视频,国产成人精品免费视频网页大全,日韩不卡在线视频,视频一区二区精品的福利

每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

阿爾特曼爆猛料:超快推理模型o3-mini預(yù)計(jì)幾周內(nèi)上線,GPT系列或與o系列合并!專家猜測GPT-5也許永遠(yuǎn)不會(huì)公開發(fā)布

每日經(jīng)濟(jì)新聞 2025-01-18 18:17:40

當(dāng)?shù)貢r(shí)間1月17日,OpenAI CEO阿爾特曼在X上透露,o3-mini推理模型預(yù)計(jì)幾周內(nèi)推出,表現(xiàn)“非常出色”。他還表示,希望2025年合并GPT系列和o系列。對于GPT-5,阿爾特曼稱仍在確定中。AI專欄作家Romero猜測GPT-5或已開發(fā)完成,OpenAI可能參考競爭對手做法,將其用于模型蒸餾提升其他模型性能,也許永遠(yuǎn)不會(huì)公開發(fā)布。

每經(jīng)記者 鄭雨航    每經(jīng)實(shí)習(xí)記者 岳楚鵬    每經(jīng)編輯 蘭素英    

當(dāng)?shù)貢r(shí)間1月17日,OpenAI CEO阿爾特曼又在X上放出旗下產(chǎn)品的最新消息。

據(jù)他透露,最新的o3-mini推理模型預(yù)計(jì)將在幾周內(nèi)正式推出。他強(qiáng)調(diào),o3-mini的表現(xiàn)“非常出色”。除此之外,阿爾特曼在回網(wǎng)友提問時(shí)表示,希望在2025年將GPT系列和o系列合并。也許,一個(gè)結(jié)合GPT系列的強(qiáng)大語言理解能力和o系列的快速推理能力的強(qiáng)大AI模型將在2025年誕生。

至于最受公眾期待的GPT-5相關(guān)問題,阿爾特曼沒有給出具體的時(shí)間表和性能指標(biāo),只是表示“仍在確定中,但我認(rèn)為你們會(huì)滿意的”。

AI專欄作家Alberto Romero在個(gè)人博客里猜測GPT-5可能早就開發(fā)好了,但OpenAI或許參考了競爭對手Anthropic的做法,將其用于模型蒸餾,以提升其他功能稍差、價(jià)格更便宜的模型的性能。他認(rèn)為,GPT-5或許永遠(yuǎn)也不會(huì)對外發(fā)布了。

阿爾特曼爆猛料:最新o3-mini模型將于幾周內(nèi)推出,GPT系列或與o系列合并

當(dāng)?shù)貢r(shí)間1月17日,阿爾特曼在X上透露了一系列關(guān)于OpenAI新模型開發(fā)和發(fā)布的消息。

阿爾特曼在推文中感謝了外部安全研究人員對最新o3-mini模型的測試,然后稱,o3-mini的最終版本已經(jīng)確定,并進(jìn)入發(fā)布流程,計(jì)劃將在幾周內(nèi)正式推出。同時(shí),針對之前的反饋意見,API和ChatGPT版本將同步發(fā)布。阿爾特曼還特別強(qiáng)調(diào),o3-mini的表現(xiàn)“非常棒”。

圖片來源:X

在這條推文下,阿爾特曼還回答了許多網(wǎng)友關(guān)心的問題。

比如,有網(wǎng)友問:即將推出的o3-mini和o1 pro相比,誰更強(qiáng)?對此,阿爾特曼表示,o3-mini在大多數(shù)方面比o1 pro要差一些,但其最大優(yōu)勢在于速度極快。o3-mini是一個(gè)專注于推理速度和效率的模型,適合對響應(yīng)時(shí)間要求較高的應(yīng)用場景。

圖片來源:X

阿爾特曼明確表示,o3-mini的消息速率“非常高”。Plus用戶屆時(shí)可以使用。而且,據(jù)他透露,OpenAI也在計(jì)劃推出更智能的o3模型,o3 pro的訂閱費(fèi)為一個(gè)月200美元。

專家猜測GPT-5早已開發(fā)完成,或被用于內(nèi)部模型蒸餾

關(guān)于GPT系列的未來,阿爾特曼表示,“希望在2025年將GPT系列和o系列合并。”如果他的想法實(shí)現(xiàn),那外界有望在今年見到一個(gè)融合GPT系列的強(qiáng)大語言理解能力和o系列快速推理能力的強(qiáng)大AI模型。

當(dāng)被問及關(guān)于GPT-5的發(fā)布時(shí)間和性能表現(xiàn)時(shí),阿爾特曼表示:“仍在確定中,但我認(rèn)為你們會(huì)開心的。”阿爾特曼的回答耐人尋味,或許GPT-5的發(fā)布流程也很快將被提上日程。

圖片來源:X

此前有人猜測,GPT-5的內(nèi)部開發(fā)已經(jīng)完成,只是回報(bào)率不夠高,遠(yuǎn)沒有內(nèi)部使用來的好處大,比如用于模型蒸餾。

當(dāng)?shù)貢r(shí)間1月17日,AI專欄作家Alberto Romero在個(gè)人博客上發(fā)表了一篇關(guān)于GPT-5的深度分析文章,他通過一系列推理分析提出一個(gè)令人震驚的猜測:“OpenAI很可能已經(jīng)開發(fā)出了GPT-5,但選擇將其內(nèi)部保留,而不是公開發(fā)布。”并且,OpenAI或許不會(huì)很快發(fā)布GPT-5,除非還有更好的模型(GPT-6)被訓(xùn)練出來。

Romero的證據(jù)來自O(shè)penAI的最大競爭對手Anthropic。2024年10月,業(yè)界普遍預(yù)期Anthropic會(huì)發(fā)布3.5 Opus作為對GPT-4o的回應(yīng),但出人意料的是,該公司只更新了Claude 3.5 Sonnet版本。次月,彭博社報(bào)道稱,3.5 Opus訓(xùn)練后表現(xiàn)雖優(yōu)于舊版,但因模型大小及成本,優(yōu)勢未達(dá)預(yù)期。Anthropic之所以不推出3.5 Opus,是因?yàn)槌杀竞托阅懿⒉黄ヅ?,雖然3.5 Opus訓(xùn)練未失敗,但結(jié)果不佳。

2024年12月,半導(dǎo)體專家Dylan Patel及其團(tuán)隊(duì)稱,Anthropic實(shí)際上已經(jīng)完成Claude 3.5 Opus訓(xùn)練且表現(xiàn)良好。未發(fā)布的原因是,Anthropic使用Claude 3.5 Opus來生成合成數(shù)據(jù)并進(jìn)行獎(jiǎng)勵(lì)建模,Claude 3.5 Sonnet更新版本就是獎(jiǎng)勵(lì)建模的成果。

使用功能強(qiáng)大、價(jià)格昂貴的模型來生成數(shù)據(jù),從而提升功能稍差、價(jià)格更便宜的模型的性能,這一過程被稱為蒸餾。這是一種常見的做法。此前在國內(nèi)引起轟動(dòng)的DeepSeek-V3模型也使用了這一方法。

Dylan表示,Anthropic選擇不發(fā)布3.5 Opus,因?yàn)樗趦?nèi)部更有價(jià)值。這也就是開源社區(qū)如此迅速趕上GPT-4的原因,他們直接從OpenAI的礦山中獲取黃金。

Romero認(rèn)為,OpenAI可能也在采用類似的方法處理GPT-5。由于最新的模型不僅性能更好,而且比上一代更小、更便宜,OpenAI可能也在通過蒸餾技術(shù)來提升其模型性能,同時(shí)控制成本。Romero稱,也許這就是OpenAI在短短三個(gè)月內(nèi)從o1躍升至o3的原因。

隨著時(shí)間的推移,GPT-5需要達(dá)到的門檻不斷提高,公眾對于GPT-5的期待也越來越高。

華爾街日報(bào)對GPT-5的報(bào)道,與彭博社對3.5 Opus的評價(jià)幾乎一致。“OpenAI意識(shí)到GPT-5比目前的產(chǎn)品表現(xiàn)更好,但還未好到足以證明維持(GPT-5)運(yùn)行的巨大成本是合理的。”

Romero認(rèn)為,OpenAI或許永遠(yuǎn)也不會(huì)推出GPT-5了,“現(xiàn)在對他們(指的是OpenAI)來說唯一重要的目標(biāo)是,繼續(xù)為下一代模型生成更好的數(shù)據(jù)。從現(xiàn)在開始,基礎(chǔ)模型可能會(huì)在后臺(tái)運(yùn)行,使其他模型能夠?qū)崿F(xiàn)它們自己無法完成的壯舉——就像一位老隱士從秘密的山洞中傳授智慧,只不過這個(gè)山洞是一個(gè)巨大的數(shù)據(jù)中心。”

如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

GPT 模型 OpenAI 阿爾特曼

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0