每日經(jīng)濟新聞 2024-09-11 16:19:39
每經(jīng)記者 可楊 每經(jīng)編輯 張海妮
“外界對大模型有相當(dāng)多的誤解。”近日,李彥宏的一則內(nèi)部講話曝光。李彥宏認(rèn)為未來大模型之間的差距可能會越來越大。他進(jìn)一步解釋,大模型的“天花板”很高,現(xiàn)在距離理想情況還相差非常遠(yuǎn),所以模型要不斷快速迭代、更新和升級;需要能幾年、十幾年如一日地投入,不斷滿足用戶需求,降本增效。
對于行業(yè)“大模型之間的能力已經(jīng)沒有壁壘”的說法,李彥宏給出了不同觀點:“每次新模型發(fā)布,都要和GPT-4o作比較,說我的得分已經(jīng)跟它差不多了,甚至某些單項上的得分已經(jīng)超過它了,但這并不表明和最先進(jìn)的模型就沒有差距了。”
他說,很多模型為了證明自己,會在發(fā)布之后去打榜,會去猜測試題目、答題技巧,從榜單上看,或許模型的能力已經(jīng)很接近了,“但到實際應(yīng)用中,實力還是有明顯差距的”。
李彥宏指出,模型之間的差距是多維度的。行業(yè)往往更關(guān)注理解、生成、邏輯、記憶等能力的差距,但卻忽視了成本、推理速度等維度,有些模型雖能達(dá)到同樣效果,但成本高、推理速度慢,還是不如先進(jìn)模型。
李彥宏還表示,“在大模型時代之前,大家習(xí)慣了開源意味著免費、意味著成本低”。他解釋說,比如開源的Linux,因為已經(jīng)有了電腦,所以使用Linux是免費的。但這些在大模型時代不成立,大模型推理是很貴的,開源模型也不會送算力,還得自己買設(shè)備,無法實現(xiàn)算力的高效利用。
“效率上開源模型是不行的。”他表示,“閉源模型準(zhǔn)確講應(yīng)該叫商業(yè)模型,是無數(shù)用戶分?jǐn)傃邪l(fā)成本、分?jǐn)偼评碛玫臋C器資源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都達(dá)到了90%多。”
李彥宏分析認(rèn)為,在教學(xué)科研等領(lǐng)域,開源模型是有價值的;但在商業(yè)領(lǐng)域,當(dāng)追求的是效率、效果和最低成本時,開源模型是沒有優(yōu)勢的。
在大模型應(yīng)用層面,李彥宏認(rèn)為首先出現(xiàn)的是Copilot,對人進(jìn)行輔助;接下來是Agent智能體,有一定的自主性,能自主使用工具、反思、自我進(jìn)化;這種自動化程度再發(fā)展,就會變成AI Worker,能獨立完成各方面的工作。
他還表示,雖然“有很多人看好智能體這個發(fā)展方向,但是到今天為止,智能體還不是共識,像百度這樣把智能體作為大模型最重要的戰(zhàn)略、最重要的發(fā)展方向的公司并不多”。
李彥宏認(rèn)為,智能體的門檻確實很低,很多人不知道怎么把大模型變成應(yīng)用,而智能體是一個非常直接、高效、簡單的方式,在模型之上構(gòu)建智能體相當(dāng)方便。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP