每日經(jīng)濟(jì)新聞 2025-01-27 11:17:07
每經(jīng)記者 葉曉丹 每經(jīng)編輯 張海妮
1月27日凌晨,阿里云通義開源支持100萬(wàn)Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個(gè)尺寸,均在處理長(zhǎng)文本任務(wù)中穩(wěn)定超越GPT-4o-mini;同時(shí)開源推理框架,在處理百萬(wàn)級(jí)別長(zhǎng)文本輸入時(shí)可實(shí)現(xiàn)近7倍的提速。
百萬(wàn)Tokens長(zhǎng)文本,可換算成10本長(zhǎng)篇小說、150小時(shí)演講稿或3萬(wàn)行代碼。兩個(gè)月前,Qwen2.5-Turbo升級(jí)了百萬(wàn)Tokens的上下文輸入能力。如今,開源社區(qū)可基于全新的Qwen2.5-1M系列模型,進(jìn)行長(zhǎng)篇小說或多篇學(xué)術(shù)論文的解析,或是探索倉(cāng)庫(kù)級(jí)代碼的分析和升級(jí)。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP