我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
2月11日,智譜正式推出新一代旗艦模型GLM-5,主攻編程與智能體能力,官方稱(chēng)已實(shí)現開(kāi)源領(lǐng)域最優(yōu)表現。這是繼DeepSeek后,國產(chǎn)AI大模型春節檔的又一重要發(fā)布。
GLM-5參數規模由上一代的355B擴展至744B,激活參數從32B提升至40B。智譜方面證實(shí),此前在全球模型服務(wù)平臺OpenRouter登頂熱度榜首的神秘模型“Pony Alpha”即為GLM-5。
內部評估顯示,GLM-5在前端、后端、長(cháng)程任務(wù)等編程開(kāi)發(fā)場(chǎng)景中,平均性能較上一代提升超20%,真實(shí)編程體驗逼近Claude Opus 4.5水平。該模型已上線(xiàn)chat.z.ai平臺。此次發(fā)布標志著(zhù)國產(chǎn)大模型在技術(shù)路徑與能力表現上持續縮小與國際領(lǐng)先水平的差距,為開(kāi)發(fā)者群體提供了新的開(kāi)源選擇。
參數規模翻倍 預訓練數據大幅擴容
智譜新一代旗艦模型GLM-5在模型架構層面實(shí)現關(guān)鍵升級。參數規模由上一代355B(激活32B)擴展至744B(激活40B),預訓練數據量從23T提升至28.5T,更大規模的算力投入驅動(dòng)通用智能能力顯著(zhù)增強。
該模型首次引入DeepSeek稀疏注意力機制,在保持長(cháng)文本處理效果無(wú)損的前提下,有效降低部署成本并提升Token利用效率。該技術(shù)路線(xiàn)與DeepSeek-V3/V3.2保持一致。
架構配置方面,GLM-5構建78層隱藏層,集成256個(gè)專(zhuān)家模塊,每次激活8個(gè),激活參數約44B,稀疏度5.9%,上下文窗口最高支持202K token。
編程能力顯著(zhù)提升
新一代旗艦模型GLM-5在內部Claude Code評估集中表現突出。前端、后端及長(cháng)程任務(wù)等編程開(kāi)發(fā)場(chǎng)景下,該模型較上一代GLM-4.7實(shí)現全面超越,平均性能提升逾20%。
GLM-5能夠以極少人工干預,自主完成Agentic長(cháng)程規劃與執行、后端重構、深度調試等復雜系統工程任務(wù)。官方稱(chēng),真實(shí)編程環(huán)境中的使用體感已逼近Claude Opus 4.5水平。
智譜將GLM-5定位為最新一代旗艦級對話(huà)、編程與智能體模型,重點(diǎn)強化其在復雜系統工程與長(cháng)程Agent任務(wù)中的處理能力。
智能體能力實(shí)現開(kāi)源最優(yōu)表現
GLM-5在A(yíng)gent能力上達成開(kāi)源SOTA,多項評測基準中位列開(kāi)源第一。在BrowseComp(聯(lián)網(wǎng)檢索與信息理解)、MCP-Atlas(大規模端到端工具調用)及τ2-Bench(復雜場(chǎng)景下自動(dòng)代理工具規劃與執行)三項測試中,GLM-5均取得最優(yōu)表現。
為實(shí)現能力突破,該模型構建了全新的“Slime”訓練框架,支持更大規模模型架構與更復雜的強化學(xué)習任務(wù),顯著(zhù)提升強化學(xué)習后訓練流程效率。
此外,智譜提出異步智能體強化學(xué)習算法,使模型具備從長(cháng)程交互中持續學(xué)習的能力,有效激發(fā)預訓練模型的深層潛力。該機制已成為GLM-5的核心技術(shù)特色之一。
國產(chǎn)大模型春節檔密集發(fā)布
智譜清言GLM-5的發(fā)布,成為國產(chǎn)AI大模型春節檔密集競逐的最新注腳。同日晚間,Minimax亦上線(xiàn)Minimax 2.5,距離上一版本2.2發(fā)布僅間隔一個(gè)多月。
此輪發(fā)布潮已持續升溫。DeepSeek此前已推出新模型,阿里千問(wèn)的Qwen 3.5、字節跳動(dòng)的SeeDance 2.0等產(chǎn)品也于近期相繼亮相。多家廠(chǎng)商不約而同選擇在春節窗口期集中推新,折射出國產(chǎn)大模型賽道競爭正進(jìn)入白熱化階段。
目前GLM-5與Minimax 2.5的詳細技術(shù)文檔尚未完全披露,其實(shí)際性能表現仍有待開(kāi)發(fā)者社區與專(zhuān)業(yè)機構的后續驗證。
