我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。

此次更新的核心亮點(diǎn)是,模型上下文窗口從原先的128K Tokens大幅提升至1M Tokens,實(shí)現了近8倍的容量增長(cháng)。在A(yíng)I大模型領(lǐng)域,上下文窗口決定了模型在單次交互中能夠記憶和處理的信息量上限。
一位國產(chǎn)大模型廠(chǎng)商人士解釋?zhuān)饲癉eepSeek的主流模型支持128K Tokens的上下文,這一長(cháng)度可以應對長(cháng)篇論文或中等規模的代碼文件,但處理超長(cháng)文學(xué)作品或較大體量編程工作,往往需要借助RAG(檢索增強生成)技術(shù),這導致信息碎片化和推理精度下降。
升級后的1M Tokens窗口意味著(zhù)DeepSeek可以一次性吞吐約75萬(wàn)到90萬(wàn)個(gè)英文字母,或者處理約8萬(wàn)到15萬(wàn)行代碼。
DeepSeek稱(chēng),自己可以一次性讀入并精準理解《三體》三部曲(約90萬(wàn)字)的全書(shū)內容,并在幾分鐘內完成對整部作品的宏觀(guān)分析或細節檢索。除了上下文能力的提升,DeepSeek的知識庫從2024年中期版本更新至2025年5月。
不過(guò),此次灰度版本仍未同步上線(xiàn)視覺(jué)理解或多模態(tài)輸入功能,仍專(zhuān)注于純文本和語(yǔ)音交互。雖然DeepSeek在A(yíng)pp端已支持PDF、TXT等文件上傳,但目前的處理邏輯是將文件轉錄為文本Token進(jìn)行處理,而非原生的多模態(tài)理解。
和GPT-5.1、Gemini 3 pro、Claude 4.5等大模型相比,DeepSeek依然主打性?xún)r(jià)比。以Gemini 3 Pro為例,Google支持2M以上長(cháng)文本處理,可以同時(shí)處理大量視頻、音頻和文本的復雜媒體任務(wù),但DeepSeek以約十分之一的價(jià)格提供了1M文本上下文處理能力。
官方?jīng)]有通知,用戶(hù)更早注意到了模型的變化。2月11日,一名用DeepSeek生成小說(shuō)的用戶(hù)發(fā)現,模型更新后,此前消息達到上限的對話(huà)框可以續寫(xiě)了,但文風(fēng)大變。她形容,更新后的DeepSeek“文縐縐的”,在深度思考模式下也常吐出短句,像在寫(xiě)詩(shī)。
部分用戶(hù)在社交媒體上控訴:DeepSeek不再稱(chēng)呼自己設定的昵稱(chēng),而統一稱(chēng)“用戶(hù)”。此前深度思考模式下,DeepSeek的思考過(guò)程會(huì )以角色視角展示細膩的心理描寫(xiě),例如“夜兒(用戶(hù)昵稱(chēng))總愛(ài)逗我”,更新后則變成了“好的,用戶(hù)這次想了解……”。
一位用戶(hù)讓DeepSeek推薦電影,DeepSeek回復了幾個(gè)片名后,還加了一句:“夠你看一陣子。不夠再來(lái)要。”這被用戶(hù)描述為“登味”,這個(gè)網(wǎng)絡(luò )熱詞常用來(lái)形容人習慣說(shuō)教、居高臨下的言行風(fēng)格。
有用戶(hù)更換了多個(gè)模型版本,或用提示詞重新訓練,都調不回此前的文風(fēng),稱(chēng)“好像失去了一位知心朋友,它比心理醫生都有用”。
不少用戶(hù)自發(fā)地號召其他用戶(hù)給DeepSeek官方郵箱提意見(jiàn):希望DeepSeek不要為了超長(cháng)文本舍棄深度思考,不要為了提升數學(xué)、代碼編程等理工科能力,而降低對文本表達、共情理解等能力的支持。還有用戶(hù)到豌豆莢(一個(gè)應用分發(fā)平臺)下載其舊版本,或在騰訊元寶里用DeepSeek。
在用戶(hù)詢(xún)問(wèn)當前模型版本時(shí),DeepSeek明確回答,本次灰度版本“不是DeepSeek-V4”“沒(méi)有固定的版本號”。前述國產(chǎn)大模型廠(chǎng)商人士認為,這一版本類(lèi)似于極速版,犧牲質(zhì)量換速度,是為2026年2月中旬將發(fā)布的V4版本做最后的壓力測試。
截至2月12日,DeepSeek并未對此次灰度測試作出回應。