2026年春节期间,全网热议的DeepSeek V4大模型虽未正式发布,但DeepSeek在2月11日悄然进行了版本更新,亮点颇多。此次更新将上下文长度从128K扩展至1M(百万Token),提升近10倍,可一次性处理约30万行代码或整本书内容,如《三体》全集。新版本知识库更新至2025年5月,多项核心能力显著提升,支持最高1M Token的上下文长度,目前能将上下文推至百万级别的模型较少。此外,DeepSeek还公开了两项创新架构:mHC(流形约束超连接)和Engram(条件记忆模块),分别优化深层Transformer信息流动和降低长上下文推理成本。尽管新版本目前不支持视觉输入和多模态识别能力,但其在编程、复杂任务处理等方面的表现已对齐主流闭源模型。DeepSeek V4预计将于2月中旬正式发布,主打强劲的代码生成能力和超长上下文处理,有望推动国产大模型实现新一轮技术迭代。
