36氪报道,DeepSeek与北京大学合作发布新论文,提出“Engram”模块,由Liang Wenfeng等作者共同研发,旨在解决Transformer模型缺乏原生知识检索能力的问题。该模块引入“条件记忆”稀疏轴,利用现代化哈希N-gram嵌入技术,实现近似O(1)时间复杂度的确定性知识查找,显著提升模型在知识调用、推理、代码、数学等任务上的表现。