北理工团队在大语言模型轻量化、价值观对齐和推理优化及应用方面取得重要进展
11 小时前

近日,北京理工大学计算机学院宋大为教授团队在大语言模型领域取得重要进展,继2025年团队论文获顶级国际会议ACL2025(CCF-A类)“杰出论文奖”后,又有4篇论文被ACL2026接收。ACL2025于2025年7月27日至8月1日在奥地利维也纳召开,团队博士生张辰的论文首次提出大模型蒸馏的教师-学生容量差异定律,揭示了对于给定规模的学生模型,其最优教师模型规模与学生规模之间近似呈线性比例关系,通过应用该定律蒸馏出的3B模型,在标准基准上性能优于当时的同规模基线模型,建立了新的计算-性能帕累托前沿。ACL2026将于2026年7月2日至7月7日在美国加利福尼亚州圣迭戈举办,本次会议main conference录用率为19%,findings的录用率为18%。团队硕士毕业生李泽林、博士生田炎智(与计算机学院郭宇航博士共同指导)、随艺和孟令昂的4篇论文被录用。其中,李泽林等人的论文提出了RAO方法,实现了大语言模型价值观的逐点对齐优化;田炎智等人的论文提出了RATE评估框架,提高了非直译领域机器翻译质量评估的准确性;随艺等人的论文提出了STACK框架,解决了大模型在长链式推理中存在的“过度推理”与效率低下问题;孟令昂等人的论文提出了VADE框架,实现了精细化情感推理。