划重点:
1、HonestAGI团队发布一项名为“模型指纹”的研究欲证明华为盘古大模型抄袭阿里Qwen,但由于方法过于简单粗暴、团队和参考文献存在造假嫌疑被质疑其真实性。
2、在华为诺亚方舟实验室官方做出回应之后,一位自称内部员工人士发表长文《盘古之殇》揭露华为盘古大模型涉嫌套壳、续训、洗水印,将抄袭风波再次推向高潮。
3、在技术快速迭代的时代,如何建立更加科学、透明的模型评估机制,如何在激烈竞争中保持技术诚信,如何在开源合作与商业利益间找到平衡,这些都是行业必须直面的课题。
作者 林易
编辑 重点君
整整一个周末,围绕着“华为大模型抄袭”的话题持续不断地跃入大众的视野。
事件的主角是华为于6月30日正式开源的盘古大模型(Pangu Pro MoE),起因则是由HonestyAGI在GitHub中发布的一项研究,通过论文式的推理证明盘古大模型抄袭了阿里巴巴的通义千问Qwen-2.5 14B模型。
在这项研究中,HonestAGI提出了通过分析模型注意力参数的标准差模式来识别“模型指纹” (LLM-Fingerprint)的方法,并基于此对华为Pangu Pro MoE模型的来源进行了分析。
研究中的关键发现,便是华为Pangu Pro MoE模型与Qwen-2.5 14B的标准差模式相关性高达0.927,这就表明其可能基于Qwen-2.5“升级改造”而非从头训练。
除此之外,HonestAGI还发现盘古大模型官方在GitCode中发布的代码中,还异常地包含了Qwen 2024的许可证。其意在指出,盘古大模型团队所用到的“transformers”组件的版权归属于Qwen团队、阿里巴巴集团和HuggingFace团队。
这项研究一经发布便引发了不少的争议,有人认为它通过种种证据已经算是实锤了盘古大模型抄袭Qwen;但另一方面,也有人对“指纹”方法的专业性提出了质疑,更是在项目的Issues中产生了对峙之势。
那么这项研究到底够不够靠谱,盘古大模型团队到底有没有抄袭,重点君在整理完全部事件的来龙去脉之后,单从技术角度分析认为,HonestAGI这篇研究确实存在较多的可疑点。现在,我们就带大家一同深入了解。
具体指出了哪些证据?
HonestyAGI提出的模型 “指纹” 是一种用于识别和区分模型的技术,旨在为模型提供独特标识,以解决模型知识产权保护、来源追溯和相似性分析等问题。不同的模型 “指纹” 方法在实现方式和应用场景上各有差异。
团队针对大型语言模型,通过分析各层注意力参数(Q、K、V、O投影矩阵)的标准差(σ)形成 “指纹”。对每个Transformer层提取相关矩阵计算标准差,再跨层归一化生成特征签名,这种方法就可以用来识别模型谱系。其特征包括:
·鲁棒性:能在大量持续训练后保留。
·内在性:由模型架构自然产生。
·简单性:仅需对参数矩阵使用torch.std()计算。
QKV偏置分析结果如下图所示:
从结果来看,Pangu与Qwen2.5-14B的Q、K、V投影偏差模式几乎相同,早期层出现特征性峰值后收敛,而这个设计是Qwen 1-2.5代独有的特色,多数开源模型(包括Qwen3)已弃用。
对注意力层的归一化权重进行分析后,进一步印证了它们之间的相似性。盘古和Qwen2.5-14B在各层的表现趋势非常一致,呈现出类似的初始化方式和收敛过程,这也让它们在行为上明显区别于像Qwen2-57B-A14B和Qwen3-30A3B这样的其他模型。
除此之外,团队正在研究每一层的激活值大小。为此,HonestAGI从The Pile测试集中随机抽取了1000个批次的样本(https://pile.eleuther.ai/),并计算了每层的激活范数,同时采用了统一的归一化方法。每个批次包含8条序列,长度为1024。目前初步结果已经公布,显示盘古模型和文心模型的表现依然相似,说明它们在计算方式上有很大的相似之处。
为了验证“模型指纹”是不是存在偶然性,HonestAGI还对Qwen和混元A13B进行了对比,结果发现两者在不同层级的内部表现差异很大,说明它们的架构和学到的知识表示完全不同。显然,HonestAGI提供这组对比数据,是为了证明它的测试方法是可信的。
不过也正如重点君在此前提到的,许多人对HonestAGI团队提出的“模型指纹”方法,在技术层面上提出了质疑。
有人认为这个方法过于简单粗暴,存在cherry picking(选择性挑选数据)的空间,且使用参数标准差来判定模型相似度并不科学。在深度学习领域,模型结构创新更重要,模型参数更多依赖算力和数据,华为有足够算力重新训练大模型,没必要套用Qwen的参数。
并且“模型指纹”存在多处缺陷,如仅公开少量模型对比样本,缺乏大规模基准测试;相同参数量的 MoE 模型可能因架构约束产生相似曲线,不能仅凭相似曲线判定抄袭;论文核心假设缺乏权威文献支撑等。
除此之外,对于“模型指纹”研究团队,网友们也提出了质疑。原论文作者除这篇文章外没有其他科研成果,联名的五个人既没有留邮箱,也无法在Google Scholar上找到任何信息,且作者自称是韩国学生,却使用outlook邮箱,说话有中式英语味道,怀疑作者身份是假的。
更重要的一点是,引用的参考文献中竟然还存在多处不实的参考文献,以至于有人认为全篇文章极有可能是用AI来生成。
对于这次抄袭风波,涉事的“主角”盘古Pro MoE背后的团队也在第一时间站出来发出了声明做回应。强调了他们是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构;并且部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码,是严格遵循开源许可证的要求。
而且若是对比着来看两篇技术报告,虽然他们均采用MoE架构优化计算效率,结合大规模预训练与多阶段微调提升能力,且关注长上下文和多任务泛化;但Pangu Pro MoE是以“硬件-架构协同设计”为核心,而Qwen2则是以“模型通用性与多语言能力”为核心;前者聚焦负载均衡与Ascend硬件适配,后者侧重专家设计与模型规模扩展。
总结来看,重点君认为HonestAGI团队首先在算法上仅将QKVO参数标准差组合在一起向量特征来计算大模型之间的相似,方法过于简单了些,在严谨性和科学性上确有偏颇;其次,从开源标准方面来看,华为也公开回应了其是遵守开源标准来执行,这无可厚非。
目前HonestAGI团队也下架了最初的研究(声称再完善后发布),仅根据这项研究或许并不能实锤华为盘古大模型抄袭了阿里Qwen,但这次的风波却并没有因此而结束。
一篇《盘古之殇》再引热议
就在昨天,一篇名为《盘古之殇:华为诺亚盘古大模型研发历程的心酸与黑暗》的文章在GitHub上走红,仅一天时间便揽获2.5K Star(还在持续增长中)。
仅从标题就不难看出这是一篇华为内部员工的匿名举报信,曝光了盘古大模型背后的“造假”内幕。事情的起因正是华为盘古大模型被曝抄袭阿里Qwen,这让一位自称盘古团队成员的员工再也忍不住了。他决定站出来爆料内部的真实情况,哪怕可能因此丢掉工作。
按照这位员工的说法,华为内部确实存在大规模的“套壳”行为。所谓套壳,就是拿别人家的模型,稍微改改包装,然后说成是自己研发的。比如他们的135B模型,其实就是拿阿里千问110B改的,连代码里的名字都懒得改,还叫"Qwen"。最近争议很大的72B模型,也是用千问的模型训练出来的。
据这位员工描述说,更让人气愤的是工作环境,他们这些真正做技术的人非常辛苦,经常要去苏州出差,一去就是几个月,和家人分离,工作强度巨大。但辛辛苦苦做出来的成果,却经常被其他部门轻松拿走,然后贴上别人的标签。真正干活的人累死累活,抢功劳的人轻轻松松,这种不公让很多优秀的技术人员选择了离职。
当然,这位员工也承认,华为确实做出了一些真正的技术成果,比如在自家芯片上训练出了一些从零开始的模型。但这些真实的努力往往被造假行为掩盖了,让认真做事的工程师感到心寒。他说自己也准备离职了,再也不想在这样的环境里工作,他也希望通过爆料能让华为认识到问题。
相比于HonestAGI的“模型指纹”,这一次网友们的评价并没有出现一边倒的情况。一部分网友认为文章中的一些技术细节描述较为具体,有一定的可信度;但也有用户指出文章可能存在情绪化、片面性等问题,部分观点缺乏足够的证据支持,如“内部分析”等表述过于模糊。
截至发稿,华为诺亚方舟实验室官方并没有对这篇文章做出正面回应。但这场围绕华为盘古大模型的争议,早已超越了单一事件的范畴,折射出AI行业在爆发式发展中的深层矛盾。
从技术层面看,“模型指纹”方法的争议核心在于:当大模型的参数规模突破千亿级,架构创新与参数迭代的边界愈发模糊,如何用科学标准界定“原创”与“借鉴”?在算力与数据壁垒高筑的当下,纯粹的“从零开始”研发是否已成为小概率事件?在AI企业普遍面临“模型迭代速度竞赛”的背景下,如何平衡商业目标与技术诚信,也是在考验着每个团队的价值选择。
结语
华为盘古大模型抄袭争议,本质上反映了AI行业发展中的三重困境:技术评判标准的缺失、商业竞争的激烈化,以及行业诚信体系的待建立。
无论最终真相如何,这场争议都为整个AI行业敲响了警钟。在技术快速迭代的时代,如何建立更加科学、透明的模型评估机制,如何在激烈竞争中保持技术诚信,如何在开源合作与商业利益间找到平衡,这些都是行业必须直面的课题。
更重要的是,这起事件提醒我们:真正的技术创新不应该建立在模糊的边界线上,而应该以扎实的研发实力和清晰的技术路径为基础。只有这样,中国AI行业才能在全球竞争中赢得真正的尊重和话语权。
参考链接:
1、HonestyAGI GitHub:https://github.com/HonestyAGI/LLM-Fingerprint
2、《盘古之殇》原文:https://github.com/HW-whistleblower/True-Story-of-Pangu
3、知乎相关讨论:https://www.zhihu.com/question/1925157415541801408
4、盘古Pro MoE技术报告:https://arxiv.org/abs/2505.21411