华为盘古大模型被质疑抄袭阿里通义千问,盘古官方回应否认抄袭
6月30日,华为高调开源其盘古大模型,包括盘古7B稠密模型和盘古Pro MoE 72B混合专家模型。然而,这份成果迅速陷入一场涉及“抄袭”的舆论漩涡。用户HonestAGI在GitHub发布报告指出,盘古Pro MoE 72B模型与阿里巴巴半年前发布的通义千问Qwen-2.5 14B模型在关键参数上呈现“异乎寻常的高度相似”。
HonestAGI的报告称,通过分析模型核心的注意力参数,发现盘古Pro MoE 72B与Qwen-2.5 14B的平均相关性系数高达0.927,远超业内通常的0.7阈值。报告认为,深度学习模型训练具有高度随机性,如此高相似度自然发生的概率极低,质疑盘古模型是在千问基础上进行增量训练,即“站在巨人肩膀上”而非完全从零训练。
面对汹涌质疑,华为旗下负责盘古大模型开发的诺亚方舟实验室于7月5日发布正式声明,明确表示,“盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。”
通义千问Qwen系列采用宽松的Apache License 2.0协议,允许商业使用、修改和分发。华为若在使用千问开源代码或组件时遵循了协议要求(保留版权声明、免责条款等),则属于合法合规行为。
此次事件的焦点在于华为是否如HonestAGI指控般,使用了千问的预训练权重进行初始化或增量训练,但双方均未对此提供直接证据。华为称盘古大模型为“从底层硬件到顶层应用的完全自研技术栈”,HonestAGI的报告权威性亦存疑。
目前公开证据显示,华为在盘古大模型开发中使用了包括通义千问在内的开源组件,并履行了相关开源协议的标注义务,这本身不构成法律意义上的抄袭。引发争议的“高参数相似性”指控,其分析方法与结论的有效性尚存争议且缺乏直接验证。事件最终定论,恐需更权威的第三方技术验证或法律裁决。