华为回应盘古大模型争议:非增量训练,承认参考开源代码
来源:龙灵 发布时间:2025-07-06
分享至微信

7月7日,针对近期网络上关于华为盘古大模型开源代码的讨论与质疑,盘古Pro MoE技术开发团队发布声明,对相关问题进行说明。
声明指出,盘古Pro MoE开源模型是基于华为昇腾(Ascend)硬件平台自主研发和训练的基础大模型,并非基于其他厂商模型的增量训练成果。华为强调,该模型在架构设计和技术特性上具有显著创新。
在技术层面,华为特别介绍了其提出的分组混合专家模型(MoGE)架构。据称,这是全球首个针对昇腾硬件平台设计的同规格混合专家模型。该架构通过优化大规模分布式训练中的负载均衡问题,显著提升了训练效率。更多技术细节可参考昇腾生态竞争力系列技术报告。
对于代码相似性争议,华为并未回避。声明承认,盘古Pro MoE的部分基础组件代码参考了业界开源实践,并涉及其他开源大模型的部分代码。但团队强调,这一做法完全遵循开源许可证要求,并在相关代码文件中明确标注了版权声明,符合开源社区的通行规范和协作精神。
华为重申了其在开源领域的立场,表示将坚持开放创新并尊重第三方知识产权。团队欢迎开发者与合作伙伴在官方开源社区Ascend Tribe中深入交流,共同推动模型优化与技术落地。

[ 新闻来源:龙灵,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!


龙灵
开创IC领域,共创美好未来!
查看更多
相关文章
印度新规要求监控设备商提交源代码
2025-05-28
韩国两大运营商开源韩语AI模型
2025-07-04
印度新规要求监控设备提交源代码,中韩美厂商齐反对
2025-05-29
国产大模型公司MiniMax推出开源推理模型M1,性能媲美国际领先水平
2025-06-19
科大讯飞:使用国产芯片训练AI模型效率逐步提升
2025-06-12
热门搜索