盘古Pro MoE开源模型声明:创新架构,遵循开源精神
AI导读:
华为诺亚方舟实验室发布声明,称盘古Pro MoE开源模型基于昇腾硬件平台开发,提出创新架构MoGE,解决分布式训练难题,并严格遵循开源许可证要求。
近日,针对盘古大模型开源代码的争议受到广泛关注。今日,在华为诺亚方舟实验室公众号上,盘古Pro MoE技术开发团队正式发布声明。
声明明确指出,盘古Pro MoE开源模型并非基于其他厂商模型进行增量训练,而是基于昇腾硬件平台精心开发、训练的基础大模型,在架构设计、技术特性等方面实现了关键创新。作为全球首个面向昇腾硬件平台设计的同规格混合专家模型,它创新性地提出了分组混合专家模型(MoGE)架构,这一架构有效解决了大规模分布式训练的负载均衡难题,显著提升了训练效率。
针对部分代码是否借鉴了其他开源项目的质疑,声明回应称:“盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们始终严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这既是开源社区的通行做法,也充分体现了业界倡导的开源协作精神。”(21世纪经济报道)

(文章来源:南方财经网)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

