华为开源盘古7B稠密与72B混合专家模型

重磅!华为放大招,盘古系列模型全面开源,国产大模型迎来加速器?

北京,2025年6月30日——今日,科技巨头华为再次以实际行动引爆AI圈。公司正式宣布,其备受关注的盘古系列大模型迎来重磅升级与开放:不仅70亿参数的盘古稠密模型全面开源,更有720亿参数的混合专家(MoE)模型——盘古Pro MoE也已上线,同时基于昇腾的先进模型推理技术也同步开放。这无疑为刚刚崭露头角的国产大模型生态注入了一剂强心针。

华为方面强调,此次开源是其践行“昇腾生态战略”的关键一步,旨在推动大模型技术的前沿研究与创新发展,并加速AI技术在各行各业的深度应用和价值创造。从官网信息来看,盘古Pro MoE 72B模型权重与基础推理代码已正式登陆开源平台,为开发者和企业提供了直接的实践基础。

华为宣布开源盘古7B稠密和72B混合专家模型

更令人期待的是,基于昇腾的超大规模MoE模型推理代码也已开放。这意味着开发者可以更深入地理解并利用华为在高性能AI计算上的积累。而更早发布、备受关注的盘古7B模型,其相关模型权重和推理代码也将在近期与大家见面,覆盖了从轻量级到高性能的广泛需求。

据了解,盘古Pro MoE大模型(采用MoGE架构,总参数720亿,激活参数160亿)在华为自家的昇腾300I Duo和800I A2硬件平台上展现出了惊人的效率,分别实现了321 tokens/s和1528 tokens/s的推理速度。这意味着在实际应用中,它能够以更快的速度处理更复杂的任务。

在模型能力上,盘古Pro MoE在最新一期的业界权威大模型评测榜单SuperCLUE上交出了亮眼的成绩。尽管总参数量(720亿)相较于一些动辄千亿甚至更高参数的模型(如671B参数的DeepSeek-R1)有所不同,但盘古Pro MoE以其优异的表现,在千亿参数量以内的大模型榜单中脱颖而出,并列国内第一。更值得关注的是,其160亿的激活参数量,已经能够与竞品中更大规模的模型相媲美,这在“高效”与“强大”之间找到了一个极具吸引力的平衡点。

此次华为盘古系列模型的全面开源,不仅仅是技术能力的展示,更是对整个国产AI生态的一次有力推动。通过降低大模型的使用门槛,华为有望激发更多企业和开发者的创新活力,加速人工智能技术在金融、医疗、通信等各个领域的落地应用,共同塑造一个更加智能化的未来。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
Like (0)
Previous 2025年6月30日 上午7:45
Next 2025年6月30日 下午12:24

相关推荐