华为正式宣布!开源盘古7B稠密和72B混合专家模型

极客网·人工智能6月30日 华为今日正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。其中:

1、盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。

2、基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。

3、盘古7B相关模型权重与推理代码将于近期上线开源平台。

华为表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

微信截图_20250630091620.jpg

开源后,华为诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。下载链接为:https://gitcode.com/ascend-tribe 

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2025-06-30
华为正式宣布!开源盘古7B稠密和72B混合专家模型
极客网·人工智能6月30日 华为今日正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。其中:1、盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。2、基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。3、...

长按扫码 阅读全文