6月4日消息,昆仑万维宣布开源 2 千亿参数稀疏大模型 Skywork-MoE , 性能强劲, 同时推理成本更低。Skywork-MoE 的模型权重、技术报告完全开源,免费商用。
据介绍,Skywork-MoE 基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来, 是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE大模型,也是首个支持用单台 4090 服务器推理的开源千亿 MoE大模型。
在相同的激活参数量 20B(推理计算量)下,Skywork-MoE 能力在行业前列,接近 70B 的 Dense 模型。使得模型的推理成本有近 3 倍的下降。同时 Skywork-MoE 的总参数大小比 DeepSeekV2 的总参数大小要小 1/3,用更小的参数规模做到了相近的能力。
昆仑万维表示,希望本次开源的 Skywork-MoE 模型、技术报告和相关的实验结果可以给开源社区贡献更多的 MoE 训练经验和 Know-how,包括模型结构、超参选择、训练技巧、训练推理加速等各方面, 探索用更低的训练推理成本训更大更强的模型,在通往 AGI 的道路上贡献一点力量。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 英伟达CEO黄仁勋香港科技大学最新演讲:机器人时代即将到来
- 蔚来法务部回应收购谣言:公安机关已立案调查
- 阅文集团与大英图书馆达成三年合作,10部网文入藏大英图书馆
- 又10部网文入藏大英图书馆,《诡秘之主》《全职高手》《庆余年》在列
- 滴滴张博卸任CTO 未来将专注自动驾驶业务
- TechWeb微晚报:苹果开发全新Siri,尊界尺寸可能超越99.99%的轿车
- 毫末智行回应裁员:正常组织调整,比例很小
- 谷歌恐难逃分拆命运:即将迎来特朗普大苦主
- 余承东:尊界车长约5.5米 尺寸可能超越马路上99.99%的轿车
- 逾10年潜心自研芯片创新,亚马逊云科技Graviton在新实例中已打下三分天下
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。