Deepseek打破AI训练烧钱魔咒:仅需1.2万美元,MT-Bench跑分媲美GPT-4,成本降低50倍

DeepSeek打破AI训练烧钱魔咒:仅需1.2万美元,MT-Bench跑分媲美GPT-4

随着人工智能(AI)技术的飞速发展,越来越多的企业和研究机构投入巨资进行模型训练和开发。然而,这种“烧钱魔咒”的现象一直备受争议,许多专家和机构呼吁降低AI训练的成本,提高其效率。在这个背景下,DeepSeek的出现无疑为AI领域带来了一股清流。近日,DeepSeek与清华大学合作推出的全新AI对齐技术SPCT(自我原则点评调优)引起了广泛关注。据测试结果显示,DeepSeek-GRM模型在性能水平上达到了671B规模模型的性能水平,且训练成本仅为1.2万美元,MT-Bench跑分媲美GPT-4,成本降低50倍。

首先,让我们来了解一下DeepSeek-GRM模型。该模型是一种深度学习模型,具有强大的自然语言处理能力。通过采用拒绝式微调作为冷启动阶段和基于规则的在线强化学习阶段,该模型能够适应不同输入类型并以正确格式生成原则与点评内容。值得一提的是,DeepSeek-GRM模型采用了混合专家系统(MoE),支持128k token上下文窗口,单查询延迟仅1.4秒。这种设计使得该模型在处理大规模数据时具有很高的效率和准确性。

接下来,我们来看看DeepSeek-GRM模型在测试中的表现。据报告显示,通过每查询32次采样的推理计算,DeepSeek-GRM模型达到了671B规模模型的性能水平。这一表现不仅证明了该模型的强大性能,也说明了其硬件感知设计的高效性。此外,DeepSeek的SPCT技术通过“原则合成-响应生成-批判过滤-原则优化”的递归架构,让模型能在推理时动态修正输出,从而显著降低了高性能模型的部署门槛。

那么,DeepSeek-GRM模型的训练成本如何呢?据介绍,DeepSeek-GRM模型的训练成本仅为1.2万美元,这一数字相较于传统的高性能模型如GPT-4等动辄数百万美元的训练成本而言,无疑是一个巨大的降低。这得益于DeepSeek的SPCT技术以及其独特的硬件感知设计。DeepSeek通过减少90%人工标注需求,能耗较DPO降低73%,为实时机器人控制等动态场景提供了新的可能。

此外,DeepSeek的MT-Bench得分也令人瞩目。据报告显示,DeepSeek-GRM模型的MT-Bench得分达到了8.35,与GPT-4的得分相近,但成本却降低了50倍。这一表现无疑证明了DeepSeek在降低AI训练成本方面的巨大潜力。

总的来说,DeepSeek的出现为AI领域带来了革命性的变化。通过与清华大学合作推出的全新AI对齐技术SPCT,DeepSeek成功地突破了传统依赖海量训练数据的模式,通过推理阶段动态优化输出质量。在测试中,DeepSeek-GRM模型的表现也证明了其强大的性能和高效的成本优势。随着DeepSeek的不断发展,我们有理由相信,它将为AI领域带来更多的可能性,并为更多的企业和研究机构提供便利。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2025-04-08
Deepseek打破AI训练烧钱魔咒:仅需1.2万美元,MT-Bench跑分媲美GPT-4,成本降低50倍
DeepSeek打破AI训练烧钱魔咒:仅需1.2万美元,MT-Bench跑分媲美GPT-4 随着人工智能(AI)技术的飞速发展,越来越多的企业和研究机构投入巨...

长按扫码 阅读全文