大模型,在内卷中寻找出口

2024年,大模型进展不断。从年初的Sora到最新的o3,更新更好的模型不断被推出,“内卷”到底有没有发生?

我们要先确定“内卷”的定义,指某一类产业模式,发展到一种确定形式后,陷入“高水平均衡陷阱”,出现“没有发展的增长”,这种局面一直无法被打破,那就会走向停滞和危机。

而这一年,大模型的scaling law法则越来越受到挑战,训练模型的算力集群已经从万卡发展到十万卡,扩大了十倍,而模型的智商并没有以这个倍率提高。应用端也没有出现killer app(杀手级应用),模型厂商开始了流血换量的价格战……这些特征与“内卷”的定义是契合的。

那么接下来的问题就是,内卷化让大模型陷入危机了吗?以及脱离内卷的出口,究竟在哪里?

在内卷化周期中,一个产业是很难保持活力和创新动力的。大模型内卷化的加剧,也让行业进入调整期。

首先可以感受到的,就是公众和投资者的失望。2023年,人们都用“AI一天,人间一年”来形容AI的发展,美股 “七姐妹”(苹果、微软、谷歌母公司alphabet、亚马逊、英伟达、特斯拉、Meta)更是在这一股热潮下屡创新高。而近来我们明显看到,这股热情已经回落。

OpenAI的股东、接入模型API的服务商企业,都公开抱怨过,AI能力没有太大进展了。刚刚结束的为期12天的OpenAI 发布会,也大多是对已有模型、产品或技术路线的增强,符合预期,但缺乏亮点,无法为AGI提供强支撑。OpenAI前首席科学家Ilya在NeurIPS 2024大会上提出“预训练将会终结(Pre-training as we know it will end)”,更是给大众浇了一瓢凉水。

来自产学各界的质疑态度是一个比较危险的信号,因为历史上的AI寒冬都源于信心缺失和投资退潮。

另一个危机信号,是产品同质化竞争和淘汰赛加剧。

基础模型的竞赛,也在2024变得格外激烈,一是模型数量过密,且性能表现逐渐趋同,尤其是开源模型与闭源模型的差距在快速缩小,进入同质化竞争。

二是同一厂商的模型家族,也在加速淘汰,比如GPT-3.5-Turbo就退役了,由GPT-4o mini取代,国内模厂的模型也基本如此,用户都愿意用加量不加价、物美价更廉的新模型,旧模型没人愿意用了。GPT-4o Mini发布后,API 的使用量翻了一番。

激烈的同质化竞争,让模厂不敢减少训练新模型的投入,又为了应对价格战而不得不下调token价格,结果就是经济负担越来越重。可以说,目前大模型无论是外部的宏观形势,还是企业的微观经营状态,都没有2023年那么积极了。

模型层面,底层技术路线、数据瓶颈等无法在短期内得到有效突破,那么从商业层面寻找出路,就成为必然。

2024年,我们能看到大模型内卷,给商业模式带来的诸多挑战。

一是云+API模式,流血降价、以价换量并不是最优解。

API调用量付费,是大模型的主要变现模式之一,通过token降价来赢得更多大模型业务上云,获得长期收益,是云厂商价格战的基本逻辑。但目前来看,以价换量似乎并不奏效。

究其原因,是因为B端客户更关注模厂的长期性、模型质量,质在价先,可靠优先。所以,我们看到,一部分以价换量成功的云厂商,本身就具有比较强的模型能力,比如文心一言两款主力模型免费之后,百度智能云的日调用量一个月翻了十倍。基于豆包大模型家族的火山云,token调用量也大幅上升,甚至有客户的tokens调用量增长了5000倍。这说明新用户会倾向于头部模型,而老用户要么不考虑替换现有模型,要么会把鸡蛋放在多个头部厂商的篮子里,趁降价接入更多模型,最终留下性价比高的。而不打价格战的云厂商,比如华为云将盘古大模型作为“尖刀产品”,也在B端市场取得了不错的成绩,与行业伙伴协同打造的煤炭大模型、医药大模型及数智化解决方案,今年在垂直领域的多个企业内被复用。很多行业用户考虑华为云,就有企业抗风险能力强,能在基础模型坚持投入,业务稳健运营的预期考量。

上述企业说明,云+API模式成功的根本,是“质在价先”

二是订阅制,由于大模型内卷化,导致用户粘性低、忠诚度不高,会员市场呈现出极高的分散性。

因为大模型的更新换代非常快,一方面新模型在质量和性价比上往往更好,“等等党”更愿意观望;另外很多旧模型会不再更新或退役,这就让会员更不愿意跟平台长期绑定。这就导致模厂为了不断吸引新用户,拉新营销活动难以停止,获客成本居高不下,而且影响用户体验,需要高频弹窗广告,打扰用户,开发出多个会员等级和收费权益套餐,增加了用户的决策疲劳。而好不容易拉来的新客户,往往使用一段时间之后就转向免费版本,或者更新更便宜的友商产品,长期续费率不高。

可以看到,大模型的内卷化,导致大多数模厂难以说服客户和开发者,与其建立长期信赖关系。这就给后续的商业变现与价值挖掘,造成了极大挑战。

告别内卷,就要向外寻找出路。数量多、同质化的大模型,形成了一个密度很高的堰塞湖。那么逃离内卷,就必须疏浚河道,缓解拥塞。所以,2025,将是大模型商业基础设施日趋完善的一年,通过更全面的“水利设施”,让大模型应用者和开发者们能够更方便地取用。

如何判断一个大模型是否“外向”?有以下几个衡量标准:

一是模型的开放度或者说兼容性。

如前所说,内卷化周期中,用户并不愿意将鸡蛋放在一个篮子里,或者跟某一个模厂进行长期绑定,这就需要模型具备很强的开放度和兼容性。比如腾讯混元大模型的免费资源包,同时支持hunyuan-pro、hunyuan-standard、hunyuan-turbo等多个模型共享,支撑第三方平台、ISV服务商为客户提供多种模型的灵活选择与切换、模型竞技场等,来满足最终客户对多元多模的需求。

二是更细致地开发工具。

将大模型技术转化为生产力,还需要加工工具、工作流等更细致的支持,比如此次OpenAI就为Sora打造了Remix、Blend和Loop三个专业工具,来支撑更好的视频生成,为此支付每月200美元的Pro用户也不少。国内,我们实测过的,字节跳动的扣子开发平台、百度文心智能体开发平台等的开发工具也已经很容易上手了。

三是大模型应用从开发到商业化的“端到端”支持。

2024年并没有出现国民级的第三方AI应用。一方面是模型能力本身还需要提升,一些AI智能体平台充斥着大量低水平、易复制的个人智能体,对话体验、理解能力、多模态任务等的效果一般,没有太大商业价值;另一方面,是很多开发者不知道AI应用如何商业化,所以还没有投入太大精力去开发市场缺乏的产品,满足尚未解决的需求,这就需要平台加大对开发者的商业资源扶持。

归根结底,技术天花板短期内难以突破,大模型市场饱和与同质化竞争的局面就不会宣布解决。大模型要取得商业成功,前提是用户和开发者的业务能否成功,这是为什么完善的商业基础设施必不可少。

逃离内卷的堰塞湖,所有模厂2025年都必须回答的问题是:如果大模型是水和电,那么用户和开发者拧开开关,究竟能得到什么?

免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2024-12-24
大模型,在内卷中寻找出口
大模型,在内卷中寻找出口

长按扫码 阅读全文