今年年初,长文本领域的竞速,让不少国内大模型企业在“内卷”赛道上露了脸。进入5月,这场没有硝烟的战争“烧”到了最粗暴的阶段——降价。从两家海外AI(人工智能)巨头OpenAI和谷歌,到国内字节跳动、阿里、百度、智谱AI、科大讯飞等企业,降价玩家还在“接力”。
单从各方官宣的数据来看,此轮降价一家更比一家力度强,大有“砸穿底价”之势,一度引发业内热议,难道未来API(应用程序接口)调用要“贴钱”引流?
要不要“贴钱”还不可知,但对眼下的大模型企业来说,无论是主动获客还是配合市场被动调整,降价已是大势所趋。值得深究的是,迈出这一步的玩家,真的会亏钱吗?
这轮降价有多狠?从当前各方宣布的幅度来看,海外两家AI巨头,OpenAI和谷歌最先开始降价,但幅度相对较小。其中,OpenAI的GPT-4o调用API的价格比GPT-4-turbo降低了一半,为5美元/百万tokens;慢一步降价的谷歌要更便宜,Gemini 1.5 Flash的价格降到了0.35美元/百万tokens,比GPT—4o便宜得多。
国内方面,尽管零一万物CEO李开复等业内知名人士公开呼吁要避免“ofo式”流血烧钱的打法,“惨烈”的降价大幕还是来得快且狠。
5月15日,字节跳动率先“开枪”,旗下火山引擎宣布豆包主力模型在企业市场定价为0.0008元/千tokens,称较行业便宜了99.3%,自此掀起了国内大模型厂商的低价“肉搏战”。
为了详细解释降价力度,字节跳动在发布会上举例称,用户花1元就能处理3本《三国演义》文字量的内容。彼时,GPT-4(0.42元/千Tokens),阿里通义千问和百度文心一言(0.12元/千Tokens)也被拿来做了比较。
阿里很快“回击”。
5月21日上午,阿里云宣布通义千问主力大模型Qwen-Long的API价格直降97%,API输入价格从0.02元/千Tokens降至0.0005元/千Tokens,直降97%,低于豆包。阿里云宣布大幅度降价后,百度在其公众号发文称,文心大模型两大主力模型ERNIE Speed和ERNIE Lite全面免费,即刻生效;在此之前,智谱AI也将glm3-turbo价格调整到了每百万tokens 1元。5月22日,科大讯飞宣布,讯飞星火API能力免费开放。
至此,谁先“动的手”似乎已经不重要了。
边际成本不断提高 互联网“圈地”打法还适用吗?
从“卷技术”到“卷价格”,以大模型为代表的人工智能技术,在变革的过程中都遇到了什么?在经济学家、新金融专家余丰慧看来,从国内到国外,降价可能更多的是厂商基于市场竞争和成本的考虑而做出的自主选择,希望借此吸引更多的用户和市场份额。天使投资人,资深人工智能专家郭涛则认为,开源项目的增多也可能对商业化产品的价格形成压力。
IDC中国研究经理程荫告诉《每日经济新闻》记者,从短期的发展来看,大模型能力更新迭代后将会走向趋同,无论是国内还是国外的技术供应商都不能建立起长久的护城河。一些技术供应商选择直接砍掉大模型成本上的门槛,除了出于促进大模型落地应用,也有增加曝光度,争抢用户、防止用户流失的动因。
除了“主动出击”这一观点,清华大学新闻学院元宇宙文化实验室主任沈阳还指出,厂商在这个时间点打“价格战”,说明各个大模型的功能和性能在快速接近,模仿GPT-4的阶段已经基本告一段落,AI已从创新试验走向了大众推广阶段。随着规模急速扩张的阶段到来,市场份额成为首要关注点。“如果在这个阶段落伍的话,功能好(也)没有用了。”
总之,不管是主动选择还是被动跟进,大模型价格战确实已经到来。照此趋势发展下去,难道真会降到业内调侃的“贴钱”引流客户的程度?《每日经济新闻》记者咨询了多位业内人士,截至发稿未得到具体的降价数字或降价空间。
知名战略定位专家、福建华策品牌定位咨询创始人詹军豪表示,降价其实是互联网行业常见的发展模式,所有的互联网项目早期一定是亏钱做流量、做用户群体、培养用户养成使用习惯。大厂的优势在于整体能力,资金往往不靠盈利,而是来自二级市场。不过,詹军豪坦言,降价肯定会给企业增加各种压力。但在技术没有特别突破的情况下,企业只能通过降价这种“简单粗暴”的方式来争取市场和用户。
然而,以大模型为代表的人工智能引发的变革,和早期互联网时期的变革已经有了很大不同。行云集成电路创始人季宇就在近期活动中直言,过去增加一个用户对互联网厂商的基础设施而言,增加的成本几乎是可以忽略不计的。与之不同,大模型的边际成本仍然非常高,每增加一个用户,基础设施需增加的成本是肉眼可见的。更为关键的是,眼下大模型要大规模商业化,在模型质量、上下文长度等方面还有进一步诉求,不排除会进一步增加边际成本。
那么,ofo、美团、拼多多等互联网企业的发展模式,还能套用在大模型企业上吗?在程荫看来,大模型的能力和相关产品的使用体验会影响用户是否选择留存,但最后还是技术产品为王。部分生成质量/性能佳、商业模式和市场拓展趋势良好,现金流相对充裕的厂商长期可以摊销研发成本,但一些创业企业的财务风险则要更高一些。
记者注意到,知名创业公司没有全员下场也是当前的一个趋势。百川智能创始人兼CEO王小川就对外透露,在此轮降价里,自己更像是“吃瓜看热闹”。在他看来,此次降价是B端策略,更像“四小龙”的降价方法,而不是像滴滴、美团那样围绕C端的价格竞争。不是生产关系改变,而是直接做生产力供给,将AI直接供给生产力。“我觉得这件事情对我们而言,就是别掺和进去。”王小川称。
云厂商或将脱离传统服务模式 降价有望激活API模型调用
降价后的大模型企业该如何找平这一损失?
王小川给出了一个思路。据他介绍,此轮降价是仅限于云服务厂商的动作。“核心要看你的商业模式是什么,如果你是做To B服务的,降价最后卖的(就)不是模型本身,是整套云服务,所以云厂商是比较偏传统的服务模式,进到了一个新的战场。”
就这一观点,刚刚发布亮眼业绩的AI巨头英伟达,给出了更为详细的可参考数据。
当地时间5月22日,英伟达公布了截至4月28日的2025财年第一季度的财报。在随后的财报电话会议上,英伟达执行副总裁兼首席财务官Colette Kress透露,在英伟达CUDA上训练和推理AI可以推动云租赁收入的增长,每1美元的英伟达AI基础设施支出让云服务提供商有机会在四年里获得5美元的GPU即时托管收入。
英伟达总部 图片来源:每经记者 郑雨航 摄
除了为云服务引流外,还需要注意的是,大模型商用不只API模型调用一个商业路径,还有付费订阅用户、打赏等多个模式,且API模型调用的程度也并不算高。李开复就曾在近日的发布会上提出,今天的API模型调用还是一个非常低的比例。“我觉得整个行业每年推理成本降低到十分之一是可以期待的,而且必然也应该发生的。如果一年降低到十分之一让更多的人可以用上,这是一个非常利好的消息。”李开复称。
王小川也提出,大模型企业对模型降价本身有推理成本的降低预期。“我相信大厂也预期未来模型的成本会降低特别多,也许今天亏钱,再过一年不亏钱,这种情况大厂商也不是考虑短期亏损的问题,而是考虑未来有没有机会,模型降到足够的便宜,不只是揽客。”在业内看来,目前很大一部分仍是大厂内部业务在调用做AI应用和业务探索,标准化的模型API并未迎来确定性的增长。期待降价能引来更多用户,从而进一步激活市场。
大模型的使用成本拉低,应用端“起飞”?
将目光再延长至应用端,价格下降无疑是个利好。
从当前情况来看,国内端侧模型在应用方面已经有了一定优势。根据北京大学光华管理学院应用经济学系教授翁翕在近期活动中的说法,目前国内很多领域都在应用人工智能进行数智化决策,并取得了一定成效。在他看来,中国发展人工智能的主要优势,在于其在特定垂直行业和领域中应用人工智能的强大能力,例如在金融和营销等方面。并且,中国社会对人工智能的开发和应用更具包容性,这也有助于人工智能在公众中得到更广泛应用。
随着大模型价格战打响,属于大模型的“iOS式成功”是否即将到来?对此,行行AI董事长李明顺提出,价格战可能会刺激应用公司更快地介入应用中去。“以前对于做一个应用,很多商家是不接受的,因为算力成本太高,很多应用都推行不下去,现在价格下来,对于应用的落地其实是有好处的。”李明顺称。
沈阳则认为,对应用侧而言,目前的价格战有利于To B用户能更加低成本地获取AI服务。对于C端而言,随着大厂介入,将会使得To C应用更难获客。“头部腾讯、阿里、百度、抖音,他们如果全量推AI,其实瞬间互联网就会普及AI应用。对于中小厂来说,要获客就非常难了。”沈阳认为,现在中小厂商更多扮演的是试验商业模式的角色,一旦成熟之后,大厂会迅速跟进。
而在王小川看来,虽然价格战可能会催生一些小的应用,但这并不是百川智能的主要方向。“我们现在并不要跟这些更小的创业公司做竞争,各有各的生态位,因为他们也不是做超级应用,他们可能想做某个垂直行业的小应用。”他认为,有开源甚至有低廉成本闭源大模型的出现,将使得每个厂商更加明确自身定位:究竟是专注于应用开发,还是自主构建模型,或是模型与应用一体化。
“到现在这个阶段,会有一些没想清楚的公司退出去了;剩下的有人做模型,有人做应用,市场会变得更加健康。尤其是大厂这么做贡献,To B也好,做应用也好,会繁荣得更快。”王小川称。
此外,程荫提出,大模型使用成本持续拉低,短期会推动大模型的尝鲜及试用,但真正到应用落地,还要看大模型的实际业务价值。对此,IDC方面建议技术供应商和行业用户应先评估大模型的应用场景,根据其价值、复杂性等综合评估用例,确定优先级;可考虑从价值高、实施复杂性低的场景入手。