在经过一年多的“百模大战”后,AI大模型从5月初几乎毫无预兆地掀起了“降价潮”,阿里、百度、腾讯等纷纷加入战团。大厂“钱多、卡多、算力足”无惧价格战,以惯有的免费模式先聚集用户与开发者。中小大模型创业公司普遍还在勒紧腰带苦苦打造爆款应用,也不得不匆忙接招。
大模型价格战“卷”向何方?在《科创板日报》行业采访与观察中,大厂告别“烧钱出奇迹”思维,将基础模型做强做实,尽快缩小与国外技术差距;创业公司向垂直纵深探索,做“精”做“尖”大模型行业应用,或许才是国内大模型生态可持续发展之道。
▍算法革新与模型优化才是价格战背后真正推手
让人始料不及的是,国内率先掀起大模型价格战的是一家“不务正业”的量化私募巨头——幻方。
这些年国内金融量化交易异军突起,幻方通过先进的量化交易在国内市场中赚得盆满钵满。尝到甜头的幻方全力押注AI驱动下的量化交易,所以花重金大量购入英伟达、AMD的GPU。业内一度传出“幻方储备的英伟达H100芯片比大厂还多”。
5月6日,幻方旗下DeepSeek发布的DeepSeek-V2,其价格为GPT-4-Turbo的近百分之一。这是大模型降价潮的第一块多米诺骨牌。
5月11日,智谱的个人版GLM-3Turbo调用价格下降5倍。5月15日,字节豆包主力模型将其在企业市场的定价将至0.0008元/千tokens。
接着,阿里通义千问、百度文心一言加入战团。阿里云通义千问9款模型一齐降价,GPT-4级别主力模型Qwen-Long价格直降97%。百度智能云则直接官宣文心大模型两大主力模型ERNIE Speed和ERNIE Lite免费。
最新则是科大讯飞、腾讯两家大模型厂商也加入了“价格战”。科大讯飞宣布,讯飞星火API能力免费开放,讯飞星火Pro/Max API低至0.21元/万tokens。而腾讯云主力模型之一混元-lite模型,价格从0.008元/千tokens调整为全面免费。
不过,《科创板日报》记者从采访中了解到,幻方与大厂的降价并不全是“钱多任性”,更多的原因是,ChatGPT大模型推出近两年后,大模型算法革新与模型优化。
国内某头部大模型创业公司负责人告诉《科创板日报》记者,从目前看,算法框架革新主要有两条思路:轻量化和线性化。他特别提到了其公司刚发布的千亿参数MoE架构模型。MoE架构中基于多个专家并行机制,推理时只激活部分专家,以稀疏性压缩了参数数量和推理成本。“这就可以极大地节省算力耗费”。
而率先掀起价格战的幻方DeepSeek-V2,就是其通过架构创新,实现了大模型成本尤其是推理成本下降的结果。据为DeepSeek提供运维技术支持的AMD相关人士表示,DeepSeek-V2采用稀疏MoE架构进行了共享专家等改进,节约了42.5%的训练成本。
无问芯穹发起人汪玉曾用公开数据做了一次针对算力成本数量级的测算,假设GPT-4 Turbo每天要为10亿活跃用户提供服务,每年的算力成本可能超过两千亿,这还不包括模型训练的投入。
因此,算法革新与模型优化下的推理成本下降,才是将来打开AI应用的重要“推手”。
▍抢用户,更要抢“开发者”
阿里云智能集团资深副总裁、公共云事业部总裁刘伟光在宣布降价时明确表示,“(降价)它的目的一定是普惠于市场”,“要真正加速市场的提前爆发”。
对于本轮大模型降价潮,猎豹移动董事长兼CEO傅盛评论认为,大模型降价的目标不是为了用户直接使用,而是为了吸引开发者。
短期来看,大模型的性能遇到了瓶颈。“谁也甩不开谁,谁也拿不出杀手锏,降低推理成本、降低售价成了现在每一家的高优先级任务。”
“现在各个大模型App基本都是免费的,本质上是各个大模型App用户量涨不动了,包括OpenAl。最近有些大模型App推广费用奇高,ROI算不过来……必须让更多的开发者参与进来,开发出应用让用户更方便地使用”。
他还认为,大模型降价的核心原因不仅是大模型厂商自己内卷,而是苹果、微软、高通、联想等设备厂商纷纷重兵投入本地化AI算力和本地大模型的结果,AI PC、AI Phone将成为主流,通用大模型的使用场景会大幅度受限。
对于这场价格战影响,傅盛表示,这波大模型降价,对企业用户影响有限,开源小参数大模型加应用套件可以满足绝大多数企业需求,虽然套件定制的费用谁也省不掉,但私有化大模型的成本已经很低。
工信部信息通信经济专家委员会委员盘和林认为,降价是为了扩大客户群,未来大模型领域竞争后,最后活下来的企业不会太多,所以,占据规模是从长期考虑,想要在大模型领域获得头部地位。
“中文大模型市场空间当前有限,不可能所有的大模型都获得成功。尤其是大模型作为生态产品,要么赢者通吃,要么落寞退出。当前价格战的背后,是国内大模型应用大同小异的现状,并没有一家企业做出显著的差异性,各家差距不大。只能卷价格。“
对于此次大模型行业的“降价潮”,科尔尼咨询全球合伙人宋旭军认为,主要受供求关系和成本两个方面因素的影响。首先是供求关系变化,竞争的加剧推动各厂商主动降价以争取用户。 第二是成本的下降,随着算力成本的下降和模型算法的优化,模型厂商自身的成本也在下降。典型的例子是英伟达GPU和谷歌TPU、华为昇腾性能都在快速提升。
▍拼技术、拼落地、拼解决行业痛点
阿里巴巴原副总裁贾扬清在朋友圈发布观点表示,“站在整个AI业界的角度,降价是个拍脑袋就可以做的简单策略,但是真正的To B商业成功更难。”
贾扬清现在身份是Lepton AI创始人,他引用一位国际一流咨询公司CIO的话:“今天企业在使用AI的时候,并不是成本驱动的。”“不是说API贵,才没有人用,而是企业首先得搞清楚‘到底怎么用起来产生业务价值’,否则再便宜也是浪费。而今天恰恰实施的这一层是缺的。”
他指出,前面几年各大云厂商都被“项目制”,“咨询服务”这种业务形态给搞怕了,但是新兴技术落地的过程中,必要的咨询服务还是需要的。在贾扬清看来,“也许不是最便宜地赢得商战,而是最能落地的赢得利润。”
元始智能COO罗璇则向《科创板日报》记者表示,现在的降价和免费并不解决当前大模型落地的核心问题,更关键在于模型计算效率要提升10-100倍,算力芯片成本尤其是推理要下降到1/10-1/100,以及解决可解释性的问题,这三点限制了大模型的落地。“单纯的降价,现阶段只是烧钱形成垄断,劣币驱逐良币。”
盘和林分析,此轮头部云厂商的轮番降价,无疑将对大模型初创企业造成竞争压力。
“中小模型企业和初创企业进入这个领域的成本更高,除非做出差异性,在规模上中小企业和初创企业没有机会。”盘和林称。
多名业内人士告《诉科创板日报》记者,AI大模型不能只是拼价格,更要拼技术、拼落地、拼解决行业痛点。大厂告别“烧钱出奇迹”思维,将基础模型做强做实,尽快缩小与国外技术差距;创业公司向垂直纵深探索,做“精”做“尖”大模型行业应用。仅依靠降价带来的利好有限,大模型需要在落地实施、模型计算效率等方面进一步提升。
值得一提的是,在被问及大模型降价对创业公司影响几何时,国内AI圈两个“顶流”李开复与王小川的表态耐人寻味。
百川智能创始人王小川认为,如果(大模型)是面向B端企业客户,那往后就是直接卖云服务的方式,中间的应用层反倒会繁荣起来,有不少新机会。
不过,在王小川也看来,价格免费是优势,但不一定是竞争力。“百川并不会掺和到价格战当中,因为To B不是公司的主要商业模式,价格战的影响也有限。公司会将更多的精力放在超级应用当中。”
创新工场董事长、零一万物CEO李开复谈及价格战时表示,零一万物目前不打算降低YI系列模型的API价格,并认为目前零一万物带给的性能、性价比都很高了,疯狂降价是双输。零一万物的最新千亿参数模型Yi-Large以总榜第7名的成绩,进入了世界权威的LMSYS 盲测竞技场排行榜。
“我觉得我们的价钱是合适、值得的。如果说以后可能中国就是这么‘卷’,大家都宁可赔光、双输也不让你赢,我们就走外国市场。”李开复说。