文|科技新知 樟稻

编辑|伊页

就在英伟达再次拿出爆表业绩,市值马上超越苹果之时,大洋彼岸的另一端,国内的科技大厂却不谈AGI的梦想,卷起了大模型的价格。

这场战役开始得很早。5月11日,智谱AI大模型宣布个人GLM-3Turbo模型产品的调用价格,从0.005元/千tokens降低至0.001元/千tokens,直降80%。5月15日,字节宣布豆包通用模型pro-32k版、pro-128k版在企业市场的推理输入价格仅为0.0008元/千tokens、0.005元/千tokens,较行业降幅达99.3%以及95.8%。

随后,这场价格战开启了加速模式。阿里云通义千问,百度文心Speed和文心Lite,腾讯混元Lite, 科大讯飞纷纷宣布降价或者免费。

从第一性原理出发,快速且共识性的降价原因指向了对客户的争抢。

据某业内人士表述,这场价格战的象征意义远大于实际意义。各个大模型厂商现在的客户需求还不够强,通过降价换市场的背后其实是有价无市。“万一客户需求真起来了,许多国产大模型是无法提供足够推理能力的。”

这个推论的逻辑非常简单。从硬件配置来看,目前国产大模型推理算力处于较为尴尬的转换期,大厂的推理卡以A10为主。但众所周知A10已经停产,下一代L20推力卡各家其实储备有限,这中间出现了算力供应的空缺。而国产算力的发展尚需时日,让这一转换阶段充满了不确定性。

与此同时,如果大模型的价格降低后吸引了大量客户,但没有足够的算力去支撑,就会陷入尴尬的境地。举例来说在智能驾驶领域,如果因为算力不足导致模型推理速度慢,就可能无法及时对路况做出准确判断和反应,带来安全隐患。或者在大规模数据分析场景中,若算力跟不上,处理数据的效率就会大打折扣,影响业务的正常开展。

更加底层的逻辑还在于大厂之间,关于算力的黑箱。最直接的例子是字节。字节旗下的豆包大模型,某种程度上来说,是这一次价格战的始作俑者。但字节的B端用户很少,据业内人士估计,字节企业和开发者调用其API远不如调用通义千问、文心一言,甚至不如大模型五虎中的一些。所以从某种程度来说,字节这个价格战还是摆个姿态,更多的是后来者的赶超姿势。

但据行业分析人士表露,字节的背后还有一个不小的问题。即目前字节跳动大量租用了阿里云的算力,它本身的算力从表面来看是不足的。如果价格战真的打起来了,直接影响了阿里的核心利益,导致阿里不再租用算力给字节,那么字节又该如何应对?

其实,类似的关系也非常之多。这也是为什么百度智能云事业群总裁沈抖在财报电话会上曾指出,面对其他厂商的价格战,同样重要的是评估不同模型在不同工作负载下的当前性能比,而不是仅仅关注一些表面价格。

从表面来看,大模型厂商的降价更像是一场热闹的营销,目的在于先把市场炒热,通过扩大用户基础和市场份额来实现对于其他业务的补偿。这种象征意义也有实际的作用。5月8日,在傅盛和朱啸虎的对谈中,前一年还在网上吵得不可开交的两个人,在线下却达成了一致,“后来我们沟通过,我们实际上观点很一致的,在 AI这块我个人对AI应用明年爆发是非常乐观的。”

多重矛盾之下,大模型价格战表象下藏着厂商的焦虑。正如现在政策频出的房地产市场,是否有大量的真实买家,可能才是未来竞争的关键。

Source

Visited 3 times, 1 visit(s) today
Subscribe
Notify of
guest

This site uses Akismet to reduce spam. Learn how your comment data is processed.

0 Comments
Most Voted
Newest Oldest
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x