看起来,阿里要跟字节杠上了。
就在5月15日,字节刚官宣豆包大模型,宣布自己击穿了大模型行业最底价(0.0008元/千tokens,比行业价格低了99.3%)。
5月21日,还不到一周,阿里云紧接着就抛出重磅炸弹,宣布通义千问主力模型Qwen-Long直降97%(0.0005元/千tokens)。降价后,阿里的通义模型约为GPT-4价格的1/400,直接再度击穿全球底价。
另外,一位国内明星AI公司的内部人员也告诉小饭桌:“还没合作的客户都在询价,看看豆包价格发布后我们会不会降价。已经合作的客户也来询问,价格是否有调整。”
实际上,在阿里和字节就大模型价格掐架之前,大模型降价的风已经吹了很久。
最早掀起国内模型降价潮的企业是一家量化基金公司DeepSeek。5月6日DeepSeek推出了新版大模型,将价格降到了千token/0.001 元,已经是GPT-4 Turbo发售价的七十分之一。
在DeepSeek之后,智谱、面壁等AI明星企业也相继宣布了降价。
甚至连Open AI,最近也在价格上做文章。OpenAI最新发布的GPT-4o价格已经来到输入约为0.035 元/千Tokens,输出约为0.1元/千Tokens。
从国内初创企业,到海外超级独角兽,甚至阿里字节这样的互联网巨头,为什么都选在相同的时间节点开始降价抢占市场?现象级的技术迭代是否即将告一段落?
因为参考以往的商业历史,价格战通常不会带来任何价值……

价格战,突然就打响了

这波国产大模型集体降价,显得非常突然,甚至有些毫无预兆。毕竟就在年初,大家竞争的焦点还是算力和参数规模。但如果参照海外就会发现,这波国内降价潮的“罪魁祸首”其实是OpenAI。
从Open AI最新公布的GPT-4o就能看出,其在技术层面上的迭代,已经不再是现象级的变革,而更强调模型的“性价比”。
自去年年初以来,Open AI在不断释放新模型的同时,进行了4次降价。 
去年3月GPT-3.5-turbo,每千token的成本为0.002美元,价格比此前的GPT-3.5模型下降了90%。
从GPT-4和GPT-4o,其产品从GPT-4升级到GPT-4o,输入价格从0.03美元/1k tokens下降到0.005美元/1k tokens,降幅为83%;输出价格从0.06美元/1k tokens下降到0.015美元/1k tokens,降幅为75%。
整体降幅每年在50-75%的幅度,力度相当大。作为行业标杆的Open AI都迈出了这一步,其他人降价也就成了必选项。
就在Open AI发布GPT-4o的第二天,谷歌也也在I/O开发者大会上推出了一系列基于Gemini的“AI超级全家桶”,包括升级200万Tokens上下文的Gemini 1.5 Pro、新模型Gemini 1.5 flash、类Sora的新视频大模型Veo,以及包括AI搜索、AI + Gmail在内的多个AI应用。并声称我们更“cheaper”,以应对Open AI。
既然海外巨头都开始“卷价格”,更擅长价格战的国内大模型玩家们,自然选择见招拆招。
国内价格战最早要从一个幕后玩家DeepSeek讲起。
事实上早在2024年1月,DeepSeek已经频繁在大模型开源社区被作为对标对象讨论。5月初,DeepSeek发布了DeepSeek v2版本——参数更多、能力更强。更致命的是,能力超群,价格超低,主打一个“便宜大碗”。
作为国内“AI 五虎”之一的智谱AI第一个跟进降价。
5月11日,智谱AI调整了旗下入门级大模型GLM-3-Turbo(上下文长度 128k)的价格,从0.005元/千tokens降低到0.001元/千tokens。
此外,开放平台新注册用户获赠从500万tokens提升至2500万tokens(包含2000万GLM3-Turbo和500万GLM4)。而GLM-3 Turbo Batch比处理AP还进一步便宜50% —— 0.0005/千 tokens,即1元200万tokens。
大模型明星创企加入降价热潮,似乎成为了一个分水岭,之后加入价格战的玩家,都已经是巨头级别。
5月15日,火山引擎一口气发布9款大模型,同时升级了火山方舟、应用服务、机器学习平台、云底座,并公布模型调用价格——豆包pro 32k模型推理输入定价是0.0008元/千tokens,比行业价格降低了99.3%;豆包pro 128k模型正式定价是0.005元/千tokens,较行业价格降低了95.8%。
自此,字节率先把“价格屠夫”的标签打在了自己身上。
不过字节所谓的行业底价并没有坚持多久。
5月21日,阿里云抛出重磅炸弹:通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降了97%。降价后,阿里的通义模型约为GPT-4价格的1/400,直接再度击穿全球底价。
很多人会有这样的疑问,价格一下打到“骨折”,还能赚钱吗?
对于最早挑起战争的DeepSeek来说,还真的有利润。
而这实力利润来源于哪里?其实源自这家量化基金在较早时期下对了注,成为了国内为数不多的拥有超过1万枚GPU的企业。从英伟达飙升的股价也能看出来,掌握足量的GPU等于掌握了大模型降价主导权。
而对于豆包和通义千问这样“含着金钥匙”出生的“富二代”来说,如果能用价格战打败对手,那么降价就不是问题。
同时,海量的数据也是豆包和通义千问能够“出生即贵族”的原因之一,大厂过去的数据储备,足以给其大模型的迭代升级提供充足语料与数据。即便是针对to B端的推理能力,也有大厂人才规模的加持。
值得注意的是,5月20日字节跳动官方招聘公众号发布了“Top Seed”计划,针对豆包大模型相关岗位进行招聘。重点在于,其招聘门槛是2024年9月-2025年8 月毕业的博士同学,且研究方向在大模型、自然语言处理、计算机视觉等相关领域。
如果拼技术实力和创新,大厂足以用人数比例碾压绝大多数小企业。
也因此能看出来,底气最足的玩家,也是这场价格战声调最高的。

价格战之后,是淘汰赛

小饭桌了解到,中外大模型不约而同地开启价格战,并非完全自愿,而更像一次被市场倒逼的“自我证明”之战。
毕竟即便是号称代表未来的人工智能,也要遵循一条最朴素的商业原理——价值决定价格。
在一级市场,如果想持续要到更高的估值,就必须持续证明自身价值。价值的证明方式可以是当下极高的市盈率,也可以是未来极高的市场想象空间。
而AI模型创企显然更偏向于后者。
比如OpenAI从名不见经传的小公司,膨胀到估值近900亿美金的超级独角兽,靠的显然不是盈利,而是ChatGPT、GPT4.0和Sora不断累积的用户热度,以及带来的无限想象力。国内的AI模型独角兽们,也大抵如此。
但要一直发布轰动性产品,显然不切实际,只靠未来的想象力,也无法一直打动投资人。因此,从当前来看,突破价格成了一个更加方便的选项。
火山引擎总裁谭待就提到:“现在大模型还是太贵了,模型的应用成本不该是这样……(通过)把成本做得更低,这样大家就能更好地做各种创新尝试,整个市场就起来了。”
但现实似乎并不像谭待说得那样美好。
多位AI创业者告诉小饭桌,一旦大模型竞争被带向“价格战”的绞杀,对每一位入局者都是一个危险的信号。
沃顿商学院营销学教授张忠曾在一篇论文中写到:“在一个成长市场,各种良莠不齐的企业相互竞争,所以必须采取措施进行行业整合。唯一的途径是发动价格战,以降低价格,将效率不高的公司挤出市场。”
换句话来说,当一个行业进入全面降价阶段,也就意味着大规模淘汰赛的开始。
因为在对价格更加敏感的国内市场,价格的变动将很大程度影响客户留存,某些时候,价格因素甚至要比产品本身更加关键。
一旦大厂所引领的降价潮开始,更多AI大模型创业公司,其实没有别的选项,只能被迫加入降价大军,比拼资金和显卡储备等硬性指标,而非创业公司所擅长的模式创新,其风险性势必陡然上升。
上述国内明星AI公司的内部人员就提到,“客户已经多次问到价格问题,大家似乎都在期待着更低的价格……”
另一方面,即便是AI应用端创业者,对大模型的价格战也带有一些警惕心理。一位AI应用端创业者Alan就提到:“虽然模型侧卷价格,应用侧确实能受益,但一想到这次降价潮是由两家国内的超级应用公司带头,总感觉有些不对劲……”。
Alan的担忧并非杞人忧天。
在最近的采访中,谭待谈及一些使用量增长特别快的AI产品时,特别提到:“我们印象最深的就是豆包APP增长很快,猫箱(角色扮演类应用)增长也很快。”
作为一家超级应用工厂,字节显然很难成为大多数应用创业者的“朋友”。
源 | 小饭桌(ID:xfzmedia
作者 | 黄泽正 贾紫璇;编辑 | 荔枝
内容仅代表作者独立观点,不代表早读课立场
继续阅读
阅读原文