API商业模式能不能成立,最终并不只是看价格。
宛辰编辑靖宇
来源|极客公园(ID:geekpark
头图来源|视觉中国
5月21日上午,阿里云在其例行峰会上,意外地释放了大降价的消息:通义千问GPT-4级主力模型推理输入价格降至0.5元/百万tokens,直降97%。
阿里云降价公告 来源:阿里云
这个大幅度降价的消息瞬间引发了与业界的普遍关注和讨论,但短短数小时连锁反应出现了,百度智能云官宣文心大模型主力模型ERNIE Speed(上下文长度8K、128K)、ERNIE Lite(上下文长度8K、128K)免费。虽然这两个模型和阿里宣布降价的模型并不完全对应,但是这个动作让很多人开始高呼中国大模型企业的API商业模式,难道就这样在3小时内就消失了吗?
文心大模型两大主力模型全面免费
实际上在更早之前,字节跳动宣布,豆包通用模型推理输入价格为0.8元/百万tokens。
虽然这些价格背后在并发量,模型能力上有很多不同的细节区别,甚至根据创业者的实际计算,真正落到业务里用起来,各家的成本下降都没有宣传上那么夸张。
但至少纸面上看,每百万token推理输入量,字节、阿里、百度先后在一周内官宣了0.8元,0.5元和免费的报价。有业界人士甚至开玩笑说,眼瞅着下一家跟进的厂商可能就得发钱补贴让客户用API了,在这么短的时间内产生这样剧烈的变化,到底是因为什么?这是一次市场宣传上的内卷?还是大模型API调用的商业模式,就真的这么消解了吗?
价格战背后,大模型API调用的商业模式
其实最早ChatGPT发布时,大家对大模型直接作为服务被调用的商业模式有很大期待。毕竟,与上一波AI烟囱式的项目交付方式相比,大模型带来了更通用的AI能力,作为标准化服务被调用,道理上也说得通。
就拿OpenAI来说,有两大商业化手段,一是像ChatGPT Plus20美元/月这样的会员订阅模式,另一个是开发者API调用服务。在这两大标准化服务的拉动下,2023年12月31日,The information爆出OpenAI的年度经常性收入(Annual Recurring Revenue,ARR)已经达到了16亿美元。
但即便强如OpenAI的模型能力,这个体量的营收相比其百亿美金级别的研发成本而言,目前看也还是杯水车薪。
事实上,只提供模型的API,距离AI应用在场景中落地还有很大距离,大部分AI应用还需要在一个通用的模型API之上,在场景里喂数据、做微调等来优化模型引擎。看到这一瓶颈后,国内大模型厂商在过去一年也做了一系列探索来降低AI应用的门槛,以期扩大大模型的调用量。
以百度智能云为例,去年相继推出模型开发工具Model Builder和AI应用开发工具AppBuilder、更具效价比的不同模型等,但模型的调用增长似乎依然有限。今年4月,百度智能云推出生态打法,和有渠道、场景的供应商一起合作服务客户,旨在进一步拉升文心大模型标准化的API调用量。这些迹象上看,大厂们显然并没有真的准备放弃API调用的商业模式,但这个商业模式还没有真正收到成规模的钱,倒是真的问题。
上周,百度最新公布的数据显示,文心大模型日处理文本2500亿token,另一大厂字节跳动日均处理1200亿token文本,但其中很大一部分是大厂内部业务在调用做AI应用和业务探索。
可以看出,尽管模型厂商做了很多尝试,但标准化的模型API并没有迎来确定性的增长。
这是本周大厂模型推理价格降低的大前提和背景。理解了模型API调用的需求现状,也就不难理解这一波降价动作——降价并没有真的损失多少收入,不如激活下市场,赚个吆喝,促进很多企业从“免费试用”开始下水,早点启动对AI进入业务流的尝试。
其实,这一波降价的连锁反应,真正的源头并不是阿里云,也不是字节跳动,比大厂降价更早的,是一家创业公司。
5月6日,国内创业公司幻方旗下的大模型公司“深度求索”开源了第二代 MoE模型:DeepSeek-V2,主打参数更多、能力更强、成本更低。
由于DeepSeek的技术优势在全球大模型圈子得到了普遍好评,而其在模型能力逼近第一梯队闭源模型的前提下,还把推理成本降到了1块钱/百万 token,也就是说,成本是Llama3 70B的七分之一,GPT-4 Turbo的七十分之一。而且,DeepSeekv2还能做到有利润,这显然是是模型架构、系统、工程的一系列进步带来的成本降低。
这一信息在实际做模型应用的产业界引起了广泛讨论,在海外也引起了不小的波动,半导体和人工智能独立研究机构SemiAnaysis称其性能直逼大模型GPT-4所代表的第一梯队,同时推理价格相当低,是不可小觑的力量。
DeepSeek v2宣布其价格为1元/百万token后,随即引来了大模型价格战,智谱、面壁、字节、阿里、百度,以及今天跟进的科大讯飞、腾讯云相继宣布了模型推理价格降低。
对于各家不同的降价策略,已经有一些质疑声音称一些降价的模型本身吞吐量就低,而高性能模型并没有降价。并且还有很多细节条款会让最终企业用起来没有宣传的那么便宜,从这个角度看,降价更多是模型厂商出于市场和品牌的考量,进行的一波内卷。
归根结底,能形成价格战的连锁反应,也是当前各大模型的能力放在可用的场景中,尚未拉开差距,用户甚至有免费开源的产品可以用。
一位SaaS厂商创始人向极客公园表示,“对我来说用谁的其实无所谓,因为他们最后跑得都差不多,当把时间线拉长来看,最后这些厂商提供的模型API服务,99.9%的概率跟今天的云是差不多的概念。另外,如果一个通用的模型API无法深度适配场景,还是要自己基于开源模型,用场景数据做专门的深度训练,也不会接通用的模型API。”
最终的的客户需求,其实是端到端的诉求,是可以用、可以看到效果的东西,而不是模型调用。
大模型,巨头和创业公司有不同的游戏
当然,模型推理价格降低本身也是技术发展带来的必然结果,有一系列工程、架构、系统手段可以持续优化。今天凌晨微软Build开发者大会上,纳德拉还举例解释了这一趋势。他说,过去一年GPT-4性能提升了6倍,但成本降低到了之前的1/12,对应性能/成本提升了70倍。
“难的是探索模型能力上限,至于模型推理价格一定有办法降低”,Minimax创始人闫俊杰上周坐客极客公园直播节目中表述了这一技术趋势,他表示,模型推理价格降低到可用,在学术界已经发生过3次了,这不难。
模型技术的攀升,才是API调用商业模式能继续增长的前提。其实细看今天宣布降价的模型产品也是一样,真正大规模、高性能、支持高并发的模型推理还是要收费,降价幅度是有限的。
但长期来看,API模式最终考验的还是模型能力,如果技术拉不开差距,价格也一定拉不开差距,最终模型调用的价值会被稀释,虽然依旧是重要的基础设施,但价值大小就“从油变水”了。
换一个角度看,今天一个通用的模型API可能不是迫切的需求。就像 Lepton.ai的创始人贾扬清在朋友圈表达的观点,“站在整个AI业界的角度我想说,降价是个拍脑袋就可以做的简单策略,但是真正的ToB商业成功更难。”今天企业在使用AI的时候,并不是成本驱动的,“今天不是说API 贵才没有人用,而是因为要搞清楚,到底怎么用起来产生业务价值”。
从这个角度看,如何把大模型能力推动到企业的业务里的很大一部分任务,可能又回落到传统SaaS厂商(用AI升级产品之后)手里,需要他们作为智能生产力的“干线物流+前置仓”,输送到各个场景中。
随着模型API直供模式的高度内卷,巨头其实已经在向能交付价值的SaaS 看,微软今天宣称GitHub Copilot订阅者已经有180万付费用户。谷歌近日也正在与CRM营销巨头Hubspot谈高达300亿美金收购可能性,因为前者可能会利用这次收购来加强其在AI领域产品整合。
对于巨头而言,模型技术和实际场景,两个都要抓,才能有规模化的收入。但归根结底,模型能力和别人拉开距离,才是API模式可以产生价值的“华山一条路”的挑战。
而对于大模型创业公司而言,也是个“华山两条路”的局面,即要么做出比大公司更好的模型技术,要么从模型走向产品,直接创造价值。
智能的能力不会是免费的,但是怎么规模化的创造价值,巨头和创业公司,都还在寻找答案。
新闻热线&投稿邮箱:[email protected]
END
值班编辑:郭立琦审校:姜辰雨  制作:袁茂丽
关注“中国企业家”视频号
看更多大佬观点和幕后故事
[ 推荐阅读 ]
继续阅读
阅读原文