图/IC


连日来,降价让大模型市场“卷”了起来。


5月6日至23日,9家发布新内容的国内大模型企业就有7家宣布降价。以元/千tokens作为计量单位,模型的API(应用程序编程接口)价格从最低0.001打到0.0008,而后降至0.0005,最后干脆免费。


短短17天,大模型市场上演了一出“价格战”大戏。


据新京报贝壳财经记者统计,此次下场“交手”企业包括深度求索、智谱AI、字节跳动、阿里云、百度、科大讯飞、腾讯云7家企业,共涉及21款模型。其中,既有轻量级大语言模型如文心一言ERNIE Speed,也有千亿级别的大模型通义千问Qwen-Max,可谓高手过招,通通降价。


尽管热闹甚大,但一些能够用到大模型API接口的企业及个人开发者告诉新京报贝壳财经记者,当前免费的一些大模型“并不好用”,真正能够解决问题的往往是一些顶级大模型,所以这一轮降价也许对实际应用的影响并没有想象中大。


5月6日至5月22日,部分宣布降价模型及其所属公司。新京报贝壳财经记者 罗亦丹 整理


价格四连跳:厘时代”一步迈入免费时代


进入5月,大模型企业的价格战短时间内迅速进入白热化。


率先“开卷”的当数5月6日亮相的AI公司深度求索(DeepSeek),其发布的第二代MoE大模型DeepSeek-V2以0.001元/千tokens的输入价格与0.002元/千tokens的输出价格,号称“性能与GTP-4一致,但价格只有GPT-4的百分之一。”


五天后,智谱AI宣布旗下大模型GLM-3-Turbo价格从原本的0.005元/千tokens降至0.001元/千tokens,直抵市场最低价。这也就相当于花1元钱就能写1万条小红书(以350字计算)。作为早在去年9月就获批向公众开放的清华系大模型公司,资历够老的智谱AI出手,无疑具有信号意义。


不出所料,降价潮接踵而至。


5月15日,字节跳动旗下云服务平台火山引擎官宣了“大幅低于行业价格”的大模型——豆包通用模型pro-32k,计价0.0008元/千tokens。火山引擎总裁谭待表示,大模型从以分计价到以厘计价,将助力企业以更低成本加速业务创新。字节跳动此举将大模型的计价直接拖进了“厘时代”。


5月21日,阿里云一口气宣布通义千问系列9款大模型的价格调整,其中降价幅度最大的当数通义千问主力大模型Qwen-Long,直降97%。具体来看,该模型的API输入价格从0.02元/千Tokens降至0.0005元/千Tokens,输出为0.002元/千Tokens。与此同时,通义千问系列最强大模型Qwen-Max价格也下降了67%。


阿里云刷新最低价的当天,百度加入降价大军,官宣文心大模型系列的ERNIE Speed和ERNIE Lite全面免费。


5月22日,科大讯飞和腾讯先后宣布旗下大模型讯飞星火spark Lite和混元-lite免费,这也意味着大模型API价格从“厘时代”一步迈入免费时代。


贝壳财经记者注意到,在价格连续跳水的重压下,即便是此前宣称“质量第一”的大模型公司,最终也加入了降价大军。


早在5月17日,腾讯云副总裁、腾讯云智能负责人吴运声被问及大模型“价格战”时表示,“未来会把核心精力放在产品和技术能力发展上,相信能够提供有竞争力的模型和产品。”而另一位腾讯云内部人士也对贝壳财经记者表示,目前应该解决的是如何让大家把模型用起来,以及如何让模型提供更多能满足客户需求的能力,而非低价竞争。


然而,仅5天后,随着阿里云、百度、科大讯飞纷纷“掀桌”降价,腾讯便坐不住了。5月22日腾讯公布的“全新大模型升级方案”中,一款大模型免费,3款大模型降价。


疯狂降价=双输打法?  要有利润仍需落地


大模型疯狂拼价格,企业之间分歧也走向台前。


阿里云资深副总裁刘伟光在宣布降价时表示,“本轮大幅降价,是希望加速AI应用的爆发。”而火山引擎相关负责人曾在得知通义千问降价时回应贝壳财经记者称,非常欢迎通义千问大模型降价,共同助力企业以更低成本探索AI转型,加速大模型应用场景落地。


此轮降价期间,两家大模型公司也进行了新内容发布,但并未就此加入:李开复旗下的零一万物和王小川旗下的百川智能均对“不降价”给出了理由,并对同行进行了辣评。


王小川称,本次大模型“降价的手段看起来很熟悉,但这一波降价和上一个互联网时代的降价完全不同。上个时代的降价手段试图形成双边网络,让供需关系匹配。但现在的AI降价,得看未来的商业模式是什么。如果To B,那往后就是直接卖云服务的方式,中间的应用层反倒会繁荣起来,有不少新机会。”不过,百川并不会“掺和”到价格战当中,原因在于当前To B并不是百川的主要商业模式,价格战对其影响有限,百川更多的精力还是会放在超级应用上。


李开复则表示,一定程度上整个行业每年降低10倍推理成本是可以期待的,“因为今天的 API 模型调用还是一个非常低的比例,如果一年降低10倍,那众多的人都可以用上。”不过,他也没有忘记强调自家大模型最好,“100万个token花十几块还是花几块钱有很大差别吗?100万的token对于很大、很难的应用,我们是必然之选。”“欢迎不认同的友商来 LMSYS(一个国外大模型盲测竞技场)打擂台,证明我是错的。”


在他看来,如果出现ofo式的疯狂降价是双输打法,“我觉得大模型公司不会这么不理智,因为技术还是最重要的,如果是技术不行,就纯粹靠贴钱赔钱去做生意,我们绝对不会跟这样的一个定价做对标。如果大家宁可赔光通输也不让你赢,那我们就走外国市场。”


事实上,当前仍然处于大模型落地应用的初期,贝壳财经记者了解到,由于大模型的能力远未到达可以应对一切的程度,在落地中依然存在诸多掣肘,包括缺乏训练数据、除文本外其他格式文件的导入不够顺畅等一系列问题。因此,许多模型即便再便宜也没有人用。


“我们自己本地有多卡服务器,对API依赖不大。普通用户一般不用API,网页用用就行。目前API降价到了一定水平,对本地部署的人有一定影响,例如本地部署的70B能力不行,就可能用API测试,便于应用框架和最先进的模型对齐。”个人开发者陶佳告诉贝壳财经记者。


在陶佳看来,最强的模型此次其实几乎并没有怎么降价,“如果哪一天,GLM4、Qwen-max甚至GPT-4o这种级别的模型降到0.001元/千tokens,那么对不涉及数据安全的用户而言,就可以不用本地部署GPU服务器了。”


贝壳财经记者浏览开发者社区发现,对于一些免费的大模型,许多开发者觉得“并没有用”,因为无法达到使用要求。如本地部署就要求智能管理文档、流程自动化等,对模型逻辑、准确度、理解力要求很高。


“现在只是三本学生免费使用,而大家需要的是清华、北大毕业生免费。”陶佳对贝壳财经记者说。


Lepton AI创始人、阿里巴巴原副总裁贾扬清认为,企业在使用AI的时候,并不是成本驱动。不是因为API贵才没人用,而是因为企业首先得搞清楚怎么用来产生业务价值,否则的话,再便宜也是浪费,“也许不是最便宜的赢得商战,而是能落地的赢得利润。”


记者联系邮箱:luoyidan@xjbnews.com


新京报贝壳财经记者 罗亦丹 白金蕾


编辑 王进雨


校对 卢茜