豆包推“按需降价”,新一轮大模型“价格战”开打!

作者 叶丹 2025-06-12 17:19

正值一年一度的618,各种“降价促销”和“反内卷”的声音不绝于耳,在不少人看来,掀起“价格战”是“内卷”的一种体现,但对于正处在快速发展的AI大模型领域,属于例外。

在日前由字节跳动旗下火山引擎举办的Force原动力大会上,不仅发布了豆包大模型1.6、视频生成模型Seedance 1.0 pro等新模型,并升级了Agent开发平台等AI云原生服务。据火山引擎总裁谭待介绍,豆包1.6系列模型支持多模态理解和图形界面操作,能够理解和处理真实世界问题。此前,豆包1.5的多模态能力在60个公开评测基准中取得38项最佳成绩,已广泛应用在电商识图、自动驾驶数据标注、门店巡检等场景。但是谭待坦言,目前行业虽然对Agent的应用一直看好,但是由于Agent每次执行任务都会消耗大量tokens,模型使用成本也要降下来,才能推动Agent的规模化应用。

“对于Agent而言,其实Token消耗量是很大的,以前AI大模型最早的应用就是聊天,可能一个人跟模型聊一个小时就是20多万的Token,但是如果你让Agent做一个任务,因为要处理特别复杂的事情,这一个任务可能就是20万Token,所以怎么把Token降低也是很重要的,我们这次也很创新做了‘区间定价’,能集中地把企业用得最多的那个区间的成本降低到63%,相当于只需要以前1/3,这是很关键的点。”火山引擎总裁谭待在接受采访时就对这次豆包1.6围绕Agent规模化展开的“价格战”进行了解释。

降价幅度上看,“降到1/3”貌似又是豆包大模型掀起的新一轮“价格战”,但是实际上“按‘输入长度’区间定价”才是这次豆包大模型应对市场需求的“王炸”。

如今,AI大模型的应用已经从简单的对话向AI Agent(人工智能代理)来直接完成任务转变,但是在AI Agent规模化落地面临多重挑战。根据行业观察,企业级Agent的实际应用成本压力尤为突出——单个Agent每日token消耗成本可达20美元,而IDC数据显示,2024年中国AI Agent市场规模仅50亿元,远低于预期,反映出企业对高成本的观望心态。这一现象的核心矛盾在于“模型价格与企业实际需求的错配”。

据南方+记者了解到,以往的模型定价机制大多是按tokens收费,输入输出的tokens数量直接决定成本。这种计费模式下,上下文长度是成本的核心变量,而非模型是否开启深度思考或多模态功能。这样的收费模式平台计算收益相对比较简单,但是对于大模型的使用方而言,成本递增效应会随着上下文长度增加,模型处理每个token的计算复杂度呈指数级上升。例如,有些模型在处理超过128K tokens时收费翻倍,因其注意力机制需与前文所有tokens进行关联计算,这意味着,输入越长单token成本越高。

相关数据显示,当下企业需求的分布规律是超过80%的企业调用请求集中在32K tokens以内。而这次豆包大模型1.6的“区间定价模式”就是有针对性的围绕用户最大量使用需求的部分打起了“价格战”。火山引擎方面就表示,用户在调用豆包大模型1.6时无论是否开启深度思考或多模态功能,token价格完全一致。在业内人士看来,这一设计打破行业惯例,让企业无需为非必要功能支付额外成本。

据介绍,这背后是豆包1.6通过分桶调度将80%的请求导向0-32K区间,利用短文本处理的高并行性提升效率,降低单位成本。用户也无需额外付费即可调用图文、音视频等多模态能力。南方+记者推算后发现,在企业主力调用场景下的0-32K区间,豆包1.6的成本为输入0.8元/百万tokens,输出8元/百万tokens。以输入输出比3:1计算,综合成本仅为2.6元/次,较豆包1.5 thinking和DeepSeek R1(综合成本7元/次)下降了62.9%。

值得留意的是,据IDC报告显示,豆包大模型在中国公有云大模型市场份额排名第一,占比高达46.4%,此次豆包1.6的“按需降价”,已经不再是简单的“价格战”行为,而是切实推动Agent规模化应用的一次担当。“我们宗旨是每当我们技术、软件和硬件在进步到一定程度之后,我们就尽最大可能性把这个技术的红利释放出来,因为最重要的是把这个红利释放出来之后能够让业界所有的开发者和企业都受到实惠,这样他们AI的应用也会发展更快。”谭待指出,去年豆包1.0就在模型结构和工程上做了大量优化后把价格降低99%。“然后业界很多公司都跟随了我们的政策,所以那个时候中国的大模型就起来了。这次我们考虑了综合方方面面,也希望跟去年一样,再一次促进 AI Agent的普及。”

南方+记者  叶丹

编辑 程鹏

订阅后可查看全文(剩余80%)

手机扫码打开本网页
扫码下载南方+客户端