刚刚,火山引擎公布了一个数字:
豆包大模型日均Token使用量已突破120万亿。
放眼全球,120万亿/日都是一个是非常极端的Token量。
在Token即生产力的今天,这个数字到底意味着什么?
先来对比几组公开数据:
豆包(字节):120万亿Token/日(2026年3月);
OpenAI:API平台每分钟60亿Token,折算约8.64万亿/日(仅API,不含ChatGPT订阅全量);
Google:Gemini处理Token达1300万亿/月,折算下来约43万亿/日(2025年10月);
微软:2025财年Q3单季度超100万亿Token,单月最高50万亿,粗算约合1.7万亿/日。
尽管各家口径不同,但量级清晰可见:
全球能把Token日均吞吐做到百万亿级别的,屈指可数。
换算成更直观的工程指标:120万亿Token/日,相当于每秒并发处理13.9亿Token。
这已经不是实验室的压力测试,而是真实生产环境的持续负载。
这意味着字节正在经历超大规模AI平台的运营验证。
过去外界谈大模型,更多比较的是参数、榜单、体验。
但是当Token消耗量达到120万亿/日这种量级时,大家关注的重心就变成了平台的基础设施能力,如何把这么多Token持续、稳定、低成本地跑出来?
这里面考验的是推理吞吐、时延控制、任务调度、成本优化、故障隔离、高峰期的稳定性等各种能力。
某种程度上,字节已经把AI推到了“Token工厂”的量级。
谁能持续承接海量Token,谁就更有机会在下一轮AI竞争里掌握供给能力、结算能力和平台地位。
还有一组数据,也很有冲击力。
豆包大模型日均Token使用量,最近三个月翻了1倍,两年时间里更是暴增1000倍。
这种爆炸式的增长动力从何而来?
火山引擎总裁谭待表示,近期豆包大模型使用量高速增长,核心驱动因素是AI视频创作的爆发与AI智能体的加速普及。
其中,视频生成是最容易理解的一类重负载。
Seedance 2.0在2月发布后迅速走红,字节也把它作为近期重点能力推向市场。
公开资料显示,Seedance 2.0生成15秒视频大约需要30.888万Token,而生成10秒 1080p视频需消耗约为35万Token。
这和普通文本问答完全不是一个量级:后者一次可能只消耗几百到几千Token,而前者一次任务就是几十万Token。
目前,一部AI漫剧作品的Token消耗可达上亿。
只要视频生成需求开始大规模起量,它就足以迅速推高整个平台的Token总量。
智能体带来的变化更隐蔽,但同样重要。
普通聊天是一轮输入、一轮输出,但智能体要经过任务拆解、工具调用、上下文读取、结果校验、失败重试等多个步骤。
一个Agent任务背后,往往对应的是一串模型调用,而不是一次问答。
所以,智能体普及带来的不是用户数简单增加,而是单次任务Token消耗强度的大幅上升。
尽管字节未披露豆包大模型的Token结构拆分,但可以推测的是,其Token结构正在变化。
过去,豆包大模型既有豆包 App、抖音、剪映、今日头条等字节内部产品场景,也包括企业、开发者等外部商业API调用。
但现在,新增量越来越多地来自更重的场景,高消耗、高工作流的企业级场景,正在快速上升。
这也符合行业内正在形成的一个共识:企业级、重任务的场景将更快地推动Token的增长。
OpenAI在2025年底发布的企业报告提到,已有9000多家组织累计处理超过100亿 Token,其中接近200家超过1万亿Token;
更重要的是,单个组织的推理Token消耗在过去12个月里增长了大约320倍。
这不是普通的聊天对话,而是企业把模型嵌入代码、分析、工作流和复杂业务流程后的结果。
今年3月黄仁勋更是直接指出,Agentic AI消耗的Token,可能是一次普通生成式提示的100万倍。
这也意味着,企业侧的工作流、视频生成、Agent执行等,会把AI变成真正意义上的Token机器。
还有一个变化会进一步放大这个趋势。
Gartner预测,到2030年,运行一个1万亿参数模型的推理成本,相比2025年会下降90%以上;同时,2030年的大模型将比2022年同等级模型实现最高100倍的成本效率提升。
这预示着未来几年,单个Token更便宜,但总Token会更多。
对企业来说,原本今天因为太贵而不值得跑的任务,到了几年后可能就会变成日常操作。
如果企业侧Token真的迎来指数级爆发,那么能承接超大规模负载的AI基础平台将成为抢手资源。
而一个长期承接海量Token的平台,通常也更有动力去优化单位成本、推理效率和资源调度。
对企业客户而言,这也意味着未来可能获得更便宜、更稳、更适合大规模部署的模型服务。
字节提前验证的,正是这种平台能力。
如果只看2026年当下,豆包大模型120万亿Token/日或许是一个极端数字。
但如果把时间轴拉长到未来3-5年,这个数字的意义会发生变化。
IDC预测,2030年全球Agent达22.16亿个,年Token消耗152,667PetaTokens(15亿亿Token,粗算约为4110万亿Token/日),较2025年增长3亿倍。
今天的120万亿Token/日,更像是预演未来。
而企业级用户更应该看清这个信号弹:当AI从辅助工具变成生产基础设施,企业选型逻辑必须改变。
面对未来的AI战略,企业应该尽早考虑四个问题:
稳定性能否保障?
火山引擎今天证明的是大规模承载能力,但这种能力能否进一步转化为金融级的确定性,仍是另一个问题。
技术迁移成本高吗?
Agent、视频生成、多模态理解逻辑,一旦嵌入业务流程,就是数字资产。但资产流动性取决于平台开放性。如果深度绑定字节生态,企业需要考虑未来迁移成本多高。
预算会不会失控?
Seedance生成一条广告片,迭代50次,消耗数千万Token。Agent处理复杂工作流,单次推理十万起步。
企业更多需要考虑Token消耗熔断机制、预留实例折扣、混合云弹性等。
ROI可衡量吗?
目前还没有每万亿Token节省多少人力的行业Benchmark。企业必须自建标尺,比如同样任务,不同厂商的Token效率对比;或者推动从按Token计费转向按效果计费。
对企业侧用户而言,选择AI基础设施,就是押注自己的AI未来。
今天豆包120万亿Token拿到了入场券,但这个数字既可能成为字节未来AI平台的护城河,也可能只是高额的AI投入成本。
竞赛才刚刚开始。
企业在押注之前,需看清Token工厂的真正成色。
