英伟达CEO黄仁勋:算力即收入,没有Token就没有收入
5 小时前 / 阅读约19分钟
来源:C114
英伟达发布2026财年第四财季财报,营收和净利润均同比增长。公司对2027财年及长远增长充满信心,主要驱动力来自智能体AI爆发式演进。英伟达正转型为人工智能基础设施公司,未来增长将由智能体AI和物理AI双轮驱动。

C114讯 2月26日消息 当地时间2月25日美股盘后,英伟达发布了截至2月25日的2026财年第四财季财报,期内实现营收681.27亿美元,同比增长73%,高于市场预期的658亿美元;美国通用会计准则(GAAP)下净利润429.60亿美元,同比增长94%;Non-GAAP下每股摊薄收益为1.62美元,同比增长82%,超出市场预期的1.53美元。

同时,英伟达对下一季度的业绩作出指引,预测2027财年第一财季的销售额将达到780亿美元,上下浮动2%,高于市场预期的728亿美元。英伟达表示,该预测并未包含来自中国的数据中心收入。

在随后的业绩说明会上,英伟达CEO黄仁勋强调,尽管市场担忧云客户资本支出增速放缓,但公司对2027财年及长远增长充满信心。核心驱动力来自智能体AI(Agentic AI)的爆发式演进,企业正从传统软件转向实时生成Token的AI模式,使得“算力即收入”。只要Token生成需求持续指数级增长,数据中心扩建与算力投入就不可或缺。

英伟达的护城河在于其全栈生态系统,涵盖GPU、CPU(Grace/Vera)、网络(Spectrum-X/InfiniBand)及CUDA软件平台。公司正从单一芯片供应商转型为人工智能基础设施公司,通过机架级系统(如Blackwell GB200)和纵向/横向扩展技术,大幅提升数据中心效率。网络业务因NVLink和Spectrum-X的成功而快速增长,已成为全球领先的以太网供应商。

面对定制化芯片(ASIC)竞争,黄仁勋指出通用架构在能效和软件兼容性上更具优势,CUDA生态确保了跨代产品的持续价值。未来增长将由智能体AI和物理AI(Physical AI)双轮驱动,后者将AI引入制造、机器人等实体领域,开启万亿级市场。

财务方面,英伟达预计维持高毛利率,关键在于每瓦性能的代际飞跃。虽然超大规模云厂商占收入半数,但企业、主权AI及边缘计算等非超大规模客户需求增长更快,推动收入多元化。公司计划将巨额现金流用于供应链保障、生态投资及适度回购,以支撑长期战略。黄仁勋重申,到2030年全球数据中心资本支出有望达3-4万亿美元,当前7000亿美元投入远未饱和,AI革命正处于关键拐点。

以下为业绩说明会内容

Q: 感谢接受提问。你之前提到目前已经能看到2027财年的增长,贵公司的购买承诺在某种程度上也反映了这种信心。但是Jensen,我很好奇,今年顶级云客户的云资本支出接近7000亿美元,许多投资者担心明年很难继续保持这一增长水平,而且对于部分客户来说,他们产生现金流的能力正在受到压缩。尽管你对公司的路线图和购买承诺非常有信心,但如果客户的资本支出不再增长,英伟达能否继续找到增长动力?

A: 我对他们现金流的增长充满信心,原因很简单。我们现在已经看到了智能体AI(Agentic AI)的演进,以及智能体在全球各地企业中的实用价值。因此,你会看到市场对计算产生了令人难以置信的需求。在这个人工智能的新世界里,算力就等于收入。没有算力,就没有办法生成Token;没有Token,就没有办法增加收入。现在在云服务提供商的工具平台之上开发智能体系统的企业和独立软件开发商(ISV)数量激增,我确信我们正处于一个关键拐点。我们正在产生具有盈利能力的Token,这些Token对客户来说是高效的,对云服务提供商来说也是有利可图的。

简单的逻辑是,计算的本质已经改变。过去是在计算机上运行传统软件,每年有3000亿或4000亿美元的资本支出;现在已经进入了人工智能时代,为了生成Token,你需要庞大的计算能力,这意味着数据中心的扩建将直接拉动他们的收入增长。

Q: 祝贺本季度取得的优异数据。你谈到了对Anthropic的一些战略投资,以及与OpenAI、英特尔、诺基亚、新思科技等核心伙伴的合作,显然英伟达正处于整个行业的中心。你能谈谈这些投资发挥的作用吗?你如何看待利用资产负债表作为一种工具,来提高英伟达在生态系统中的地位并参与这种增长?

A: 从根本上说,英伟达的核心护城河就是我们的生态系统,这也是所有人看重我们业务的原因。世界上几乎每一家初创公司都在英伟达的平台和生态系统中工作。我们存在于每一个云端,每一个本地数据中心,以及遍布全球的边缘计算和机器人系统中。数以千计的人工智能原生产品都是建立在英伟达的基础之上。我们拥有极好的起点,我们在构建整个人工智能生态系统时,无论是语言AI、物理AI、计算生物学、机器人还是制造业,我们都希望全面参与。这对我们来说是投资整个生态系统的绝佳机会。

今天,我们的生态系统比以往任何时候都要丰富。过去我们主要是一家基于GPU的计算平台公司,但现在我们是一家全面的人工智能计算基础设施公司。我们在各个层面都拥有计算平台,从底层计算、AI模型、网络到DPU,构成了完整的计算堆栈。每个生态系统都有不同的堆栈需求,我们希望确保继续投资于此。因此,我们的投资战略高度聚焦于扩大和深化我们在各大生态系统中的影响力。

Q: 网络设备在整个数据中心配置中所占的比例继续上升。到2026财年,你们的网络收入每个季度都在实现同比增长。正如你们提到的第四季度的强劲增长,显然得益于纵向扩展和横向扩展的网络产品组合。我记得去年上半年,Spectrum-X以太网交换平台的年化收入大概在100亿美元左右,去年下半年这个数字可能上升到了110亿至120亿美元。Jensen,在查看你们的订单时,特别是即将推出的102T Spectrum 6交换平台和Spectrum-XGS,目前的开工率趋势如何?您预计今年会以怎样的水平收官?

A: 我们将自己视为一家人工智能基础设施公司,这包含了CPU和GPU。我们发明了NVLink技术,将单个计算节点纵向扩展(Scale Up)成一个巨大的计算数据架。我们提供的是机架级计算机,而不是单纯的计算节点。随后,我们使用Spectrum-X和InfiniBand对这种NVLink纵向扩展系统进行横向扩展(Scale Out)。此外,我们还使用Spectrum-X Scale Across进行跨数据中心的扩展。

我们公开提供所有网络架构,以便客户可以根据不同规模的需求混合搭配,将网络集成到他们定制的数据中心里。NVLink的发明给我们的网络业务带来了巨大的推动力。每个机架有九个交换机节点,每个节点有两块芯片,未来密度还会更高,每个机架的交换节点数量非常惊人。我们现在已经是世界上最大的网络公司。几年前我们刚刚进入以太网交换领域,我认为我们现在可能已经是全球最大的以太网公司了。

Spectrum-X以太网对我们来说是一个巨大的成功,但我们对客户的需求保持开放态度。有些人看重InfiniBand的低延迟和扩展能力,有些人则喜欢基于以太网的数据中心。我们通过人工智能处理方式扩展了以太网功能。当你建立一个耗资100亿或200亿美元的人工智能工厂时,数据中心网络的有效性和利用率哪怕相差10%到20%,都意味着极其庞大的资金差异。因此,英伟达的网络业务正在快速增长,这归功于我们在构建AI基础设施方面的卓越效率。

Q: 随着定制化芯片(ASIC/拨入式架构)在大环境下的发展,Windows和Groq等项目可能会添加特定于解码的解决方案。随着英伟达日益关注基于特定工作负载的定制芯片,我们应该如何看待你们未来的技术路线图?

A: 每个人都应该尽量减少或取消所谓的“拨入式(Dial-in)”定制架构。原因是,每次你跨越一个定制接口,都会增加不必要的延迟和功耗。我们对定制架构并不过敏,但在绝对没有其他选择的情况下,我们才会尝试使用。如果你看看Grace Blackwell架构和Rubin架构,我们使用巨大的光罩和有限的芯片封装,这大幅减少了架构交叉的数量。

定制架构的“税赋”往往体现在竞争对手的架构效率低下上。人们常说英伟达拥有软件优势,但很难界定软件从哪里开始,架构又从哪里结束。我们的软件之所以强大,是因为底层架构极其出色。毫无疑问,由于我们独特的架构设计,CUDA架构比现有的任何计算架构都更高效,每瓦特能提供更高的性能。

关于Groq和低延迟解码器,我会在即将到来的GTC大会上分享更多想法。简而言之,因为CUDA的存在,我们的基础设施具备极强的通用性。我们将继续确保所有GPU在架构上向下兼容。这意味着今天为Blackwell优化的模型和软件堆栈,同样有利于Hopper和Ampere。这就是为什么A100在推出多年后依然表现出色的原因。架构兼容性使我们能够在软件工程和优化上进行大规模投资,因为我们知道跨越云端、本地和边缘的整个装机基础都将从中受益。我们将利用Groq作为加速器来扩展我们的核心架构,就像我们当年用Mellanox扩展NVIDIA网络架构一样。

Q: 我想深入探讨今年数据中心业务的环比增长预测。本季度数据中心环比增长超过100亿美元,而业绩指引似乎暗示了今年未来的增长节奏。特别是当Rubin架构加大力度填补市场空缺时,您对此有何看法?Blackwell的环比增长已经有了相当大的加速,我们是否应该期待Rubin也会出现类似的爬坡斜率?另外,您认为2027财年游戏业务是否还能实现同比增长,还是会面临更大的显存供应链压力?

A: 让我先从未来的收入节奏谈起。当你放眼全年时,我们绝对会继续大规模交付Blackwell架构,同时也会看到Vera Rubin架构进入市场。Vera Rubin是一个非常优秀的架构,目前已经为不同客户的众多订单进行了规划。虽然现在确定Rubin在下半年的具体爬坡斜率还为时过早,但市场对其兴趣极其浓厚、需求极其旺盛。

我们预计几乎所有数据中心客户都会采购Vera Rubin,目前的问题只是我们进入市场以及客户在数据中心完成测试的速度。关于游戏业务,尽管我们希望能有更多产能,但未来几个季度的显存供应确实会非常紧张。如果到今年年底供应链情况有所改善,那么就有机会实现同比增长,我们会持续跟进并向市场反馈。
Q: 现在人工智能的投资更多开始转向推理工作负载,你能谈一谈目前CUDA在这个阶段的重要性吗?

A: 如果没有CUDA,我们根本无法进行当前规模的推理计算。我们几年前推出的TensorRT LLM软件栈仍然是全球性能最高的推理系统。为了针对NVLink进行优化,我们需要在CUDA之上发明新的并行算法,以分配推理工作负载并利用NVLink 72架构的聚合带宽。NVLink 72使我们的每瓦性能提高了50倍,每美元性能提高了35倍,这是一个令人难以置信的领先优势。

对于我们的客户来说,推理现在就等于收入。智能体(Agent)产生代币(Token)的数量呈指数级增长。当智能体进行代码编写时,它不再仅仅生成几千个代币,因为多个智能体作为团队协同工作,运行时间可能长达几小时。我们需要以更高的速度进行推理。当你以极高的速度进行推理,且每个生成的代币都直接换算成美元时,它就直接转化为了超大规模云计算厂商(CSP)的收入。

因为每个数据中心的电力都是有限的(例如受限于100兆瓦或1吉瓦),所以拥有最佳每瓦性能的架构就等于拥有了最高的创收能力。今天如果不投资于最先进的计算架构,就不可能实现收入增长。选择最佳每瓦性能的架构,直接决定了客户的商业成败。

Q: 关于长期毛利率是否能维持在75%左右的中期水平,我们应该如何看待2027财年之后的供应链可预见性?在那之后,显存消费方面是否有新的创新,能让我们对长期利润率保持信心?

A: 维持我们毛利率最核心的杠杆,实际上是持续为客户提供代际性能飞跃。如果我们可以提供显著超越摩尔定律的每瓦性能,我们就能维持高毛利率。这是最简单也是最重要的概念。

我们之所以能保持如此快的迭代速度,是因为全球对代币(Token)的需求正在呈指数级爆发。云端运行了六年的旧GPU都已经完全耗尽,算力价格正在上涨。现代软件开发所需的计算量正在疯狂增长。因此,我们的策略是每年交付一个完整的全新人工智能基础设施。今年我们推出了六款新芯片,接下来的Rubin时代也将推出众多新芯片。在每一代产品中,我们都致力于在每瓦性能和性价比方面提供断层式的领先。我们进行极端协同设计的能力,使我们能够持续为客户提供巨大的价值,这也是我们维持利润率的根本保证。

Q: 你们的一些客户正在考虑建设太空数据中心。您认为这在目前的经济状况下有多大的可行性?随着时间的推移,情况会如何演变?

A: 目前的经济账并不划算,但随着时间推移情况会逐渐改善。太空中运营数据中心的方式与地球截然不同。太空中有丰富的太阳能,空间无限,而且环境极度寒冷。但是太空中没有空气流动,所以散热的唯一方法是传导散热,你需要制造相当庞大的散热器。液体冷却显然行不通,因为它太重且容易结冰。

太空中确实有许多计算问题需要解决。NVIDIA Hopper架构已经是世界上第一个进入太空的GPU。GPU在太空中的最佳用例之一是超高分辨率成像。使用光学和人工智能技术,GPU可以计算不同角度的重投影,降低图像噪音。在太空中直接处理这些庞大的PB级成像数据,过滤掉无用信息,只把有趣且有价值的数据发回地球,这比把所有原始数据传回地球要高效得多。因此,人工智能在太空领域将会有非常有趣的应用前景。

Q: 我想谈谈关于收入多元化的问题。Colette之前提到,超大规模数据中心客户占到了收入的50%以上,但整体增长是由其余客户群带动的。这是否意味着非超大规模客户增长更快?他们在做与超大规模企业不同的事情吗?非超大规模客户在你们业务中所占的比例会越来越大吗?

A: 是的,我们的前五大客户(通信服务提供商和超大规模云提供商)目前约占总收入的50%。与此同时,我们正在与极其多元化的公司合作,包括AI模型制造商、企业客户、超级计算中心以及主权AI项目。非超大规模市场的确是一个增长非常快的领域,我们希望拥有来自全球各地、各行各业的极端多样化的客户群体。

Jensen补充:这也是我们生态系统的核心优势之一。我们是唯一一个存在于每个云端、每个边缘计算设备中的加速计算平台。我们正在培育电信行业,未来的无线网络和基站都将是人工智能驱动的计算平台(如我们的Arial平台)。几乎每一个机器人、每辆自动驾驶汽车都在使用我们的技术。

CUDA具备极强的灵活性,使我们能够解决语言、计算机视觉、机器人、生物学和物理学等各类问题。客户群的多样性是我们最大的护城河。此外,我们与OpenAI、Anthropic、xAI、Meta以及庞大的开源软件社区(如HuggingFace上的150万个AI模型)保持着紧密的合作伙伴关系。所有这些模型都在NVIDIA CUDA上运行,这让我们的平台极其易用且投资极其安全,从而进一步促进了客户结构的多样化。

Q: 过去一个季度有消息称,NVIDIA有能力推动将Vera CPU作为独立解决方案推向市场。Vera在我们未来的架构演进中扮演着怎样重要的角色?这主要是由推理工作负载的激增还是异构计算驱动的?

A: 我会在GTC大会上分享更多细节。在最高层面上,我们对CPU做出了与世界上其他厂商截然不同的架构决策。Vera是唯一支持LPDDR5的数据中心CPU,旨在专注于极高的数据处理能力。

我们关注的大多数计算问题都是数据驱动的。在人工智能的整个计算管线中,你在进行预训练之前必须进行庞大的数据处理;而在训练之后,当前的人工智能正在学习如何使用各类工具。许多工具完全运行在纯CPU环境中,或带有GPU加速的CPU环境中。Vera被设计成一款极度优秀的“后训练(Post-training)”CPU。当你把算法加速到GPU的极限时,根据阿姆达尔定律(Amdahl's Law),你会需要一个单线程性能极高的CPU。这就是为什么我们将Grace打造成单线程性能卓越的产品,而未来的Vera在这一点上将表现得更加出类拔萃。

Q: 关于资本部署,你们预计今年将产生大约1000亿美元的现金。无论业绩多好,近期股价似乎并没有大幅上涨。你们是否觉得目前是一个很好的价格位置,可以进行大规模的股票回购?为什么不投入大量资金进行回购呢?

A: 我们非常仔细地审视我们的资本回报策略。我们认为目前最重要的事情之一是全力支持我们面前庞大的生态系统和供应链。我们需要投入资金以确保未来的产能供应,并在早期开发阶段为平台上的AI解决方案开发者提供赋能。这是我们战略投资中极其重要的一环。当然,我们仍在进行股票回购并维持股息发放。我们将在年内继续寻找独特的市场机会来执行这些资本配置。

Q: Jensen,您之前概述过,到2030年数据中心资本支出可能达到3万亿至4万亿美元,这意味着未来的增长率将会大幅加快。推动这种体量转变的关键应用程序是什么?是物理AI、智能体AI还是其他技术?您对这个3-4万亿美元的预测规模仍然充满信心吗?

A: 是的,我们完全可以通过基本面来推演这个预测。首先,未来软件的运行方式是人工智能驱动的,核心在于生成代币(Token)。以NVLink 72为例,它使我们生成代币的能效比上一代提高了50倍。代币生成几乎是未来所有计算的核心。

过去全球每年在传统计算上投资约3000亿到4000亿美元,但这仅仅是提前录制和预编译软件的需求。现在人工智能的计算需求比过去高出千倍。因此,目前7000亿美元的资本支出远远不足以满足全球生成代币的庞大需求。每家公司、每个软件都将依赖AI生成代币,这就是我所说的“人工智能工厂(AI Factory)”。

过去我们开发软件是预先写好的,就像刻录DVD一样;而现在,一切都是根据用户的上下文、意图实时生成的。这种Agentic AI(智能体AI)所需的算力规模是传统计算无法比拟的。因为所有的云公司最终都由软件驱动,这种算力直接转化为了他们的真金白银。

在过去的两三个月里,智能体AI已经迎来了一个真正的爆发拐点。无论是Cloud Code、OpenAI Codex还是Cursor,代码生成智能体的需求呈指数级增长。像Anthropic这样的公司,收入在一年内增长了10倍,但依然受限于算力瓶颈。在当前的新世界中,推理就是收入,算力就是收入。这种新的计算范式不可逆转。在智能体AI之后,下一个爆发的拐点将是物理AI(Physical AI),我们将把人工智能带入制造业和机器人领域,这将开启一个更加庞大且激动人心的万亿级市场机会。