9月26日,英伟达黄仁勋在最新访谈中,就AI行业趋势、计算的未来、英伟达的护城河等话题展开讨论,并首次揭秘其千亿美元投资OpenAI背后的原因。
他认为,摩尔定律失效导致晶体管的成本和能耗不再有显著改进,传统计算无法继续提供必要的性能提升。在此背景下,AI需求正经历着双重指数级复合增长。首先,AI的用户使用量呈指数级爆发。其次,AI推理(Inference)的方式发生了质变,从简单的一次性回答升级为复杂的“思考”(thinking)过程,这种推理范式的升级使得AI每次使用所需的计算量呈指数级增长,预计将带来10亿倍的推理需求增长。
AI基础设施正在引发一场工业革命。通用计算(general purpose computing)已经终结,全球数万亿美元的现有计算基础设施(包括搜索、推荐引擎、数据处理等)正从使用CPU迁移至AI加速计算。NVIDIA的AI基础设施将生成tokens来增强人类智能,最终带来的巨大经济效益。当前每年4000亿美元的市场规模,在未来有望增长至少10倍。
NVIDIA的战略重心不是单纯的芯片公司,而是AI基础设施伙伴,通过“极致协同设计”(Extreme Co-Design)构建强大的竞争壁垒。由于单个芯片的性能提升受限,NVIDIA必须在算法、模型、系统、软件、网络、芯片等整个堆栈上进行同时创新和优化。正是这种全栈设计,使NVIDIA能够在短时间内实现例如Hopper到Blackwell的性能飞跃。
黄仁勋强调,战略的核心价值在于提供最高的单位能耗性能。对于电力受限的超大规模客户而言,即使竞争对手的芯片是免费的,放弃NVIDIA系统导致的巨大机会成本损失也是不可接受的。
在商业合作方面,NVIDIA视OpenAI为下一家万亿美元级超大规模公司,并与其合作建设AI基础设施,包括协助OpenAI首次自建AI工厂。
1.AI计算需求呈指数级增长,推理(Inference)是关键驱动力
目前AI训练已经拥有三条法则:预训练(pre-training)、后训练(post-training)和推理(inference)。传统的推理是“一次性”(one shot)的,但新一代推理已经演变为“思考”(thinking),即在回答之前进行研究、检查真实情况并学习。“思考”导致AI每次使用所需的计算量呈指数级增长,因此,推理需求预计将增长10亿倍。这种惊人的增长来自于两个指数级复合效应:一是AI客户数量和使用率的指数级增长,二是每次使用所需的计算量的指数级增长。
2.OpenAI有望成为下一家万亿美元级超大规模公司
黄仁勋认为OpenAI很可能成为下一家万亿美元级超大规模公司,它将同时提供消费级和企业级服务。NVIDIA对OpenAI的投资被认为是“能想象到的最明智的投资之一”,NVIDIA正在帮助OpenAI首次建设自己的AI基础设施,涉及芯片、软件、系统和AI工厂的各个层面。
3.AI基础设施是新的工业革命,蕴含巨大市场潜力
AI基础设施建设被视为一场工业革命。绝大多数结构化和非结构化数据处理目前仍运行在CPU上。黄仁勋预计,未来这些数据处理将全部迁移至AI,这是一个巨大的市场。全球数万亿美元的现有计算基础设施,包括搜索、推荐引擎和购物等传统的超大规模计算基础设施,都需要从使用CPU转向使用GPU进行AI加速计算。AI基础设施将生成tokens来增强人类智能,最终产生巨大的经济效益,例如用1万美元的AI使薪资10万美元的员工生产力提高2到3倍。目前AI基础设施市场的年规模约为4000亿美元,但总体潜在市场规模未来有望增长至少10倍。
4.华尔街低估了NVIDIA增长速度
华尔街分析师预测NVIDIA的增长将在2027年趋于停滞。黄仁勋反驳了分析师的观点,认为市场上的计算资源仍处于短缺状态。他强调供应过剩的可能性极低,直到所有通用计算都转换为加速计算,所有推荐引擎都基于AI,所有内容生成都由AI驱动,供给过剩的情况才有可能发生。NVIDIA响应市场需求,未来市场对AI基础设施的需求量非常大。
5.NVIDIA通过“极致协同设计(Co-Design)”构建核心竞争优势
由于摩尔定律失效,晶体管成本和功耗基本不变,当前无法通过传统方式提升性能。为解决这一挑战,NVIDIA采用了极致协同设计(Co-Design),在系统、软件、网络和芯片层面同时进行优化和创新。
黄仁勋认为,NVIDIA强大的系统平台优势构成了竞争护城河,甚至高于竞争对手ASIC芯片的潜在成本优势。因为客户的运营受限于电力,他们希望从每瓦特电力中产生最高的收益。NVIDIA的深度和极致协同设计实现了最佳的每瓦特性能。客户如果放弃NVIDIA系统去使用性能较低的芯片,即使芯片免费,由于机会成本过高(可能损失30倍的收入),他们仍会选择NVIDIA。因此,NVIDIA认为其正在构建的是复杂的AI工厂系统,而非仅仅是芯片。
主持人:Jensen,很高兴你回来,当然还有我的合伙人Clark Tang。
黄仁勋:欢迎来到NVIDIA。
主持人:你的眼镜很漂亮。那些戴在你脸上真的很好看。现在每个人都会想让你一直戴着它们。他们会说,“红色眼镜在哪里?”所以我们距离上次做播客已经一年多了。你现在超过40%的收入来自推理(inference)。但由于思维链(chain of reasoning)的出现,推理即将迎来爆发。
黄仁勋:是的,它即将要增长10亿倍。这一点是大多数人还没完全内化的。这是工业革命。
主持人:说实话,自那以后我每天都在运营这个播客。在AI的时间尺度上,大约经历了100年。我在重看那集播客。最近,我们讨论了很多事情,对我而言,最深刻的可能是你拍桌子的那一刻。那时你还记得吗,在预训练方面确实有点低迷?人们都在说,“天哪,预训练走到头了。”这是大约一年半之前。你还说过,推理不会是100倍、1000倍,它会增长10亿倍。这把我们带到了今天这个时刻。
黄仁勋:我们现在有三条扩展定律对吧?我们有预训练Scaling法则(Pre-training Scaling Law)、后训练Scaling法则(Post-Training Scaling Law)后训练就像AI在练习,反复练习一项技能直到它做对为止。于是它尝试了许多不同的方法。而且,为了做到那一点,你必须进行推理。所以现在在强化学习中,训练和推理已经整合在一起了。这就是所谓的后训练(post-training)。第三个是推理(inference)。以前做推理的方式是一次性完成的。但是我们很感谢这种新的推理方式——思考,思考发生在模型回答之前。所以现在你有了三条缩放定律。你思考得越久,你得到的答案质量越好。在你思考的同时,你会做调研,去核查一些事实依据,你会学到一些东西,思考更多,学到更多,然后再生成一个答案。不要一开始就立即生成。所以思考、后训练、预训练,我们现在有三条扩展定律,而不是一条。
主持人:你去年就说过这些,但今年你对推理增长10亿倍,以及把智能水平拉升何处的信心程度怎么样?是更高吗?你比一年前更有信心吗?
黄仁勋:我今年更有信心,原因是看看现在的智能体系统(agentic systems)。而且AI已不再仅仅是一个语言模型,AI是一个由语言模型组成的系统,它们都在并发运行。有些在使用工具,有些在做研究,还有很多东西。而且这一切都是多模态的,看看AI已经生成的视频。这真是不可思议的东西。
主持人:这确实把我们带到了本周每个人都在谈论的那个开创性时刻。几天前你们宣布与OpenAI的星际之门(Stargate)项目达成的那笔巨额交易。你们将成为优先合作伙伴,并向该公司投资1000亿美元。在一段时间内,他们将建设至少 10 吉瓦规模的 AI 数据中心,以及如果他们为了数据中心的建设使用了NVIDIA,那对NVIDIA来说可能意味着高达4000亿美元的收入。所以请帮我们理解一下,告诉我们一些关于那种合作关系的情况吧。这对你意味着什么,以及为什么这项投资对NVIDIA如此有意义。
黄仁勋:我先回答最后一个问题。我认为OpenAI很可能会成为下一个万亿美元级别的超大规模公司。超大规模公司就像Meta,Meta就是超大规模公司,Google也是一家超大规模公司。他们会同时拥有面向消费者和企业的服务,OpenAI非常有可能成为下一个市值数万亿美元的公司。如果是这样,那就是在他们实现这个预测之前投资的机会,这些可能是我们所能想象到的最聪明的投资之一,你得把钱投在自己懂的东西上。事实证明,我们恰好熟悉这个领域。因此有机会对其进行投资,那笔钱的回报将会非常可观。所以我们非常乐意有投资的机会。我们并不一定非得投资,我们没有义务投资,但他们在给我们提供投资的机会。
黄仁勋:现在让我从头开始。所以我们正在与OpenAI在多个项目上合作。首先,第一个项目是加速Microsoft Azure的构建,我们将继续这样做。而且,这种合作进展得非常好,我们还有好几年的建设要做,仅在那里就有数千亿美元的工作要完成。其次是OCI(Oracle Cloud Infrastructure)的构建。我想还有大约五、六、七个吉瓦将要构建,我们将与OCI和OpenAI,以及与SoftBank合作。那些项目已签合同,我们正在处理。有很多工作要做。然后第三个,第三个是CoreWeave。那么问题是,这是什么新的合作关系?这个新的合作关系是关于帮助OpenAI,与OpenAI合作,构建他们自己的自建AI基础设施。所以这是我们直接在芯片级别、在软件级别、在系统级别、在AI工厂级别,去帮助他们成为一个全面运营的超大规模公司。这还会持续一段时间,你知道的他们正在经历两个指数级增长。第一个指数级增长指的是客户数量呈指数增长。其原因是AI在不断变得更强,这些使用案例正在变得更好,几乎每个应用程序现在都连接到OpenAI,所以它们正在经历使用量的指数增长。第二个指数是每次使用的计算指数。它现在不是仅仅进行一次性推理,而是在回答之前先进行思考。因此这两个指数级增长在其计算需求上相互叠加,所以我们,我们可以构建出这些不同的项目。所以最后这个是一个叠加,在他们已经宣布的所有内容之上,我们已经在与他们合作开展的所有工作,这是在其基础上的叠加。
主持人:其中有一件让我很感兴趣的事,它在你心中将会有很高概率成为一家价值数万亿美元的公司,你认为这是一个很好的投资。与此同时,你知道的,他们在自建。你在帮助他们自建他们的数据中心。所以到目前为止,他们一直在外包给Microsoft来建设数据中心。现在他们想自己建立全栈工厂。
黄仁勋:他们基本上想和我们建立一种关系,就像Elon和X那种关系。
主持人:是的。当你想到Colossus数据中心所拥有的优势时,他们正在打造全栈,那是一个超大规模云服务商,因为如果他们不自己使用这些容量,就可以把它卖给别的人。就像星际之门(Stargate)项目一样,他们正在构建巨大的容量,他们认为他们需要使用其中的大部分,但这也使他们可以将其出售给别人。听起来很像AWS或GCP或Azure。你的意思是这样吗?
黄仁勋:是啊。我觉得他们很可能会自己使用,但他们希望与我们保持直接关系,直接的工作关系和直接的采购关系。就像Zuck和Meta对我们所做的那样,这完全是直接的。我们与Sundar和Google之间的关系是直接的,我们与Satya和Azure的合作也是直接的。不是吗?所以他们已经达到了足够大的规模,他们认为现在该开始建立这些直接关系了。我很高兴能为他们支持这一点,而且大家都非常赞同这一点。
主持人:所以有一件事我觉得很好奇。你刚才提到的Oracle,3000亿,Colossus,他们正在构建的东西。我们知道Sovereigns在构建什么,我们知道超大规模云服务提供商正在构建什么。Sam在谈论的是数万亿美元的规模,但在华尔街覆盖你们股票的25位卖方分析师中,如果我看一致预期,它基本上从2027年开始你的增长就停滞不前。8%的增长,2027年到2030年。就是那25个人,他们的唯一工作就是被付钱去预测NVIDIA的增长率。
黄仁勋:我们对这个情况很放心。我们对此很习以为常,我们完全有能力超越这些数字。
主持人:我理解这一点,但是,存在一个有趣的脱节。我每天在CNBC和Bloomberg上都能听到这句话,我想它是指短缺最终变成供过于求的情况。他们说:“好吧,26年也许还是供不应求,但27年也许你就不会需要那些了。”但对我来说这很有趣,我觉得重要的是要指出这些一致预测是不会发生,对吧?我们还会汇总预测,为公司做预测,考虑到所有这些数字。而这向我显示的是,尽管我们已经进入AI时代两年半了,我们仍然存在一种巨大的信念分歧。我们听到的Sam Altman说的、你说的、Sundar说的、Satya说的,和华尔街仍然存在分歧。
黄仁勋:我不认为这前后矛盾。首先对于构建者来说,我们的目标应该是为机会而构建。让我给你三个需要思考的要点,而且这三点会让你在未来对NVIDIA更加放心。第一个要点,也是物理定律相关的观点,这是最重要的一点,即通用计算(general purpose computing)已经结束,未来属于加速计算,以及AI计算。这是第一点。理解这一点的方式是,世界上需要更新的计算基础设施价值是多少万亿美元。所以你首先要意识到这一点是无人争议的。每个人都会说:“是的,我们完全同意这一点。通用计算已结束。摩尔定律已死。”那这意味着什么?通用计算将转向加速计算。我们与Intel的合作认识到,通用计算需要与加速计算融合,以为它们创造机会。
黄仁勋:第二个要点,人工智能的第一个用例实际上已经无处不在。它用于搜索、推荐引擎、在购物中。用于推荐的基础超大规模计算基础设施过去主要是由CPU来完成的,现在要转向GPU了。所以对于经典计算,它从通用计算转向加速计算和AI;对于超大规模计算,它从CPU转向加速计算和AI。这是第二点。Meta、Google、ByteDance、Amazon等公司,他们那种经典的、传统的超大规模扩展方式,转移到AI上,那是数千亿美元。我们甚至都不用考虑AI创造新的机会,这是关于AI改变你过去做事的方式,变成一种新的做事方式。然后现在,让我们谈谈未来。到目前为止,我只是大致地谈过现存的事物,只是一些平常的事情,以前的做法现在不对了,你不再会去用,就像使用燃油灯要转向使用电力,而且你不再去使用螺旋桨飞机了,你会转而使用喷气式飞机。就这样。这就是我一直在谈的全部内容。
黄仁勋:然后现在令人难以置信的是,当你转向AI时,当你转向加速计算时,会发生什么?会出现哪些新的应用?这就是我们所讨论的所有AI相关内容。那就是这个机会,它是指什么?那是什么样子?简单来说,电机取代了劳动和体力活动的那些地方,现在我们有了AI、AI超级计算机、AI工厂,他们要生成tokens来增强人类智能。而这些人类智能占比大约是多少?55%、65%的全世界GDP?我们就称它为50万亿美元。而这50万亿美元将会被某些东西增强。让我们回到个人上。假设我雇用了一名薪酬为100,000美元的员工,然后我又为那名100,000美元的员工添加了一个价值10,000美元的AI,而那个价值10,000美元的AI结果却赚到了100,000美元员工效率提高两倍,那么生产力提高三倍。我现在正对我们公司里的每一个人这么做。我们公司每一位软件工程师、每一位芯片设计师,都已经有AI与他们协同工作,100%覆盖率。因此,我们制造的芯片数量更好,这个数字在增长。所以我们公司正在更快地成长。我们正在招聘更多人。我们的生产力更高。我们的营收更高。我们的盈利能力更强。还有什么不值得喜欢的呢?现在把NVIDIA的故事应用到世界GDP上。很可能发生的情况是,那50万亿美元会被增加到,我们随便选个数字,10万亿美元。那10万亿美元需要在一台机器上运行。现在AI与过去的IT不同的是,在某种程度上,软件是先验写好的,然后它在CPU上运行,一个人会操作它。将来当然是由AI生成这些tokens,必须由机器来生成这些tokens,并且它在思考。所以那个软件一直在运行,而在过去,软件只需写一次。现在软件实际上是在不断地写入,它在思考。为了让AI思考,它需要一个工厂。所以假设那10万亿美元的tokens被生成了,有50%的毛利率,而其中有5万亿需要一家工厂,对,需要一个AI基础设施。所以如果你跟我说按年计算,世界上的资本支出大约是5万亿美元,是的我会说,数学上似乎说得通。这就是未来,从通用计算到加速计算,用AI取代所有超大规模计算,然后增强人类智能,以促进全球GDP增长。
主持人:现在我们估计这个市场每年的规模约为4000亿美元,而潜在市场规模比现在预估的增长了4到5倍。
黄仁勋:昨晚,阿里巴巴的Eddie Wu说,从现在到10年后,他们将把数据中心的计算能力提高10倍。你刚才说的是多少?4倍?是10倍。他们要将计算能力提高10倍。我们将它与计算能力联系起来,NVIDIA的收入几乎和计算能力挂钩。他还提到,tokens产量每隔几个月就会翻一番。这意味着每瓦性能必须持续呈指数级增长。这就是为什么NVIDIA要大力提高每瓦性能,每瓦性能本质上就代表未来的收入。
主持人:基于这个假设,它的历史背景非常有趣:两千年来,GDP基本没有增长,直到工业革命带来加速,随后数字革命进一步推动增长。这正如你所说,Scott Besson(美国财政部长)也提到,他认为明年GDP增长率将达到4%。世界GDP增长将会加速,因为我们如今拥有了数十亿“AI同事”为我们工作。如果GDP是固定劳动力和资本的产出,那么它必须加速。我们必须考虑AI技术发展所带来的影响。
黄仁勋:它正在创造一个新的AI Agent行业,这是毫无疑问的。OpenAI是历史上收入增长最高的公司,而且他们正在呈指数级增长。因此,AI本身是一个快速增长的行业。而AI需要背后有一个工厂,一个支撑它的基础设施。这个行业正在成长。我的行业在增长。由于我的行业在增长,支撑我们的下游行业也在增长,能源在增长。这是对能源行业的复兴,核能,燃气轮机。看看我们下面基础设施生态系统里那些公司,它们表现得非常出色,每家公司都在增长。
主持人:这些数据让所有人都在谈论泡沫。扎克伯格上周在一次播客中说:“听着,我认为在某个时候我们很可能会有一个空气包,实际上Meta可能会超支100亿美元或更多。”但他说这无关紧要。这对他业务的未来至关重要,以至于这是他们必须承担的风险。但当你这么一想,这听起来有点像囚徒困境,对吧?今天我们的估计是,到2026年我们将会有1000亿美元的AI收入。它包括Meta,也包括那些运行推荐引擎的GPU,或者搜索之类的。
黄仁勋:那到底是什么行业?哪个行业已经处于超大规模?超大规模是万亿级别。顺便提一下,在任何人从零开始之前,行业就在向AI迈进,你必须从那里开始。
主持人:但我认为怀疑论者会说,我们需要从2026年1000亿美元的AI收入增长到2030年至少1万亿美元的AI收入。你刚才一分钟前还在谈到大约5万亿,如果你做了,是自下而上的估算,你能设想在未来五年内把AI驱动的收入从1000亿增长到1万亿美元吗?我们增长得有这么快吗?
黄仁勋:是的,我还要说我们已经到那里了。因为那些超大规模云服务提供商,他们已经从CPU转向了AI。他们的全部收入基础现在都由AI驱动。没有AI你就做不了TikTok,没有AI就无法做YouTube Short,没有AI的话你做不了这些东西。那些令人惊叹的事情。Meta在为定制内容、个性化内容所做的工作,没有AI你做不到。那些事情以前都是由人来完成的,之前是人们在做,内容的先验准备,创建四个由推荐引擎随后选取的选项,而现在,则是由AI生成的无限数量的选项。
主持人:但那些东西已经存在了。比如,我们从CPU转向GPU很大程度上是为了那些推荐引擎。
黄仁勋:不,那其实相当新。Meta的GPU是多少年了?这是非常新的。而搜索的GPU呢?也是非常新的。
主持人:所以你的论点会是,到2030年我们将拥有1万亿美元的AI收入的概率几乎是确定的,因为我们几乎我们已经达到了那个程度了。
黄仁勋:我们就从现在的基础上讨论增量改进。现在我们可以谈论增量了。
主持人:当你从下而上或从上而下进行分析时,我刚刚听到你说的从上而下,关于全球GDP的百分比。你认为出现供过于求的概率是多少?我们在未来三年、四年或五年内会遇到供过于求的概率是多少?
黄仁勋:直到我们将所有通用计算完全转向加速计算和AI为止。直到我们做到这点,我认为机会极低。直到所有推荐引擎都基于AI,直到所有内容生成都基于AI,因为面向消费者的内容生成在很大程度上就是推荐系统,诸如此类。直到所有这些以前典型的超大规模现在转向AI,从购物到电子商务的一切到所有那些东西,直到一切结束为止。
主持人:但这一切都是新的构建,对吧?当我们谈论万亿时,我们是在为比我们现在更远的未来进行投资。那是你的职责吗?即使你看到放缓或某种过剩即将到来,你是否仍有义务投资这些资金?还是这是那种你只是向生态系统挥旗号召说:“出去建设吧,如果到某个时候我们看到这种放缓,我们随时可以减少投资规模。”
黄仁勋:实际上,情况正好相反。因为我们处在供应链的末端,所以我们响应需求。而且现在,所有的风投都会这么跟你说,世界的计算资源是短缺的。不是因为全世界缺乏GPU,如果他们给我一个订单,我就会去制造。在过去的几年里,我们已经彻底梳理了供应链,从晶圆到共同组装HBM存储器,所有在我身后的供应链,所有那些技术,我们真的已经做好了充分准备。如果需要翻倍,我们就翻倍,因此供应链已准备就绪。现在我们只是在等待需求信号。
黄仁勋:当CSP和大型云服务商以及我们的客户,把他们的年度计划给我们时,我们会按那个计划去构建。现在的情况是,华尔街给我们的每一项预测,结果都被证明是错的,因为他们预测不足。所以近年来我们总是在紧急应对状态,无论给出的预测是什么,总是比去年有显著增长,但是还是不够。去年Satya的表现似乎有点退步,似乎是这样的,有些人称他房间里的成年人。几周前他说:“嘿,我今年也建造了2个吉瓦,我们未来会加速发展。”你是否看到一些传统的大型云服务商(hyperscalers)似乎动作有点慢,或者比我们所说的Elon 的X,还有星际之门项目稍慢一点?对我来说他们现在都更投入了,而且都在加速。
黄仁勋:因为第二个指数增长。我们已经经历过一次指数级增长,那就是AI的采用率和参与度的增长。第二个被触发的指数级增长是推理能力的提升。这正是我们一年前的对话。那时我们说,“嘿,听着。当你让AI记住和概括一个答案,这基本上就是预训练。”一年前,推理出现了,研究出现了,工具使用也出现了,而现在你是一个会思考的人工智能。这将会消耗更多的计算资源。
主持人:正如你所说,某些超大规模客户确实有必须迁移的内部工作量,从通用计算迁移到加速计算,因此他们在整个周期中进行了构建。我认为,或许有些超大规模云服务商的工作量不同,因此他们不太确定能多快消化这些需求。但现在大家都得出结论:他们远远低估了所需的规模。
黄仁勋:我最喜欢的其中一个案例,就是传统的数据处理,结构化数据和非结构化数据,只是老式的数据处理。而且很快,我们将宣布一项大规模的加速数据处理计划。数据处理代表了当今世界上绝大多数的CPU使用,它仍然完全在CPU上运行。如果你去Databricks,大多数都是CPU;你去Snowflake,大多是CPU。Oracle的SQL处理,大多是CPU。每个人都在用CPU来做,将来,这些都会迁移到AI数据上。那是一个我们将要转入的庞大市场。NVIDIA做的所有事情都需要加速层,需要特定领域的数据处理配方(recipes),我们得去构建它,但这即将到来。
主持人:所以人们提出的反对意见之一是,我昨天打开了CNBC,他们说,“哦,供过于求,泡沫。”当我打开彭博时,谈论的是循环往返交易和循环收入。这些安排是在企业进行一种误导性的交易时,这类安排会人为地抬高收入,而没有任何实质性的经济基础。换句话说,就是通过金融工程支撑起来的增长。不是由客户需求驱动的。当然,大家引用的典型案例是25年前上一次泡沫时期的Cisco和Nortel。所以,当你们或者Microsoft或者Amazon投资于那些也是你们大客户的公司时,在这种情况下,你们投资于OpenAI。与此同时,OpenAI正在购买数百亿级美元的芯片。当彭博的分析师和其他人对循环收入或回流交易大惊小怪时,他们到底哪里错了?
黄仁勋:10吉瓦大约相当于4000亿美元,对吧?而且那4000亿美元将不得不主要由他们的购售协议(offtake)来提供资金。他们的收入正在呈指数增长,必须由他们的资本来资助,他们通过股权募集的资金,以及他们能筹到的任何债务。这就是三种融资工具。他们能筹集到的股权和债务,与他们能够维持的收入的可信度有关。因此,精明的投资者和精明的放款人会考虑所有这些因素。从根本上说,这就是他们会做的事。那是他们的公司,不是我的事。当然,我们必须与他们保持非常紧密的联系,以确保我们构建的支持能够促进他们的持续增长。这是收入方面的事,跟投资方面毫无关系。这方面的投资并不与任何事物挂钩。这是一个投资他们的机会。正如我们之前提到的,这很可能会成为下一个市值数万亿美元的超大规模公司。谁不想成为那里的投资者呢?我唯一的遗憾是,早些时候邀请我们投资。我记得那些谈话。我们当时太穷,投资不足你知道吗?而我本该把所有钱都给他们。
主持人:现实是,如果你们不做好自己的工作并跟上进度,如果Vera Rubin不能变成一个好的芯片,他们可以去买其他芯片并把它们放进这些数据中心。他们没有义务必须使用你的芯片。就像你说的,你把这看作一次机会性的股权投资。
黄仁勋:我们在这方面做了大量出色的投入。我们投资了xAI、CoreWeave,我们太明智了。
主持人:那我们就深入一点讨论系统设计吧。在2024年,你改回了年度发布周期,然后你进行了大规模升级,这需要和Grace Blackwell一起对数据中心进行重大改造。在2026年下半年,我们将会得到Vera Rubin。2027年,将发布Ultra,然后2028年,将发布Feynman。年度发布周期进行得怎么样,顺利吗?采用这个年度发布周期的主要目标是什么?而且NVIDIA内部的AI是否让你能够执行年度发布周期?
黄仁勋:是的。没有AI,NVIDIA的速度、我们的节奏我们的规模将受到限制。因此,没有现在的AI,根本不可能构建出我们所构建的东西。我们为什么要这么做?Satya已经说过,Sam也说过,tokens生成速率正在呈指数级上升,而且客户使用量呈指数增长。我记得他们大概有8亿每周活跃用户之类的。我的意思是,我们从距离ChatGPT兴起还不到2年,对吧?所以,第一件事是,因为tokens生成速率正在以惊人的速度上升,两个指数叠在一起,除非我们以惊人的速度提升性能,tokens生成的成本将持续增长,因为摩尔定律已经死了,因为晶体管基本上现在每年都差不多价钱,功率大体相同。在这两个基本规律之间,除非我们想出新的技术来降低成本,即使增长有些许差异,你给某人几个百分点的折扣,那怎么能弥补两个指数级增长的差距?所以我们必须每年以能够跟上那种指数增长的速度提高我们的性能。所以在这种情况下,我想从Kepler一直到Hopper,性能提升大概是100,000倍。那就是NVIDIA AI之旅的起点,10年内提升100,000倍。在Hopper和Blackwell之间,由于NVLink 72,我们实现了增长,一年增长30倍。然后我们会因Rubin再次获得另一个X因素,然后我们会因Feynman再获得另一个X因素。而我们这样做的原因是,因为晶体管对我们帮助并不大,对吧?摩尔定律在很大程度上是如此。密度在上升,但性能却没有随之提升。因此,如果情况是这样,我们必须面对的挑战之一,就是必须在系统层面把整个问题拆解开,并同时更改每一块芯片,以及所有的软件堆栈和所有系统,全部同时进行。极致的极限代码设计。以前从未有人在这个层次上进行过设计。我们改变CPU,彻底革新CPU,GPU、网络芯片、NVLink扩展,Spectrum X扩展。我听到有人说,“哦,是的,这只是以太网。”Spectrum X不仅仅是以太网。人们开始发现,“我的天啊,X因素相当惊人。”NVIDIA的以太网业务,是全球增长最快的以太网业务。因此,要扩大规模,当然,现在我们必须构建更大的系统,所以我们向外扩展,多个AI工厂互相连接在一起。然后我们以年度速度来做这件事。因此我们现在拥有一个指数的指数,从技术层面上自我加速。这让我们的客户能够降低token成本,通过预训练和后训练以及思考,不断让这些token变得越来越智能。结果是,随着AI变得更聪明,它们会被更多地使用。随着使用量增加,它们将呈指数增长。
主持人:对于可能不太熟悉的人来说,极限协同设计(co-design)是什么意思?
黄仁勋:极限协同设计意味着你必须对模型进行优化,算法、系统和芯片同时进行。你必须跳出框框进行创新。因为摩尔定律就是说,你只需要不断把CPU做得越来越快,一切都变得更快了,你在一个框框里进行创新,让那颗芯片更快就行。如果那颗芯片提速不了的话,那你打算怎么办?在框外创新。所以NVIDIA真的改变了很多,因为我们做了两件事。我们发明了CUDA,发明了GPU,并且在很大规模上提出了大规模协同设计的理念。这就是为什么我们涉足了所有这些行业。我们正在创建所有这些库并进行协同设计,首先是全栈极限,它甚至超越了软件和GPU,现在是在数据中心级别,交换机和网络以及交换机里所有那些软件,在网络、在NIC(网卡)中,纵向扩展,横向扩展,在所有这些方面进行优化。因此,从Hopper到Blackwell,相当于提升了30倍。没有任何摩尔定律能够实现这一点。所以这就是极限的协同设计。这是来自极限协同设计的结果吗?那是因为NVIDIA做到了。这就是我们涉足网络、交换、纵向扩展、横向扩展和跨域扩展的原因,以及制造CPU、制造GPU和制造网卡。你知道,那就是为什么NVIDIA在软件和人才上如此富有的原因。我们在世界上提交的开源软件贡献,比几乎任何人都多。除了另外一家公司,我想是AI2之类的。因此,我们有如此丰富的软件资源,而这还仅仅是在AI领域。别忘了计算机图形学、数字生物学和自动驾驶车辆,我们作为一家公司所产出的软件数量非常惊人。这使我们能够进行深入且极限的共同设计。
主持人:我从你们的一个竞争对手那里听说,这么做是因为这有助于降低tokens生成的成本,但与此同时,你们的年度发布周期几乎让竞争对手无法跟上。供应链被锁定得更厉害,因为你给了供应链三年的可见性。所以现在供应链——
黄仁勋:在你问问题之前,先考虑一下这个。为了让我们每年做出数千亿美元的交易,关于AI基础设施建设的建设,想想一年前我们有多少产能可以开始。我们在谈论建设数千亿美元级别的晶圆开工和DRAM采购,等等。现在的规模几乎没有任何公司能跟得上。
主持人:那么你会说你们现在的竞争优势比三年前更强吗?
黄仁勋:首先,竞争比以往任何时候都更多,但现在比以往任何时候都更困难。我之所以这么说是因为,晶圆成本在上升。这意味着除非你在极大规模上进行协同设计,否则你就无法实现那种“x因子”级别的增长。除非你一年要处理六、七、八颗芯片,这不是在制造ASIC,这是在建立一个AI工厂。而且这个系统里面有很多芯片,它们都是共同设计的,并且结合在一起,它们带来了我们获得的那个10倍效应,几乎是定期的。第一,协同设计非常极限。第二,规模也非常极限。当你的客户部署1吉瓦时,那是40万、50万块GPU,让50万块GPU协同工作是一种奇迹。你的客户在你身上承担着巨大的风险,你得问自己,哪位客户会在一个新的架构上下达一份价值500亿美元的采购订单?你刚刚设计出了一款全新的芯片,你为此感到既兴奋又激动,而且你刚刚展示了第一个硅片,谁会给你500亿美元的采购订单?为什么你要为一款刚刚流片的芯片启动价值500亿美元的晶圆生产?但对于NVIDIA,我们可以那样做。因为我们的架构经过充分验证。我们的客户规模令人难以置信,现在我们的供应链规模令人难以置信。谁会为一家公司开始做所有那些东西,预先构建所有那些东西,除非他们知道NVIDIA能够交付。不是吗?他们相信我们能够为全球所有客户提供服务。他们愿意一次投入数千亿美元。
主持人:你知道,世界上最大的一场关键辩论和争议之一就是GPU与ASIC的问题。Google的TPUs、Amazon的Trainium,似乎从ARM到OpenAI再到Anthropic的每个人都在参与。去年你说,你知道,我们在构建系统,而不是芯片,并且你正在通过堆栈的每一个部分推动性能提升。你还说过,这些项目中的许多可能永远无法达到生产规模,但鉴于Google的TPU看起来似乎取得了成功,你现在如何看待这个不断演变的格局?
黄仁勋:谷歌具备的优势是前瞻性。记住,他们在一切开始之前就启动了TPU1。这和创业公司没什么不同。你应该去创建一个创业公司,你应该在市场增长之前建立一个创业公司。当市场规模达到数万亿美元时,你不应该还以一家创业公司的身份出现。这个谬论,所有风险投资家都知道的,这种谬论认为,只要占据几个百分点的市场份额,庞大的市场就能带来成功,你可以成为一家大型公司,那实际上从根本上就是错的。你本该拿下这家小公司的全部,这正是NVIDIA做的,不是吗?这就是TPU所做的,当时只有我们两个人。
主持人:不过你最好希望那个行业真的变得非常大。你在创造一个产业。
黄仁勋:没错。这就是对正在构建ASIC的人的挑战。看起来这是个诱人的市场,但请记住,这个诱人的市场是从一种叫GPU的芯片演变而来的。所以我刚才描述了一个AI工厂,你们刚才看到,我刚宣布了一款名为CPX的芯片,用于上下文处理和扩散视频生成,这是一个非常专业的工作量,但是在数据中心内部这是一个重要的工作量。我刚才提到可能是用于AI数据处理的处理器,因为你猜怎么着?你需要长期记忆,你需要短期记忆,KV缓存的处理确实非常密集,AI记忆是件大事,你希望你的AI有良好的记忆能力。而且处理系统中所有与KV缓存相关的内容,真的很复杂,也许它需要一个专用的处理器。也许还有其他的东西,对吧?所以你看到NVIDIA,我们的观点现在不再是GPU,我们的视角是看整个AI基础设施。这些了不起的公司需要什么多样的基础设施才能完成他们所有的工作量。看看transformer。transformer架构正在发生巨变。如果不是因为CUDA操作和迭代都很方便,他们如何尝试那么多实验来决定哪个transformer版本?使用哪种注意力算法?你如何进行拆解?CUDA可以帮助你完成所有这些,因为它高度可编程。因此,思考我们方式的方法是,我们的业务现在是你看看当下,当所有这些ASIC公司或ASIC项目在3、4、5年前开始,那时候这个行业非常可爱而且简单,涉及到一块GPU。但现在,它变得庞大而复杂。再过两年,这将变得非常巨大。规模会非常庞大。所以我认为作为一个新兴玩家,进入一个非常大的市场的那场斗争确实很艰难。
主持人:他们的计算机群中是否存在最佳平衡?投资者是二元生物,他们只想要一个黑白分明的“是”或“否”的答案。但即使你让ASIC工作起来,难道没有最佳平衡吗?你认为我正在购买Nvidia平台,CPX将会进行预填充,用于视频生成,也许是解码,一个平台视频。因此将会有许多不同的芯片或部件添加到Nvidia生态系统、加速计算集群中。随着新的工作量的出现,它们正在诞生。而且今天试图推出新芯片的人们并没有真正预料到一年后会发生什么,他们只是想让芯片工作起来。换句话说,谷歌是GPU的大客户。
黄仁勋:谷歌就是一个非常特殊的例子。我们必须对真正值得尊重的人表示尊重,TPU在TPU7上。是的,这对他们来说也是一个挑战,所以他们所做的工作非常辛苦。记住,芯片有三类。有一类是架构类的芯片,X86 CPU、ARM CPU、NVIDIA GPU,属于架构类。并且它上面还有一个生态系统,拥有丰富的IP和丰富的生态系统,非常复杂的技术。它由拥有者构建,就像我们一样。还有ASIC。我曾在最初发明了ASIC的概念的公司LSI Logic工作,如你所知,LSI Logic已经不复存在。原因是ASIC非常出色,但当市场规模不是很大时,作为承包商帮你把所有那些东西的包装搞定并代表你进行制造是很容易的,他们会向你收取50到60个点的利润。但是当ASIC的市场变大时,就出现了一种新的做事方式,叫作CoT。Apple的王牌,那款手机芯片,规模如此之大,他们绝不会花钱支付别人50%、60%的毛利率来成为ASIC。他们为客户制作自己的工具。当它变成一个大生意时,TPU会去哪里?客户自己的工具。这是毫无疑问的。但ASIC还有其用武之地。视频转码器的规模永远不会太大。SmartNIC的规模永远不会太大。所以当有十个、十二个,在一家ASIC公司同时进行15个ASIC项目时,我对那种情况并不感到惊讶。因为那里可能有五个SmartNIC和四个转码器。它们都是AI芯片吗?当然不会。而且,如果有人要针对特定推荐系统构建一个嵌入式向量处理器,那当然那是一个ASIC,你当然可以那样做,但你会把它作为不断变化的AI的基础计算引擎来使用吗?你有低延迟工作负载,你有高吞吐量工作负载,你有用于聊天的tokens生成,你有思考工作负载,你有AI视频生成工作负载。那就是NVIDIA的全部所在。
主持人:再简单点说,就像下国际象棋和跳棋。对吧?事实上,今天开始设计ASIC的那些人,无论是Trainium还是其他一些这些厂商,他们正在设计一款作为更大机器组件的芯片。你已经构建了一个非常复杂的系统、平台、工厂,随你怎么称呼,现在你稍微开放一点,对吧?所以你提到CPX GPU,也就是说,在我看来,你在某种程度上将工作负载拆分到最适合该特定需求的硬件片段上。
黄仁勋:看看我们做了什么。我们发布了一个叫作Dynamo的东西,分解式 orch AI工作负载编排。我们将其开源,因为未来的AI工厂是分解式的。
主持人:然后你们发布了NV Fusion。甚至和你的竞争对手说了,包括你刚刚投资的Intel。你知道,就是你以这种方式参与我们正在建设的这个工厂。因为没有别人傻到去试图建造整个工厂,但如果你的产品足够好,你可以接入那套系统,足够有吸引力,让最终用户说:“嘿,我们想用这个来替代ARM GPU。”或者:“我们想用这个来替代你的推理加速器”等等。这是正确的吗?
黄仁勋:是的。我们很高兴能为您服务。NV Link Fusion,真是个很棒的主意。我们非常高兴能与Intel合作。这需要Intel生态系统的参与。世界上大多数企业仍然依赖Intel运行,这需要Intel生态系统,结合NVIDIA AI、生态系统、加速计算单元,然后我们把它们融合在一起。我们就是用ARM做到这一点的。还有好几个项目我们也会用它来做。这为我们双方都打开了机会。这对我们双方都是双赢。我将成为他们的大客户,他们会让我们接触到一个远远更大的市场机会。
主持人:让人震惊的是,你说我们的竞争对手在制造ASIC。今天所有的芯片已经更便宜了,但他们实际上可以把价格定为零,我们的目标是他们可以把价格定为零,而你仍然会购买一套NVIDIA系统,因为运行该系统的总体成本、电力、数据中心、土地等、情报输出仍然比购买芯片更值得。即便那颗芯片是免费送给你的,也还是一颗芯片。
主持人:因为土地、电力和外壳已经花费了150亿美元。
主持人:所以我们已经尝试去做这方面的数学计算,但给我们讲讲你的数学推导,因为我觉得对于那些不常花时间在这里的人来说,他们就是无法理解。怎么可能你把竞争对手的芯片定价为零,考虑到你们芯片的成本,竟然它仍然更值得赌一把?
黄仁勋:有两种思路来考虑这个问题。一种方式是,我们就从收入的角度来考虑。所以每个人都受功率限制,假设,你设法再获得了两吉瓦的动力。那么,你希望拥有的那两吉瓦动力会转化为收入。你的性能或每瓦token数是别人的两倍,因为进行了深度且极限的协同设计,而且性能要高得多。然后我的客户可以从他们的数据中心获得两倍的收入。谁不想获得两倍的收入呢?而且如果有人给他们15%的折扣,你知道,我们的毛利率大约75个基点,而别人的毛利率,大约在50到65个基点,并不足以弥补Blackwall和Hopper之间30倍的差距。我们假设Hopper是一款惊人的芯片,假设别人的ASIC是Hopper。所以你在那1吉瓦里得放弃30倍的收入,放弃太多了。所以即使他们免费送给你,你只有两吉瓦可用,你的机会成本高得惊人,你会始终选择每瓦性能最优的方案。
主持人:我是在一家超大规模云服务商的首席财务官那里听到这句话的。他说鉴于你芯片带来的性能提升正在出现,再次正好到那个点,每个token的每吉兆,以及功率是限制因素,他们不得不升级到新的周期。所以当你展望Rubin、Rubin Ultra和Feynman,这种轨迹会持续下去吗?
黄仁勋:我们现在每年大概在制造六、七块芯片,对吧?而且每一块作为该系统的一部分。而且那个系统、软件无处不在,并且它需要在这六个方面进行整合和优化,才能实现Blackwell的30倍性。现在,想象我每年都在做这件事。因此,如果你在那片ASIC的混合体中制造一个ASIC,在那片芯片大杂烩中,我们在其间进行优化,你知道的,这是一个难以解决的问题。
主持人:这确实把我带回到我们一开始讨论的竞争优势护城河的问题。我们已经在关注这一点和投资者有一段时间了。我们在整个生态系统中都是投资者,从Google到Broadcom。但当我真正从第一性原理来审视这个问题时,并且问,你是在扩大还是缩小你的竞争护城河?你会转为按年度节奏进行,你正在与一个供应链共同开发,规模远远超出任何人的预期。这需要规模,无论是在资产负债表上,还是在开发方面,对吧?你所做的那些举措,无论是通过收购,还是像NV Fusion这样的内部有机发展,这些所有事加在一起让我相信你们的竞争模式正在增强,至少在建设工厂或系统方面是如此。这至少令人惊讶。但是我觉得有趣的是,你的倍数远低于那些大多数其他人。我认为这在某种程度上与大数法则有关。一家市值4.5万亿美元的公司不可能再大了。但我在一年半前就问过你这个问题。当你今天坐在这里,如果市场对AI工作负载将是10倍或5倍增长,我们知道资本支出在做什么等等,在你看来有没有任何想象空间,你五年后的营收顶部不是比2025年大两倍或三倍?或者实际上不增长的概率有多大?
黄仁勋:我会这样回答。正如我所描述的那样,这是我们的机遇,机遇远远大于共识。
主持人:我认为NVIDIA很可能会成为首家市值10万亿美元的公司。就在十年前,人们曾说过不可能出现一家市值万亿美元的公司。现在我们有10家了,对吧?而且今天世界变得更大了。这就是回到关于GDP的指数增长点。
黄仁勋:世界更大了。而且人们误解我们所做的事情。他们记得我们是一家芯片公司,而我们确实,我们制造芯片,还设计世界上最了不起的芯片。但NVIDIA实际上是一家AI基础设施公司。我们是你的AI基础设施合作伙伴,而我们与OpenAI的合作正是这种情况的完美体现。我们是他们的AI基础设施合作伙伴。我们以多种不同方式与人们合作。我们不要求任何人全部从我们这里购买,我们不要求他们购买整机架。他们可以购买一颗芯片。他们可以购买一个组件。他们可能会买我们的网络设备。我们有客户只购买我们的CPU,直接买我们的GPU,别人的CPU以及别人的网络设备。我们基本上可以接受你以任何喜欢的方式购买。你知道,我唯一的请求就是在我们这里买点东西,你知道吗?
主持人:你说过,这不仅仅是关于更好的模型。我们也必须构建。我们必须拥有世界级的建设者。你说过,或许我们国内最世界级的建设者是Elon Musk。我们还谈到了Colossus 1,以及他在那儿做什么,那时的H100、H200在一个连贯的集群中,现在他正在开发Colossus 2,你知道那可能是500,000 GB,相当于数百万个H100的等效算力,组成一个协同工作的集群。
黄仁勋:如果他比别人更早达到吉瓦级,我不会感到惊讶。
主持人:是的,所以稍微多说一点关于那件事。作为构建者的优势,这不仅仅是构建软件和模型,还要理解实现它所需的一切,构建那些集群。
黄仁勋:这些AI超级计算机是很复杂的东西。这项技术很复杂。因为融资问题,采购也很复杂。确保土地、电力和机壳的安全,为其供电很复杂。我的意思是,这是无可置疑的人类有史以来最复杂的系统问题。而且,埃隆有一个很大的优势,就是在他脑子里,所有这些系统都是相互协作的,并且和那些相互依赖的关系,都在一个人脑子里,包括融资。
主持人:所以他是个大型GPT。他本身就是一台大型超级计算机。
黄仁勋:他是终极GPU。所以,他在那里有很大优势。而且,他有很强的紧迫感。他确实有一种真切的渴望去构建它,当愿望被技能实现时,难以置信的事情就会发生。是的,挺独特的。