英伟达当季总营收同比增长 73%,从去年同期的 393 亿美元增至 681.3 亿美元。目前公司超过 91% 的收入来自数据中心部门,该部门主营市场领先的 AI 芯片。
详见:英伟达财报与业绩指引双双超预期,AI热潮推动数据中心营收大增75%
财报发布后,英伟达总裁兼首席执行官黄仁勋(Jensen Huang)和执行副总裁兼首席财务官科莉特·克雷斯(Colette Kress)等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。
以下是分析师问答环节主要内容:
美银美林证券分析师Vivek Arya:管理层在前面的简报中提到,大家目前对公司在2027财年的业务情况有一定预期,公司的采购意向在某种程度上也反映了管理层对未来的信心。不过,我还是想跟进一下,黄总,就目前的情况来看,公司当前有几家非常重要的云计算用户,今年这些大客户的资本开支已经接近7000亿美元。不少投资者担心,这样的资本开支规模想要在明年继续增长并不容易。同时,据我们了解,其中有几家公司现金流能力也有一定压力。
从这个角度来看,虽然您对公司接下来的产品路线图、采购能力等方面都非常有信心,但我的问题是:您对客户继续扩大资本开支究竟有多大信心?换言之,在当前的大环境下,新一财年您预计客户还会继续扩大相关的资本开支吗?如果客户的资本开支无法实现持续增长,在这样的大环境中,英伟达计划如何实现自身的增长?
黄仁勋:我对客户现金流持续增长还是有信心的。
原因其实非常简单。现在,我们已经看到了代理式人工智能(Agentic AI)的拐点,大家也意识到AI智能体在全球范围内、在各类企业中的实际价值。
正因如此,大家会在行业中看到极其强劲的算力需求。在如今全新的AI时代,一个公司的算力就等同于公司收入。没有算力,就无法生成token;没有token,就不可能实现收入增长。所以,在如今这个AI时代,一个公司的算力等同于收入。
我非常确信,在如今这个阶段,随着Codex、Claude Code等AI工具的高效使用、用户对AI工具协助工作的巨大热情,以及用户对企业级开放云平台的关注,目前,所有企业级的ISV(独立软件开发商)都正在自己的工具、平台上尝试构建AI代理系统。因此,我确信行业目前已经处在一个明确的拐点:在这个拐点上,我们需要为用户生成具备生产力的、同时对云服务提供商来说是可盈利的token。
因此,如果从最简单的逻辑来看,大家可以用最直观的方式来理解:计算的本质已经发生了变化。过去,软件运行在计算机之上,所需的计算资源规模相对有限,每年大约是3000亿到4000亿美元的资本开支;而现在,这些投入已经转向了AI技术研发。而如果要AI生成足够的token,用户就必须具备足够的算力容量;而这些算力则会直接转化为增长,并且最终转化为收入。
摩根士丹利(173.73, 4.94, 2.93%)分析师Joe Moore:管理层前面提到了公司对Anthropic的投资,可能还包括对OpenAI等公司的战略投资;同时,管理层也提到了英伟达的一些合作伙伴,比如英特尔(46.88, 0.76, 1.65%)(Intel)、诺基亚(7.57, 0.08, 1.07%)(Nokia)、以及 新思科(79.12, 0.98, 1.25%)技(Synopsys)等等。
显然,目前英伟达已经处在整个生态系统的核心位置。能否请管理层与我们谈一谈,公司的这些投资在整体战略中意味着什么?这些投资扮演怎样的角色?管理层是否将资产负债表视为工具,希望用它来进一步巩固英伟达在整个生态系统中的地位,不断实现增长?
黄仁勋:正如大家所见,从根本上说,英伟达的所有工作、投资都以我们的生态系统为核心。也正因如此,用户才会如此看好我们的业务。
英伟达的生态系统极其丰富,几乎全球所有的初创公司都在英伟达的平台上、在英伟达的生态系统中开展工作。我们与每一家云服务商都有合作,也接入了各类本地数据中心、参与到了遍布全球各地的边缘计算场景和机器人系统之中。可以说,成千上万家AI原生公司都是构建在英伟达平台上的。
因此,我们希望把握住如此巨大的机遇。当前,我们正处在全新计算时代的初期,计算平台正在发生转变。我们希望把所有用户都能来到英伟达的平台。实际上,我们的一切都是建立在CUDA(NVIDIA推出的通用并行计算平台和编程模型)之上。可以说,我们的起点非常不错。
随着未来我们不断构建完整的英伟达AI生态系统,无论是AI、物理AI、AI物理、生命科学、生物学、机器人,还是制造业,我们都希望这些生态系统能够建立在英伟达的平台上。这也为我们提供了一个极其宝贵的机会,让我们能在整个技术栈的各个层面对生态系统进行投资。
此外,与过去相比,英伟达如今的生态系统要丰富得多。过去,从很大程度上来说,我们只是一家以GPU为核心的计算平台公司;而现在,我们已经发展成为一家AI计算基础设施公司。在计算基础设施的各个方面,我们都拥有自己的平台。从计算本身到AI模型、到网络,再到DPU,我们全部拥有完整的计算技术栈。
正如我之前提到的,无论是在企业应用、制造业、工业领域、科学研究,还是机器人领域,我们在每一个生态系统都有其各自不同的技术栈。我们也会确保持续不断地对这些生态系统进行投入。
因此,我们未来的投资重点非常明确,也非常具有战略性:那就是要不断扩展并加深英伟达生态系统在行业中的覆盖范围和影响力。
摩根大通(303.3, 6.00, 2.02%)分析师Harlan Sur:我看到网络业务在整体数据中心业务结构中的占比正在持续上升。在2026财年期间,公司的网络业务收入每个季度都实现了同比加速增长。正如管理层提到的,2026财年第四季度,公司的网络业务实现了大约3.6倍的同比增长。
显然,这主要得益于管理层在Scale-Up和Scale-Out网络产品组合方面的强劲表现。我记得在去年上半年,英伟达Spectrum以太网平台的年化运行收入规模大约在100亿美元左右;而在去年下半年,Spectrum平台的年化运行收入已经提升到了大约110亿到120亿美元。
结合公司目前的订单情况,尤其是考虑到Spectrum-6 以太网交换机的陆续上市,目前Spectrum相关业务的运行趋势如何?另外,展望今年(2026年),管理层预期平台的运行收入大致会在什么水平?
黄仁勋:我们将自己定位为一家AI计算基础设施公司。AI计算基础设施不仅涵盖了CPU、GPU,同时我们还发明了NVLink(英伟达开发推出的一种总线及其通信协议),使得单个计算节点可以扩展成一个巨型计算机机架。此外,我们还提出并实现了“机架级计算”(rack-scale computing)这一理念。换句话说,我们并不是在交付单个计算节点,而是在交付整机架的计算系统。我们会先用 NVLink在“机架内”把算力纵向做大,再用Spectrum-X或InfiniBand在“机架之间”把规模横向铺开,这两种网络路线英伟达都支持。此外,我们还可以通过Spectrum-X实现跨数据中心的横向扩展。在我们看来,网络本身就是计算平台的自然延伸。我们将以开放的方式提供所有算力,让客户能够根据自身需求,自由选择、组合出不同的扩展方式,并将其集成进各自定制化的数据中心架构之中。
NVLink的发明极大地推动了英伟达网络业务的发展。 每一个计算机架都会配备九个交换节点,而每一个交换节点中又包含两颗芯片;未来,这个数量还会进一步增加。单个机架内所涉及的交换规模也是非常惊人的。
目前,英伟达已经成为全球规模最大的网络公司之一。而如果单从以太网的角度来看,我们大约是在两年前进入以太网交换市场的。我认为,今天的英伟达可能已经是全球最大的以太网网络公司之一,而且很快就会毫无争议地成为第一。可以说,Spectrum-X以太网平台对我们来说是一次非常成功的突破。当然,我们对网络方案始终保持开放态度。有些客户非常看重InfiniBand所提供的低延迟和超大规模能力,我们会持续支持;也有一些客户更倾向基于以太网将网络深度集成进整个数据中心体系。
因此,我们打造了一种融合了人工智能能力的以太网架构,让以太网本身具备在数据中心中进行智能处理的能力,而这正是我们的强项。Spectrum-X的性能充分展示了我们与其他同业的差异:当你有一座100亿到200亿美元规模的AI工厂时,仅仅10%,甚至20%的网络效率与利用率提升,都能够直接转化为实实在在的经济收益。
英伟达的网络业务目前正处在高速增长阶段。而这一切的根本原因在于,我们构建的AI基础设施能力极其高效,而我们的AI基础设施业务本身也正在以惊人的速度增长。
Cantor Fitzgerald分析师C.J. Muse:我有一点很好奇,管理层如何看待公司未来的路线图?我们是否可以认为,未来英伟达会越来越关注针对不同工作负载或客户定制的芯片?特别是你们正在向多样化、可定制架构转型,管理层在这方面的关注度是否会增加?
黄仁勋:每个公司都希望尽量推迟使用不同的架构变体,原因很简单:每次想要跨越不同的架构变体,就必须跨越接口;而每次跨接口都会带来额外的延迟和功耗。
我们并不排斥架构变体,实际上我们已经在使用了,但我们尽量只在别无选择的情况下才使用。如果大家看我们的Grace Blackwell架构和Rubin架构,大家会发现我们采用了两个大型的、集中式的有限晶片并整合,这样可以减少跨架构接口的次数。我们相信,架构变体成本会直接影响竞争对手的架构效率。
对英伟达来说,大家常说我们的优势在软件。但其实软件优势往往是由架构决定的。我们的软件之所以高效,是因为我们的架构本身非常出色。毋庸置疑,CUDA架构更加高效、性能更优,性能领先于现有的任何计算架构,而这正源于我们独特的架构设计。
关于Groq和低延迟解码器,我在接下来的GTC大会上会和大家分享更多想法。简单来说,我们的基础设施之所以极其灵活,正是因为CUDA架构,我们也将继续沿着这条路线推进。我们所有的GPU都在架构上保持兼容。这就意味着,当我今天在Blackwell系统上优化模型时,所有对软件栈和新模型的优化工作也同样适用于Hopper和Ampere架构。正因如此,英伟达A100即便部署多年,仍然能够保持行业领先的性能。
架构的兼容性让我们能够大规模投资软件、工程和优化工作,并且有信心整个安装基础,无论是云端、企业内部数据中心,还是不同GPU代际,都能从中受益。这种策略也让我们能够延长硬件的使用寿命,提升创新能力、灵活性和研发速度,从而直接转化为客户的性能优势。
至于Groq,大家可以关注接下来的GTC大会。简单来说,我们会把Groq作为加速器整合进我们的架构,与我们之前与Mellanox的整合相类似。
伯恩斯坦研究分析师Stacy Rasgon:我想跟进一下全年环比增长的情况。在简报中,管理层提到本季度公司在数据中心业务的环比增长超过100亿美元。展望新一财年,尤其是随着Rubin架构的投入使用,管理层如何看待这一增长趋势?Blackwell架构已经为环比增长带来了非常显著的加速,我们是否可以预计随着Rubin架构的推出,我们也会观察到类似的业务表现?
另外,我也希望管理层能谈谈对游戏业务的预期。我理解内存问题以及其他因素对业务的影响。展望2027财年(2026自然年),管理层认为公司的游戏业务仍然能够实现同比增长吗?还是由于内存因素,增长会面临更大压力?
科莉特·克雷斯:我先从未来的收入情况谈起。我想再次强调,在考虑全年收入时,我们会按季度来看收入表现。
在继续销售和交付Blackwell架构的同时,大家也会看到Rubin架构进入市场。这是一款非常出色的AI架构,能让客户快速部署。我们已经针对不同客户规划了多笔订单,来为他们提供支持。
当然,目前给出结论还为时过早。我们无法确定Rubin架构初期投产将我们贡献多少收入。我们将在今年下半年开始逐步推进。但可以明确的是,客户需求强劲,大家的兴趣非常高。我们预计几乎所有用户都会采购Rubin架构。关键问题在于,Rubin架构会在何时进入市场,以及客户能够多快在自己的数据中心部署。
接下来你的第二部分问题,即我们的游戏业务。虽然我们希望能够提供更多供应,但预计未来几个季度供应会非常紧张。如果到年底情况有所改善,我们的游戏业务可能会有机会实现同比增长,但目前给出预期仍然为时过早。我们会在有相关结论后第一时间与大家更新。
花旗证券分析师Atif Malik:能否请管理层谈一谈CUDA的重要性?尤其是现在大部分AI投资资金都流向了推理工作负载。
黄仁勋:如果没有CUDA,我们根本不知道该如何处理推理工作负载。
从几年前我们推出的TensorRT-LLM开始(它目前仍然是全球性能最强的推理栈),想要优化它或NVLink都要求我们发明新的并行化算法,这些算法建立在CUDA之上,用于分配工作负载和推理任务,以充分利用 NVLink 72系统的总带宽。NVLink 72是一项伟大的发明,实现这一交换技术、聚合交换机、构建系统机架都非常困难,但我们成功实现了这一切,我相信大家都清楚其中的难度。最终结果令人震撼:通过NVLink 72,我们成功将每瓦性能提升50倍,每美元性能提升35倍,推理性能的飞跃非常显著。
大家需要认识到的是,现在推理就等同于客户收入。智能体生成了大量 tokens,效果非常显著。而当这些智能体在编码时,它们可能生成数千、数万甚至数十万个tokens,运行时间从几分钟到几小时不等。这些智能系统还会派生出不同的智能体协作工作,生成的tokens数量呈指数级增长。因此,我们需要以更高速度进行推理。当推理速度提升,每个token都可以量化为收入,直接转化为客户的营收。在数据中心里,推理性能越高,每生成一个token就能直接增加云服务提供商(CSP)的收入。
因为每个数据中心的电力都是有限的。无论拥有多少数据中心,每个数据中心(无论百兆瓦还是一吉瓦)都有功率上限。因此,拥有性能最优的架构就意味着每个token的功耗可以实现最小化,从而得到每瓦生成的收入最大化,直接转化为可观的收入。
每一个大型云服务提供商现在都理解这一点:资本支出投入可以转化为计算能力,而采用最优架构则意味着最大化收入。因此,换句话说,计算能力就等同于收入。从这个意义上来说,选择合适的架构至关重要。它不仅具有战略意义,而且直接影响公司的收入;选择每瓦性能最佳的架构,对用户来说几乎就是一切。
Melius分析师Ben Reitzes:我的问题有关公司的毛利率。请问管理层,公司毛利率维持在70%上下的水平是否可持续?展望2026及2027年,管理层对供应有哪些预期?这种毛利率水平可以维持到那时吗?再之后呢?在内存方面,管理层是否有相关的创新进展可以与我们透露?以便让我们对长期维持这一水平的毛利率更加有信心?
黄仁勋:我们毛利率最重要的杠杆,就是为客户带来代际性能飞跃。这是最关键的因素。
如果我们能够为用户提供每瓦性能远超摩尔定律的代际提升,并且每美元性能显著高于系统成本和系统售价,那么我们就能够持续维持现有的毛利率水平。这就是最简单、也是最重要的概念。
英伟达之所以发展得如此迅速,有几个原因。首先,由于我们经历了AI技术拐点,全球对tokens的需求已经呈指数级增长。我相信大家对这点都看得很清楚,云端运行了六年的旧GPU都已经完全耗尽,算力价格正在上涨。由此可见,为现代软件运行提供所需的计算量需求也在呈指数级增长。
我们的战略是每年都要交付完整的AI基础设施。今年,我们推出了六款新芯片,接下来的Rubin架构也会推出多款新芯片。对于每一代产品,我们都承诺会在每瓦性能和每美元性能上实现多倍提升。而我们之所以能够做到这一点,是因为我们拥有极端优化、协同的芯片设计能力,能够将这种价值和性能优势直接交付给客户。这就是我们保证利润率的最核心、最关键因素。
New Street Research分析师Antoine Chkaiban:我的问题有关太空数据中心。目前有些客户正在考虑建设太空数据中心。您认为这个想法的可行性如何?随着时间推移,情况会如何演变?
黄仁勋:目前来看,虽然目前的经济大环境并不理想(18.45, -0.22, -1.18%),但随着时间推移会有所改善。
太空环境的运行方式与地球截然不同:太空中的太阳能丰富,空间充裕;从散热的角度来看,太空的温度极低,但没有空气流动,因此唯一的散热方式是通过传导。为此,我们需要建造相当大的散热器。液冷散热显然不可行,因为太重且复杂。因此,我们在地球上使用的方法,在太空环境中需要有所调整。
尽管如此,有许多计算任务实际上非常适合在太空中进行。英伟达的Hopper架构已经是全球上第一个进入太空的GPU。太空中GPU的最佳应用场景之一是 高分辨率成像:利用光学系统和人工智能进行不同角度的重投影、图像降噪,实现极大规模、高分辨率、极高速的成像。如果将海量影像数据传回地球再处理,不仅效率低,还非常耗时;在太空中直接处理数据更为高效,我们可以过滤掉无用信息,只在发现有趣内容时才把图像传回地球。
因此,我相信人工智能技术在太空中将拥有非常有趣且潜力巨大的应用场景。
科莉特·克雷斯:如大家所见,我们的Top 5客户都是超大规模客户,目前它们贡献了我们约50%的总收入。除此之外,我们还与各种不同类型的公司合作,形成了多样化的用户客群,包括AI模型开发商、企业客户、超级计算机构等等。当然,我们还有很多其他不同类型的客户。所以你说得其实很对,我们的非超大规模用户群也增长得非常快。
英伟达在所有云服务提供商的平台上都拥有强大的市场地位。同时,我们现在也拥有极为多样化的客户群体,遍布全球各地。这种多样化也为我们带来了明显优势,让我们能够更好地服务于各类客户。
黄仁勋:这也是英伟达生态系统的优势之一。我们的平台建立在CUDA之上,是唯一一家能够在每个云端、每台电脑、每个边缘设备上可用的加速计算平台。
我们现在也在布局电信领域。我们相信,未来的无线电将全部由AI驱动,未来的无线网络也将成为AI计算平台。这是必然趋势,但需要有人去发明、实现这些可能的技术。我们为此创建了一个名为Arial平台。目前,我们的技术几乎已经应用在所有机器人、所有自动驾驶汽车中。
在我看来,CUDA 的优势在于其专用处理器性能和灵活性,让我们能够解决语言处理、计算机视觉、机器人、生命科学、物理等几乎所有类型的AI和计算算法问题。对我们而言,拥有多样的客户群是英伟达最大的优势之一。
第二,即便我们的处理器可以编程,如果我们没有自己的生态系统,或者说不去深耕自己的生态系统(包括我们目前正在做的一些投资和持续增强生(245.17, -1.11, -0.45%)态系统的举措),我们其实很难在别人的生态系统之外实现增长。借助我们创建的平台,英伟达得以不受限制地扩展和发展自己的生态系统。
最后,还有一个非常重要的因素,那就是我们与OpenAI、Anthropic、xAI、Meta以及几乎所有开源社区都有合作。例如在Hugging Face上有约150万个AI 模型,它们全部都是在CUDA平台上运行。我们能够支持所有这些开源模型,同时,这也让我们的平台具有高度的通用性、易用性和安全性。
上述这些举措为我们带来了客户和平台的多样性,也让我们的技术在每个国家都可用、支持全球的生态系统,进一步促进了客户结构的多样化。
(持续更新中。。。)
【财富中国网-www.caifcn.com】 免责声明: 本网站资讯内容,均来源于合作媒体和企业机构,属作者个人观点,仅供读者参考。 本网站对站内所有资讯的内容、观点保持中立,不对内容的准确性、可靠性或完整性提供任何明示或暗示的保证。