尊龙凯时官网,尊龙凯时,AG尊龙凯时,尊龙娱乐,尊龙体育,尊龙凯时人生就是搏,尊龙凯时体育,尊龙凯时平台,ag尊龙,尊龙平台,尊龙,尊龙官网,尊龙登录入口,尊龙官方网站,尊龙app下载,尊龙凯时APP下载尊龙凯时官网,尊龙凯时,AG尊龙凯时,尊龙娱乐,尊龙体育,尊龙凯时人生就是搏,尊龙凯时体育,尊龙凯时平台,ag尊龙,尊龙平台,尊龙,尊龙官网,尊龙登录入口,尊龙官方网站,尊龙app下载,尊龙凯时APP下载尊龙凯时官网,尊龙凯时,AG尊龙凯时,尊龙娱乐,尊龙体育,尊龙凯时人生就是搏,尊龙凯时体育,尊龙凯时平台,ag尊龙,尊龙平台,尊龙,尊龙官网,尊龙登录入口,尊龙官方网站,尊龙app下载,尊龙凯时APP下载尊龙凯时官网,尊龙凯时,AG尊龙凯时,尊龙娱乐,尊龙体育,尊龙凯时人生就是搏,尊龙凯时体育,尊龙凯时平台,ag尊龙,尊龙平台,尊龙,尊龙官网,尊龙登录入口,尊龙官方网站,尊龙app下载,尊龙凯时APP下载
从全年来看,数据中心产生了1940亿美元的收入,同比增长68%。自2023财年ChatGPT出现以来,我们已将数据中心业务规模扩大了近13倍。展望未来,我们预计2026日历年收入将持续环比增长,超过我们去年分享的5000亿美元Blackwell和Rubin收入机会。我们相信,我们已经准备好了库存和供应承诺来应对未来需求,包括延伸至2027日历年的出货。每个数据中心都受到电力限制。考虑到这些限制以及最大化AI工厂收入的需求,客户会根据每瓦性能做出关键的架构决策。
第四季度数据中心收入为620亿美元,同比增长75%,环比增长22%,这主要受Blackwell的持续强劲表现和Blackwell Ultra的产量提升所驱动。由于对英伟达基础设施的需求极高,甚至Hopper和许多已有六年历史的基于Ampere架构的产品在云端也已售罄。自发布Grace Blackwell GB200 NVL72系统以来已近一年。如今,主要云服务提供商、超大规模云服务商、AI模型制作者和企业已部署并消耗了近9吉瓦基于Blackwell的基础设施。网络作为我们数据中心规模基础设施产品的基石,本季度表现突出,产生收入110亿美元,同比增长超过3.5倍。
随着NVL72扩展交换机的强力采用,对我们的扩展(scale-up)和横向扩展(scale-out)技术的需求达到了创纪录水平,两者环比均实现了两位数增长,因为Grace Blackwell系统在本季度约占数据中心收入的三分之二。NVLink扩展架构彻底改变了计算,并展示了在超级计算机所有芯片和全栈领域进行极端协同设计的力量。在第四季度,我们宣布将使AWS能够通过NVLink与其定制芯片集成。随着客户致力于将分布的数据中心统一为集成的大规模AI工厂,我们的Spectrum X Ethernet扩展及横跨网络的发展势头强劲。
我们上个月在CES上发布了Rubin平台,由六款新芯片组成:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6 Ethernet交换机。该平台将以Blackwell四分之一的GPU数量训练MoE模型,并将推理Token成本降低多达10倍。我们在本周早些时候向客户交付了首批Vera Rubin样本,并有望在今年下半年开始生产出货。基于其模块化、免线缆托架设计,Rubin将提供比Blackwell更好的弹性和可服务性。我们预计每位云模型构建者都会部署Vera Rubin。
转到游戏业务。游戏收入为37亿美元,同比增长47%,受Blackwell强劲需求和供应改善推动。GeForce RTX是PC玩家、创作者和开发者的领先平台。第四季度,我们增加了几项新技术和进展,包括利用AI将游戏视觉提升到新水平的DLSS 4.5,以及在领先AI PC框架上提速35%的大模型推理。展望未来,虽然对我们产品的终端需求依然强劲,且渠道库存水平健康,但我们预计供应限制将成为第一季度及以后游戏业务的阻力。
本季度,我们推出了配备72GB高速显存的RTX Pro 5000 Blackwell工作站,供运行大模型和代理工作流的AI开发者使用。汽车业务收入为6.04亿美元,同比增长6%,受自动驾驶解决方案强劲需求的推动。在CES上,我们推出了Alpamayo,这是世界上首个开放的推理、视觉、语言、动作模型、模拟蓝图和数据集组合,使车辆能够思考。首款搭载Alpamayo、基于英伟达Drive构建的乘用车很快将在新款梅赛德斯奔驰CLA中上路。
让我们来看看损益表的其他部分。GAAP毛利率为75%,非GAAP毛利率为75.2%,随着Blackwell持续增产,环比有所增长。GAAP营业费用环比增长16%,非GAAP营业费用增长21%,这与新产品发布以及计算和基础设施成本有关。第四季度非GAAP有效税率为15.4%,低于我们对该季度的展望,主要由于一次性税收优惠的影响。库存环比增长8%,同时购买承诺也大幅增加,因为我们已从战略上锁定了未来几个季度以外的库存和产能以满足需求。这比往常的时间跨度更长,反映了我们拥有的更长期的需求可见性。
让我谈谈第一季度的展望。从本季度开始,我们将把股权激励费用纳入非GAAP结果中。股权激励是我们薪酬计划的基础组成部分,用于吸引和留住世界级人才。首先从收入开始。总收入预计为780亿美元,正负2%。我们预计大部分增长将由数据中心驱动。与上季度一致,我们在展望中未计入任何来自中国的数据中心计算收入。GAAP和非GAAP毛利率预计分别为74.9%和75%,正负50个基点。对于全年,我们继续看好毛利率保持在70%左右的中位水平。
本季度,我们宣布了与Anthropic的合作伙伴关系,并对其投资100亿美元。Anthropic将在Grace Blackwell和Vera Rubin系统上进行训练和推理。Anthropic的Claude Cowork代理平台具有革命性,为企业AI普及打开了闸门。在Claude Cowork和OpenAI之间,计算需求正在飙升,代理式AI的ChatGPT时刻已经到来。通过涵盖Anthropic、Meta、OpenAI和xAI的合作伙伴关系,英伟达已部署在每个云端,凭借我们从头构建全栈AI基础设施或在云端支持它们的能力,我们拥有独特的地位,可以在前沿模型构建者的每个阶段(训练、推理和AI工厂规模化)与其合作。
我们今天的生态系统也比过去更加丰富。我们过去主要是一个基于GPU的计算平台,但现在我们是一家计算AI基础设施公司。我们在各个方面都有计算平台,从计算到AI模型,到网络,再到我们的DPU,所有这些之上都有计算栈。正如我之前提到的,无论是在企业中,还是在制造业、工业、科学或机器人领域,每一个生态系统都有不同的技术栈,我们希望确保继续对生态系统进行投资。因此,我们的投资非常明确、具有战略性地聚焦于扩大和深化我们的生态系统覆盖范围。
英伟达CEO黄仁勋:我对他们的现金流增长充满信心。原因很简单。我们现在已经看到了代理式AI的拐点,以及代理对全世界和各地企业的用处。因此您会看到难以置信的计算需求。在这个新的AI世界,计算等于收入。没有计算,就没有办法生成Token。没有Token,就没有办法增长收入。所以在AI新世界,计算等于收入。我可以肯定在这一点上,拥有适量的计算机,你知道,称之为3000亿或4000亿美元价值的现金。太好了,谢谢。
关于一些战略投资以及潜在的OpenAI。该模型是核心,但也基于英伟达平台进行合作。我们存在于每个云,存在于每个中心。我们遍布全球。边缘和数十个AI原生应用构建在AI生态系统之上。无论是语言、物理AI还是AI物理。所有这些生态系统都将构建在英伟达之上。投资于跨全栈的生态系统。当然,现在比过去更甚。部分原因是我们将计算拆解并深入到每个方面。深入AI模型。正如我之前提到的,扩展,扩展。GPU,节点,以及它们中的每一个。
我们所做的工作。机架确实令人难以置信。我们也喜欢低功耗,这是当然的。有些人想通过人工智能方式集成并扩展以太网,我们对此非常擅长。我们的Spectrum X性能确实证明了这一点。为您数据中心打造的十亿美元级AI工厂,这就是英伟达网络业务在Boston Interface的表现。每当您跨越一个接口,您就会增加延迟,增加不必要的功耗。我们并不排斥Violet。我们已经在用Violet了。但我们努力优化。所以当您看Grace Blackwell架构和Rubin架构时,使用两倍的激进限制绑定到底部,这减少了架构的数量。优于竞争对手。
关于我们如何看待Grok以及低延迟解码器,我有一些很棒的想法,希望能GTC大会上与你分享。但最简单的理念是:得益于CUDA,我们的基础设施具有令人难以置信的多功能性,我们将继续保持这一点,我们所有的GPU在架构上都是兼容的。这意味着,当我今天致力于为Blackwell优化模型时,所有这些针对优化软件栈和新模型所付出的努力和投入,也会使Hopper受益,也会使Ampere受益。这就是为什么在我们将其部署到世界各地数年后,A100依然感觉很新且性能依然出色的原因。
Stacy Rasgon:谢谢接受提问。我想深入探讨一下关于全年环比增长的预期。本季度你们数据中心业务环比增长了超过100亿美元,而业绩指引似乎暗示这种势头将继续。 随着我们经历这一年,尤其是当Rubin在这个间隔期内开始爬坡时,你如何看待这一趋势?Blackwell带来了非常大规模的环比增长加速,当我们过渡到Rubin时,我们是否应该期待类似的情况? 另外,我也希望你能谈谈对游戏业务的预期。我理解内存限制和其他一切问题。你认为游戏业务在2027财年仍能实现同比增长吗,还是因为内存问题将面临更大压力?请回答这两个问题。谢谢。
英伟达CEO黄仁勋:不。从我们推出的TensorRT-LLM(最强大的推理栈)开始,针对NVL对其进行优化,需要我们发现并发明构建在CUDA之上的新并行化算法。这是为了分配工作负载和推理,利用聚合优势。所以这些系统,这些代理系统,正在催生不同的代理,与团队协作,那么生成的Token数量确实已经呈指数级增长。因此我们需要以更高的速度进行推理。当您以更高速度推理且每一个Token都货币化时,这直接转化为收入。所以,这对我们的客户来说等于收入。
英伟达CFO克雷斯:那是存在于每个云且可用在边缘的。我们现在正在培养电信。也要成为一个计算平台。这是一个必然结论,但必须有人去发明使之成为可能的技术。我们创建了技术,创建了一个叫Ariel的平台去实现它。几乎涉及每一辆自动驾驶汽车。我们的能力,即CUDA的能力,一方面拥有GPU内部Tensor Core专用处理器的性能优势,另一方面,CUDA的灵活性允许我们解决语言问题、计算机视觉问题、机器人问题、生物学问题、物理学问题,以及几乎所有类型的AI和所有类型的计算算法。
所以您有数据处理、预训练,然后是后训练。现在AI正在学习如何使用工具。工具的使用中,许多工具运行在纯CPU环境或CPU及GPU加速环境中。Vera被设计为后训练阶段的卓越CPU。因此,在人工智能的整个流水线中,一些用例需要使用大量CPU。我们既喜欢CPU也喜欢GPU。当您像我们一样将算法加速到极限时,阿姆达尔定律会提示您需要非常非常快的单线程CPU。这就是我们把Grace打造得单线程性能极其出色的原因。
英伟达CEO黄仁勋:是的。让我们退一步,通过几种不同的方式来推导。第一种方式是基于基本原理。未来使用AI进行软件开发的方式是Token驱动的。我想每个人都在谈论Token经济学,谈论数据中心生成Token,推理就是生成Token,我们生成Token。你知道,我们只是在谈论Token。英伟达NVLink 72如何使我们生成的Token比上一代每单位能量性能提高50倍。所以Token生成是未来几乎所有关于软件和计算的核心。
编程显然现在得到了代理系统的支持,我们英伟达所有的程序员都在大量使用系统(或者是Claude Code,或者是OpenAI Codex),通常两者都用,还有Cursor,通常三者都用,取决于用例。但他们有代理和协同设计的伙伴、工程伙伴来帮助他们解决问题。您可以看到他们的收入在飙升。这些公司,以Anthropic为例,我认为他们的收入在一年内增长了十倍。他们严重受限于产能,因为需求太惊人了。Token需求太惊人了。Token生成率在呈指数级增长。OpenAI当然也是一样。他们的需求太惊人了。