英伟达新一代Rubin平台 欲重构AI与世界的联结
2026-01-09 09:01      作者:李玉洋     来源:中国经营网

中经记者 李玉洋 上海报道

近日,在2026年国际消费电子展(CES)的舞台上,英伟达创始人兼CEO黄仁勋没有像2025年那样早早把GeForce RTX 50系列显卡、个人AI超级计算机等硬件产品端出来,而是将新一代旗舰AI计算平台Vera Rubin(以下简称“Rubin平台”)先重点推出。

《中国经营报》记者注意到,黄仁勋此前多次提到“英伟达已是一家AI基础设施公司而非只是卖芯片”。总的来看,黄仁勋本次CES主题演讲超过70%的篇幅都在讲述物理AI的具体应用场景和商业化路径,包括自动驾驶、机器人、工业制造等领域的规模化部署计划,而这些没有太多新鲜的内容。 

在记者看来,这次黄仁勋演讲呈现出明显的推理导向特征,主要有两大亮点:一是展示了更多关于Rubin平台的详情和细节,黄仁勋透露“Vera Rubin已全面投产”;二是开源模型在2025年真正起飞,1/4的token来自开源模型,而“英伟达在领导开源模型生态”,并多次提到DeepSeek、Kimi、Qwen等中国开源模型。

对于Rubin平台,行业机构Omdia人工智能首席分析师苏廉节表示,此前英伟达的数据中心业务闭环还差存储一环,英伟达Vera Rubin NVL72系统加入了数据存储单元,“存的是模型运行所需要的key value,并不是大量的冷热企业数据,这种存储格式仍有标杆意义,象征的是一种程度上的闭环”。

Rubin已全面投产

Rubin平台的全面发布,可以说是英伟达在CES 2026上的最大亮点。

据了解,这是英伟达首个采用协同设计、集成6款芯片的AI平台,包括Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X SuperNIC超级网卡芯片、BlueField-4 DPU和Spectrum-6以太网交换机芯片。

“我们公司内部有一个原则,每一代新平台不应该有超过一两个芯片发生变动。”黄仁勋如此提到。至于为何这次一口气重新设计了6颗,他表示原因在于,摩尔定律在放缓,但AI的需求在爆炸,模型参数规模每年增长10倍,推理时扩展(Test-time Scaling,即思考)生成的token数量每年增长5倍以及单token的成本每年下降10倍。

其中,Rubin GPU是负责AI计算的核心芯片,相比前代Blackwell GPU,Rubin在关键指标上实现跨代跃升:NVFP4推理性能提升至50 PFLOPS(5倍)、训练性能提升至35 PFLOPS(3.5倍)、HBM4内存带宽提升至22TB/s(2.8 倍)、单GPU的NVLink互连带宽翻倍至3.6TB/s。

在提到GPU集群的网络时,黄仁勋表示,Spectrum-X非常成功,正在席卷整个AI领域。“如果网络性能能让你额外获得10%的收益——以Spectrum-X为例,实现25%更高的吞吐量并不罕见,仅仅是10%的提升,就价值50亿美元,等于网络成本完全免费了。这就是为什么每个人都在使用Spectrum-X的原因。”他表示,现在英伟达已成为全球有史以来最大的网络公司。

值得一提的是,黄仁勋还特别介绍了Rubin平台的数据存储方案。当AI处理需要多轮对话、多步推理的复杂任务时,会产生大量上下文数据(KV Cache)。

此次发布的新芯片中,BlueField-4 DPU就与存储有关。黄仁勋解释,随着人们与AI进行长时间对话越来越多,需要的记忆量快速增长,但当大量AI同时运行时,网络还是显得不够快,需要寻找其他办法,因此英伟达推出推理上下文内存存储平台,作为一种新型AI存储基础设施,由BlueField-4 DPU提供支持。

“AI工作负载与传统的数据库处理等如此不同,显然,存储也将发生革命性变化,我们必须重新发明存储系统。”在本届CES上,面对全球200多名记者和分析师对话时,黄仁勋表示,英伟达可能会成为世界上最大的存储公司之一,不是因为建造了存储,而是因为英伟达是惠普、戴尔以及很多存储供应商的合作伙伴。

而苏廉节认为,对于使用英伟达全栈GPU(从算力芯片到网络路由器,即NVL72整柜)解决方案的企业价值比较大,“因为带来的是更优的算存网的资源运营与分配”。

这6颗主要芯片组成了英伟达Vera Rubin NVL72系统。据了解,一个Vera Rubin NVL72机架包含18个计算托盘和9个NVLink交换机托盘,而新的计算托盘在工程上采用“无线缆、无水管、无风扇”的设计,组装一个计算节点现在只需要5分钟,而过去需要2小时。

然而,Vera Rubin NVL72虽然整个系统为100%液冷,使用45°C的热水,不需要冷水机,但功耗则是前代GB200 NVL72的两倍。

开源所引导的推理叙事

“去年发生的最重要的事情之一是开源模型的进步。”本届CES上,黄仁勋还谈到了模型开源带来的改变,开源模型的下载量呈现爆炸式增长,“开源模型已经达到了前沿水平,虽然仍落后前沿模型大约6个月,但每6个月就有新模型出现,而且这些模型越来越聪明。”

2025年10月,黄仁勋曾表示,可以看到2025年及2026年Blackwell和Rubin可带来的收入超过5000亿美元。黄仁勋表示,希望不要更新数据,但近期发生了一些新的事,应增加对这个数字的期望。例如,AI初创公司Anthropic将开始在英伟达平台运行模型。2025年开源模型也带来惊喜,DeepSeek-R1、Qwen等模型的推出,使得现在每4个token中,就有1个是由开源模型生成。

本届CES上,黄仁勋宣布扩展其开源模型生态,新增和更新了一系列模型、数据集、代码库和工具,该生态覆盖6大领域:生物医学AI(Clara)、AI物理模拟(Earth-2)、Agentic AI(Nemotron)、物理AI(Cosmos)、机器人(GR00T)和自动驾驶(Alpamayo)。

需要指出的是,“物理AI”也是黄仁勋演讲的重头戏,指出AI发展已进入“物理AI”新阶段。而让AI理解重力、惯性、因果关系等物理定律,就需要AI会做推理。

他强调,英伟达的角色已从芯片供应商转变为“全栈AI体系”的构建者。通过开源模型、数据及NeMo开发库,英伟达正通过“三台计算机”(训练、推理、模拟)的架构,为全球提供构建物理AI的底座。

在训练方面,英伟达推出了Cosmos这个开源的物理AI世界基础模型,目前已经用海量视频、真实驾驶与机器人数据,以及3D模拟做过预训练。它能理解世界是怎么运行的,可以把语言、图像、3D和动作联系起来。

黄仁勋表示,Cosmos能实现不少物理AI技能,比如生成内容、做推理、预测轨迹(哪怕只给它一张图)。它可以依据3D场景生成逼真的视频,根据驾驶数据生成符合物理规律的运动,还能通过模拟器、多摄像头画面或文字描述来生成全景视频。

而在推理方面,黄仁勋还正式发布了世界首个会思考、会推理的自动驾驶AI——Alpamayo,它是一个面向自动驾驶领域的开源工具链,也是首个开源的视觉—语言—行动(VLA)推理模型。与之前仅开源代码不同,英伟达这次开源了从数据到部署的完整开发资源。

从物理AI应用到Rubin平台,再到开源AI“全家桶”。在本届CES上,英伟达所展示的这些动作,构成了英伟达在推理时代做好AI基础设施的另一番叙事。

(编辑:吴清 审核:李正豪 校对:陈丽)

相关推荐