图片来源:英伟达直播截图
2026年将是英伟达史无前例的支出大年,英伟达正力证自身的在AI领域的绝对实力和领先优势。
1月6日,在CES 2026首日的主题演讲中,英伟达CEO黄仁勋将公司备受瞩目的新一代超级新品Rubin芯片的进展作为压轴好戏发布。
黄仁勋表示,Rubin架构旨在打造令人难以置信的AI超级计算机,开启下一代人工智能。
实际上,英伟达早在2024年就已对外公布了Rubin架构的存在,彼时英伟达的主力芯片还是Hooper系列。此后,英伟达一直在更新Rubin的进展。
在2025年10月的华盛顿GTC大会上,黄仁勋第一次对外展示了Rubin芯片的样片,并透露其算力指标能达到当时主力出货产品Blackwell系列芯片的3倍以上。
彼时,市场普遍预计英伟达将在2026年下半年正式发布并量产Rubin。而此次在CES上,黄仁勋宣布Rubin架构目前已经实现全面投产,时间节点大幅提前。
不过,黄仁勋也同时表示,Rubin的产能放量预计会在今年下半年,届时基于Rubin平台打造的芯片也将进入出货阶段。
根据英伟达官方发布的新闻,Rubin平台的整体架构由六颗芯片构成,包括居于核心地位的NVIDIA Vera CPU、NVIDIA Rubin GPU,以及NVIDIA NVLink™6交换机、NVIDIA ConnectX-9®SuperNIC、NVIDIA BlueField-4® DPU和NVIDIA Spectrum-6™以太网交换机。
黄仁勋称,各芯片之间以极致的协同设计,大幅提升了大模型训练和推理的效率和性能。
根据英伟达给出的最新数据,相比于目前的Blackwell架构,Rubin通过使用4倍的GPU来并行训练混合专家(MoE)模型,让每个token的平均推理成本降低多达10倍,大模型训练速度提高至3.5倍,能源使用效率同样大幅提升,每W电力的推理能力提升8倍之多。
除了最强性能外,黄仁勋似乎更希望人们能够关注到Rubin在性价比上的优势,了解其能够“以最低成本加速主流AI的应用和普及”。
很大程度上,是因为去年,AI芯片之王英伟达喜忧参半,虽然业绩表现不断提升、公司市值接连实现突破,。
目前,以谷歌TPU为代表的AISC芯片正强势冲击英伟达GPU在AI芯片领域一家独大的地位。而以更低的总拥有成本(TCO)打造同样前沿甚至性能更优的大模型,被视为追赶者最大的优势之一。
这也导致黄仁勋需要不断回应相关问题,在去年10月公司第三财季财报发布后的电话会议上,黄仁勋即表示,英伟达每推出一代产品都会提升自身在数据中心中的份额,根本原因正是其产品能够帮助客户大幅改善总拥有成本。
在那次电话会议中,,再次提升公司产品的交付价值。
在客户需求方面,英伟达的确无需担心。根据黄仁勋的介绍,大多人们耳熟能详的云厂商、大模型厂商、人工智能实验室和计算机制造商几乎都有意部署Rubin,包括AWS、谷歌、微软、Meta、甲骨文的OCI、CoreWeave、Nebius、OpenAI、Anthropic、xAI、Cursor、戴尔、联想、Perplexity等。
不过,,来自中国的云厂商和大模型开发者还无法直接在本地部署Blackwell和Rubin。
“AI计算的需求大幅激增,我们现在推出Rubin正当其时。”黄仁勋表示。
此前,摩根大通预计,2026年数据中心AI芯片总出货量将同比增长26%达到1292万颗,但ASIC芯片约43%的增速会明显高于GPU约15%的增速。前者的市占比也将从不到41%提升到超过46%的水平。
其他机构也大多预测ASIC芯片的出货增速和市占比增长率会显著高于GPU。而对于英伟达来说,显然希望Rubin能够“打脸”各大预测。
在宣布最新GPU架构之前,黄仁勋的演讲主要围绕代理AI和物理AI展开。在黄仁勋看来,人工智能的发展会从目前创造内容的生成式AI走向能够自主行动的代理AI,最终再向能在现实世界行动的物理AI演进。
黄仁勋看好2026年进入“代理AI”阶段,并彻底改变企业级AI的使用现状。
而在物理AI方面,英伟达更是大举布局,继去年在CES 2025发布被称为“首个生成式世界基础模型”的NVIDIA Cosmos后,黄仁勋今年又发布了多个机器人、自动驾驶领域的新品,包括首个实现自主思考与推理的自动驾驶模型Alpamayo、最新的Cosmos模型和GR00T开放模型及数据。
英伟达还宣布,波士顿动力、卡特彼勒、Franka Robotics、LG电子等全球领先的企业正在利用英伟达的机器人技术栈打造新的AI机器人。
“物理AI的‘ChatGPT时刻’已经到来。”黄仁勋宣称。(作者|胡珈萌,编辑|李程程)