2026年ces,黄仁勋再度现身,依旧身着皮夹克,但这次换成了更为奢华的鳄鱼皮款式。
与往年不同,本届CES上英伟达并未推出备受期待的新一代游戏显卡——这也是过去五年来,英伟达首次在CES缺席PC显卡发布。

取而代之的是“物理AI”这一全新战略重心。在长达90分钟的开年首场主题演讲中,黄仁勋难掩对AI未来格局的宏大构想。他打趣道:“今天这场发布会要塞进的内容,重量大概有15公斤。”
从前沿算力架构、自动驾驶技术,到开源大模型生态、多模态AI应用、物理AI、边缘智能等关键方向,英伟达悉数布局,全面出击。

黄仁勋指出:“物理AI的‘ChatGPT时刻’已触手可及,但挑战同样清晰:物理世界纷繁复杂、不可预知;真实场景数据采集既慢又贵,且永远无法穷尽。因此,答案是——合成数据。”
在他看来,自动驾驶将成为物理AI最早落地、最具代表性的突破口之一。
01 奔驰率先落地
“我们正站在一个历史性拐点:从‘非自动驾驶’迈向‘真正自动驾驶’。这一跨越,极有可能在未来十年内全面实现。”黄仁勋语气坚定,并预测全球将有极高比例的汽车最终搭载L4级甚至更高级别的自动驾驶系统。
整场演讲中,自动驾驶相关内容占据显著篇幅。
原因在于,英伟达正式开源了其最新一代自动驾驶大模型——Alpamayo,不仅开放模型本身,更同步开源了训练所用的全部数据集。这意味着,大量此前缺乏VLA(Vision-Language-Action)模型研发能力的中小型团队,也能快速获得与头部企业同等的技术起点,自动驾驶研发门槛被大幅拉低。

黄仁勋强调,这是全球首个具备自主思考与推理能力的车载AI系统,包含两大核心组件:全球首个面向自动驾驶开源的推理型VLA模型Alpamayo R1,以及支持高保真测试的全栈开源仿真框架AlpaSim。
按他的说法,Alpamayo实现了真正意义上的端到端闭环:从摄像头原始输入,直达车辆执行器输出。它融合了海量真实人类驾驶里程数据,也引入了由Cosmos生成的大规模合成驾驶数据;此外,还有数十万条样本经过高度精细化标注,用于教会车辆理解各类复杂交通行为。
Alpamayo最重大的突破,在于其“推理能力”的引入,直击自动驾驶长期面临的“长尾问题”。
传统方案采用“感知→规划→控制”的固定流水线逻辑:识别红灯即制动、检测行人即减速,完全依赖预设规则。而Alpamayo则能理解场景中的因果关系,预测其他交通参与者意图,甚至完成需多步推演的决策任务。

例如在十字路口,它不仅能识别“前方有车”,更能推理出“该车可能左转,我应礼让先行”。这种能力,使自动驾驶从“机械执行规则”跃升为“类人化认知与判断”。现场Demo中,Alpamayo全程零人工接管,顺利完成点对点行驶。
这背后离不开Cosmos物理AI基础模型的支持——它基于海量视频、真实驾驶与机器人交互数据,以及三维物理模拟完成预训练,能够深度理解现实世界的运行逻辑,打通语言、图像、3D空间与动作之间的关联。
Cosmos可依据3D场景生成逼真动态视频,根据驾驶轨迹生成符合物理规律的运动序列,还能从模拟器画面、多视角摄像头或文字描述中生成全景视频,连极端罕见场景亦可精准复现。
实测数据显示:路径规划精度提升12%,车道越界率下降35%,近距离碰撞风险降低25%,推理与执行一致性提高37%,端到端延迟压缩至99毫秒。
关于如何应对“长尾问题”,黄仁勋用更通俗的方式解释:关键在于“拆解”。
他坦言:“我们不可能收集齐所有国家、所有天气、所有路况、所有人群下的全部驾驶场景数据。但若将这些极端案例拆解为若干基础子场景,它们其实都是人类司空见惯、极易理解的常规情形。”

“所谓长尾场景,本质是一系列‘正常情况’的组合。车辆只需掌握这些基本单元,并具备实时推理能力,即可应对未知复杂环境。”
为破解“无人能在无限真实路测前100%确认绝对安全”的行业难题,Alpamayo还部署了一整套冗余保障机制。
简言之,系统内置两套并行运行的自动驾驶软件栈,彼此镜像验证;另设独立的安全与策略评估模块,实时判定当前场景是否满足高置信度推理条件。若达标,则交由Alpamayo主导决策;否则自动降级至更保守的传统自动驾驶系统,确保万无一失。
黄仁勋透露,全新奔驰CLA将成为全球首款同时搭载这两套系统的量产车型。
没错,奔驰是首个合作伙伴。新款CLA将首发集成Alpamayo方案,而刚刚演示中未做任何遮挡的车辆,正是这款全新奔驰CLA。

官方宣布,该车型将于2026年第一季度在美国正式上路,第二季度登陆欧洲市场,第三、四季度陆续进入亚洲。
与此同时,开源仿真框架AlpaSim已在GitHub上线,为开发者提供高保真、可扩展、高安全性的虚拟测试平台。
“开发者还可利用Cosmos生成高质量合成数据,并结合真实数据共同训练和验证基于Alpamayo的自动驾驶应用。”英伟达汽车事业部副总裁Ali Kani补充道。
02 物理AI的“爆发临界点”已至
作为开年重磅发布,本次演讲远不止聚焦自动驾驶,真正的压轴大戏,是物理AI底层算力体系的跨越式升级——Alpamayo只是其中一环。

整个AI基础设施版图中,最核心的当属面向人工智能数据中心的新一代超算平台——Vera Rubin。黄仁勋专为此花了近10分钟详解其设计理念、整体架构与关键技术细节。
他指出,AI算力需求正呈指数级攀升,对GPU的依赖持续加剧。究其根源,是AI模型参数规模每年以10倍速度膨胀。Vera Rubin正是为应对这一根本性瓶颈而生。
该平台通过六大芯片协同设计——Vera CPU、Rubin GPU、NVLink-6交换芯片、ConnectX-9 SuperNIC高速网卡、BlueField-4 DPU数据处理单元、Spectrum-6以太网交换芯片——构建起低延迟、高带宽、强协同的数据通路,全面提升大规模AI模型的训练与推理效率。
硬件层面,Rubin GPU与Vera CPU构成双核心:前者是Rubin架构中专司AI计算的主力芯片,旨在显著压降训练与推理单位成本;后者则是专为高效数据搬运与Agentic任务调度打造的新型CPU。

NVLink-6负责GPU集群内部高速协同,BlueField-4承担上下文管理与数据流调度,ConnectX-9则支撑整套系统对外的超高速网络连接,确保Rubin平台可无缝接入其他机架、数据中心乃至公有云环境,成为分布式AI训练与推理的可靠底座。
抛开技术术语不谈,其核心理念很明确:不再靠堆叠GPU硬拼性能,而是把整个数据中心重构为一台统一AI超级计算机。比起参数数字,最终落地效果才是关键。
实测结果表明:相比上一代Blackwell平台,Vera Rubin综合性能提升达5倍,功耗仅上升1.6倍。这意味着,在相同时间内,它可将混合专家(MoE)模型的推理token成本最高压至原来的1/10,训练同类模型所需的GPU数量减少至1/4。

反向来看,Vera Rubin可在同等机架空间内实现更高吞吐量,单位时间产出token数量远超以往。训练越快,下一代前沿技术就能越早推向市场。“这直接关系到你的定价权。”黄仁勋自信表示。
更重要的是,该平台已进入量产阶段,预计2026年下半年开始批量交付。
彩蛋环节,黄仁勋还现场揭晓:马斯克旗下Grok 5下一代大模型参数量为7万亿,而非此前传闻的10万亿。
当然,以上内容仅是整场演讲的冰山一角。比如机器人领域的“全家桶”展示——舞台上齐聚各式形态、多种用途的机器人:人形机器人、双足服务机器人、轮式物流机器人,甚至还有卡特彼勒(CAT)合作开发的工程机械机器人。

再如覆盖多行业的开源模型矩阵:面向医疗健康与生命科学的AI工具Clara、专注地球物理模拟的Earth-2、深耕AI智能体研发的Nemotron系列模型。
英伟达在CES上呈现的一切,早已超越单一芯片厂商的定位。正如黄仁勋在结尾所言:“今天的英伟达,已不只是GPU公司。我们正在构建一个完整的全栈AI体系——涵盖芯片、系统、基础设施、模型,直至终端应用。”










