英伟达首席执行官黄仁勋在 ces 2026(2026 年国际消费电子展)主题演讲中指出,未来十年内,全球绝大多数汽车将具备自动驾驶或高度自动驾驶能力。
展会期间,英伟达正式推出 Alpamayo 系列开源视觉-语言-动作(VLA)AI 模型及配套开发工具,专为自动驾驶系统研发打造。首款集成该技术的量产车型——梅赛德斯-奔驰 CLA,已于 2026 年起在美国、欧洲和亚洲多地启动实地测试,标志着该技术正式由实验室阶段迈入商业化落地进程。

据悉,Alpamayo 构建了一个融合开源模型、高保真仿真平台与高质量开放数据集的三位一体生态系统,全面向全球汽车制造商、初创企业及科研机构开放。该系列模型并非直接部署于车载终端,而是作为高性能“教师模型”,支持开发者进行知识蒸馏、微调适配,从而构建定制化的辅助驾驶全栈解决方案。
本届 CES 上,英伟达重点发布了以下三大核心组件:
Alpamayo 1:业界首个面向辅助驾驶研究社区推出的思维链(Chain-of-Thought)VLA 推理模型,已上线 Hugging Face 平台。基于 100 亿参数架构,模型可接收视频流输入并输出行驶轨迹,同时同步生成可解释的推理路径,清晰呈现每一项驾驶决策背后的逻辑依据。开发者既可将其压缩优化后部署至车端运行,也可作为底层基础模型,延伸开发推理驱动型评估系统、自动化标注工具等关键研发设施。当前版本提供完整开源权重与推理代码;后续迭代型号将持续提升参数量、增强多步推理深度、拓展模态兼容性,并增加面向产业应用的授权选项。
AlpaSim:一套完全开源、面向端到端辅助驾驶开发的高保真仿真框架,已在 GitHub 开源。框架内置精准传感器建模模块、支持自定义交通参与者行为逻辑,以及可灵活扩展的闭环测试环境,显著加速算法验证与控制策略优化周期。
物理 AI 开放数据集:NVIDIA 发布覆盖多地域、多气候、多路况的大规模辅助驾驶开放数据资源。该数据集累计包含逾 1700 小时真实道路驾驶影像与标注信息,特别纳入大量罕见、高难度极端场景(如强光眩目、突发障碍、复杂交叉口博弈等),为训练与验证具备强泛化能力的推理型辅助驾驶系统提供坚实支撑。全部数据已在 Hugging Face 平台免费开放下载。
上述组件协同运作,形成一个持续反馈、自我演进的研发闭环,有力支撑推理驱动型辅助驾驶技术栈的快速迭代与规模化落地。

黄仁勋还特别强调了合成数据在自动驾驶及通用机器人系统发展中的战略价值。他表示,基于合成数据生成与虚拟仿真的核心技术,适用于各类形态的机器人系统——无论是单个机械关节、灵巧机械臂,还是自主移动平台乃至全尺寸人形机器人。
在黄仁勋看来,机器人正迎来属于它的“黄金纪元”。未来的机器人将呈现多样化形态,涵盖从微型操作单元到大型服务载体的全尺寸谱系。
源码地址:点击下载










