在12月17日启幕的2025小米人车家全生态合作伙伴大会上,备受业界关注的小米大模型团队迎来新任领军人物的首次公开登场。作为xiaomi mimo大模型项目负责人,罗福莉并未沿用常规开场流程,而是直击技术核心,重磅推出全新moe(混合专家)架构大模型——mimo-v2-flash。此次发布被官方明确定义为小米迈向人工通用智能(agi)战略版图中的关键第二阶段,象征着小米在前沿大模型研发领域已实现由“并跑”到“领跑”的历史性跨越。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

在紧随其后的技术深度解读中,主办方详细披露了MiMo-V2-Flash底层架构的设计逻辑与工程巧思,凸显出小米在模型能力与硬件资源协同优化上的独到见解。该模型并未一味追求参数规模扩张,而是创新采用名为Hybrid SWA的复合型架构。业内专家评价其设计风格兼具极简主义哲学与工程实用性,不仅大幅削减了冗余模块,更在长文本理解与推理任务中,显著突破了传统线性注意力机制的性能瓶颈。

尤为引人注意的是,研发团队在实验过程中发现了一个违背常规认知的现象:窗口尺寸并非越大越优。经多轮对比验证,128被确认为最优窗口配置;一旦超出该数值,模型整体表现反而趋于下降。这一反常识结论不仅为行业提供了全新的超参调优范式,叠加其固定KV缓存结构的设计,还显著增强了新模型对现有算力平台的适配能力,极大加速了规模化落地进程。
除架构层面的突破外,罗福莉重点阐述了多标记预测(MTP)技术的实际应用价值。该技术被视作驱动本次性能跃升的核心引擎之一,尤其在提升强化学习(RL)训练效率方面成效斐然。不同于传统模型逐token生成的串行方式,MTP支持模型在单次前向过程中预判多个后续标记,实现更广域的上下文感知。实测数据显示,仅需在首层之外施以轻量级微调,即可使模型获得极高的接受长度(acceptance length),大幅提升推理稳定性与吞吐效率。

在编程类任务基准测试中,三层MTP结构展现出卓越性能:不仅稳定达成超过3的接受长度,更将端到端推理速度提升约2.5倍。这项改进精准命中当前AI训练流程中的关键痛点——有效缓解小批量On-Policy强化学习场景下GPU频繁空闲的问题,让高成本计算资源得以高效、持续运转。
在后训练环节,小米团队展现出强大的技术融合能力。据透露,团队引入Thinking Machine提出的On-Policy Distillation(在线策略蒸馏)方法,致力于聚合多个强化学习教师模型的优势能力。实践结果令人振奋:仅需消耗相当于教师模型二十分之一的算力投入,即可在标准监督微调(SFT)与强化学习联合流程中,复现同等水准的模型表现。这种“以小博大”的策略,充分印证了学生模型在持续迭代中所蕴含的强大进化动能,最终构建起一个具备自我驱动、自我优化能力的正向演进闭环。

回望整个研发周期,相关负责人坦言,团队展现出惊人的执行力与创造力。从理论构想、算法验证,到最终交付可商用、高鲁棒性的生产级系统,小米AI团队仅耗时数月。这种极致的工程化效率,既是小米硬核技术底蕴的集中体现,也为其在人车家全生态赛道的激烈角逐中,构筑起一道难以逾越的技术护城河。











