liquid ai 近期正式开源了 lfm2.5,这是一套面向边缘计算与本地化部署的新一代轻量级基础模型系列,基于成熟的 lfm2 架构持续演进而来。该系列涵盖两大核心文本模型:lfm2.5-1.2b-base(基础预训练版)与 lfm2.5-1.2b-instruct(指令微调版),并进一步推出了针对日语、视觉语言及音频语言场景的专用变体。
LFM2.5 延续了 LFM2 架构中专为 CPU 和 NPU 优化的混合设计,兼顾低延迟推理与内存占用控制。在预训练阶段,模型参数规模提升至 1.2 亿,训练语料量从原先的 10 万亿 tokens 扩展至 28 万亿 tokens。在此基础上,指令微调版本额外经历了监督微调(SFT)、偏好对齐(Preference Alignment)以及多轮大规模强化学习训练,显著增强了其在指令理解、工具调用、数学推演与知识问答等复杂任务上的能力。

就文本建模能力而言,LFM2.5-1.2B-Instruct 是当前主推的通用型文本模型。Liquid AI 团队在 GPQA、MMLU Pro、IFEval、IFBench 等多项权威评测中公布了性能数据:GPQA 得分为 38.89,MMLU Pro 达到 44.35。这些结果显著优于同级别开源竞品,例如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。
LFM2.5-1.2B-JP 则是专为日语场景深度定制的文本模型,在 JMMLU、M-IFEval 和 GSM8K 等日语专属基准任务上进行了针对性优化。该版本不仅全面超越常规指令微调模型的日语表现,还在本地化评估中展现出与主流小型多语言模型相当甚至更优的竞争力。
在多模态边缘应用方面,LFM2.5-VL-1.6B 是本次更新的重点视觉语言模型,集成了高性能图像编码模块,支持文档内容解析、用户界面识别、跨图像逻辑推理等真实业务场景,并可在资源受限的边缘设备上稳定高效运行。
LFM2.5-Audio-1.5B 是一款原生支持音频与文本联合建模的语言模型,具备端到端的音频输入/输出能力。其采用全新设计的音频反 tokenizer 技术,推理速度相较前代方案提升达 8 倍,特别适用于实时语音对话代理、端侧自动语音识别(ASR)等低延迟交互型任务。
源码地址:点击下载









