据腾讯科技消息,清华大学计算机系副教授刘知远带领团队完成的前沿研究荣登国际顶级期刊《自然 · 机器智能》(nature machine intelligence)封面,并首次提出用于衡量大模型单位参数智能产出效率的全新理论框架——“密度法则”(densing law),用以量化大模型的「能力密度」。

该团队基于对51个主流大语言模型的历史性能回溯分析发现:2023至2025年间,大模型的智能密度正以平均每3.5个月翻倍的速度迅猛提升。这意味着,仅需当前最优模型约一半的参数量,即可在100天后达成同等水平的综合性能,同时推理与训练成本亦同步减半。
刘知远明确指出,若某家AI模型企业推出新产品后“无法在3至6个月内实现盈亏平衡”,其商业路径将面临严峻挑战——因后续竞争者极可能仅凭四分之一的算力、数据与工程投入,便复现甚至超越其核心能力。
在他看来,“用AI研发AI”不仅是技术演进的必然阶段,更是AI原生时代的核心生产力范式,也是中小厂商突破巨头围堵的关键突破口。
刘知远将“密度法则”与业界熟知的“规模法则”(Scaling Law)并列为驱动AI发展的“一体两面”:
- “规模法则”聚焦于模型参数量增长与整体能力提升之间的正相关关系;
- 而“密度法则”则强调通过架构革新、高质量数据治理及更高效的学习范式,在更小模型中封装更强、更鲁棒的智能。
他进一步指出,在ChatGPT引爆全球AI军备竞赛之后,智能密度的翻倍周期已从原先约5个月显著压缩至约3.5个月,增速远超半导体领域经典的摩尔定律(18个月晶体管数量翻倍)。这一加速趋势正加剧云端API市场的同质化竞争,最终或将仅剩少数兼具海量用户基础与极致技术迭代能力的头部平台持续领跑;
而面向功耗严苛、响应延迟敏感、任务边界清晰的终端场景——即“端侧智能”,则为初创公司提供了更具确定性与落地窗口期的战略机遇。
在多模态方向上,刘知远高度评价Google最新发布的Gemini 3模型,称其为重要里程碑:该模型在图文生成任务中展现出前所未有的文本-图像语义一致性与细粒度可控性,反映出模型对物理世界建模与生成过程的“逐层具象化”能力。
他推测,此类高保真生成能力并非单纯依赖扩散模型(Diffusion),极有可能融合了自回归建模思想,从而催生新一代兼顾连贯性与可控性的生成范式;这也进一步印证了密度法则的普适延展性——任何已被验证可行的智能能力,终将在更轻量、更低功耗的终端设备(如智能手机、个人电脑乃至车载芯片)上稳定部署与运行。
他对AI的长期演进持坚定乐观立场,预测全球普惠型通用人工智能(AGI)有望于2030—2035年间初步落地。届时,互联网的主体将不再局限于人类用户,而是由数以亿计、各司其职的智能体共同构成;尽管模型训练环节或将趋于集中化,但“AGI的发展远未收敛”,推理端算力需求将迎来指数级爆发,人机协同也将从辅助工具升维为社会运行的基本范式。
推荐阅读:清华刘知远团队提出“大模型密度定律”(Densing Law)
源码地址:点击下载










