首页 > 新闻 > IT新闻 > 正文

美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity

花韻仙語
发布: 2025-12-02 21:05:01
原创
507人浏览过

美国人工智能初创企业 arcee ai 近日发布了全新的开放权重模型系列 trinity,涵盖已上线的 trinity nanotrinity mini,以及预计于 2026 年 1 月发布的 trinity large

该系列模型从数据采集、架构设计到训练流程均实现全自研,官方强调其“在美国完成端到端训练”,具备开放权重、强大推理性能及对开发者的全面控制能力。

Trinity 系列采用先进的多专家混合架构(afmoe),每层集成 128 个专家模块,每个 token 动态激活 8 个专家,并额外配备共享专家以增强泛化能力。训练基于超过 10T tokens 的高质量数据,并融合了 grouped-query attention、gated attention 及长上下文支持等关键技术,显著提升模型稳定性与推理效率。

  • Trinity Nano:参数规模约为 6B 的 MoE 模型(激活参数约 1B),专为移动设备、嵌入式系统和注重隐私的本地部署场景优化。
  • Trinity Mini:拥有 26B 参数的 MoE 架构(激活参数达 3B),适用于云端或本地数据中心,支持复杂多步推理、工具调用和超长文本处理任务。
    两款模型均已开源,遵循 Apache 2.0 许可协议,用户可通过 Hugging Face 下载权重或调用 API 使用。

https://www.php.cn/link/f5685cb5d80c3249a9770cfd98cf71eb

美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity

美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity

Browse AI
Browse AI

AI驱动的网页内容抓取和数据采集工具

Browse AI 105
查看详情 Browse AI

美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity

Arcee AI 指出,当前多数所谓“开源”模型依赖第三方基础模型进行微调,存在能力瓶颈、数据不透明及合规风险等问题。Trinity 系列坚持从零开始自主预训练,旨在打造可长期演进、支持企业在私有环境中持续训练与迭代的可信 AI 基础设施。

公司还确认,Trinity Large 正在训练中,总参数量约 420B(激活参数约 13B),依托 2048 张 B300 GPU 构建的高性能集群,训练数据扩展至 20T tokens。完整技术白皮书将于 2026 年 1 月随模型发布时公开。

源码下载地址:点击获取

以上就是美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号