→ 源码教程下载地址见 →右侧下载链接 →点“登录购买”→注册登录购买后可见→
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。
2 月 20 日消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。
Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。
Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。
温馨提示:
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » 宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » 宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM

