IBM Granite 1B 和 3B 模型是 IBM 推出的第一个混合专家(MoE)Granite 模型,专为低延迟使用而设计。
工具 1b 3b
11.5K 拉取请求 更新于 2 周前
自述文件
Granite 混合专家模型
IBM Granite **1B 和 3B 模型** 是 IBM 推出的第一个混合专家(MoE)Granite 模型,专为低延迟使用而设计。
这些模型在超过 10 万亿个词元的训练数据上进行训练,Granite MoE 模型非常适合部署在设备上的应用程序中,或者需要即时推理的场景。
参数大小
1B
ollama run granite3-moe:1b
3B
ollama run granite3-moe:3b
支持的语言
英语、德语、西班牙语、法语、日语、葡萄牙语、阿拉伯语、捷克语、意大利语、韩语、荷兰语、简体中文
功能
- 摘要
- 文本分类
- 文本提取
- 问答
- 检索增强生成 (RAG)
- 与代码相关
- 函数调用
- 多语言对话用例
Granite 稠密模型
Granite 稠密模型有 **2B 和 8B** 参数大小,旨在支持基于工具的用例和检索增强生成 (RAG),简化代码生成、翻译和错误修复。
了解更多信息
- **开发人员:** IBM 研究院
- **GitHub 仓库:** ibm-granite/granite-3.0-language-models
- **网站:** Granite 文档
- **发布日期:** 2024 年 10 月 21 日
- **许可证:** Apache 2.0。