IBM Granite 1B 和 3B 模型是由 IBM 开发的长上下文混合专家模型 (MoE) Granite 模型,专为低延迟使用而设计。
tools 1b 3b
20.6K Pulls 更新于 2 周前
自述文件
Granite 混合专家模型
IBM Granite 1B 和 3B 模型是由 IBM 开发的长上下文混合专家模型 (MoE) Granite 模型,专为低延迟使用而设计。
这些模型在超过 10 万亿个 tokens 的数据上进行训练,Granite MoE 模型非常适合部署在设备端应用程序或需要即时推理的场景中。
参数大小
1B
ollama run granite3.1-moe:1b
3B
ollama run granite3.1-moe:3b
支持的语言
English, German, Spanish, French, Japanese, Portuguese, Arabic, Czech, Italian, Korean, Dutch, 简体中文
功能
- 摘要
- 文本分类
- 文本提取
- 问答
- 检索增强生成 (RAG)
- 代码相关任务
- 函数调用任务
- 多语言对话用例
- 长上下文任务,包括长文档/会议摘要、长文档问答等。
Granite 稠密模型
Granite 稠密模型提供 2B 和 8B 参数大小,旨在支持基于工具的使用场景和检索增强生成 (RAG),简化代码生成、翻译和错误修复。
了解更多
- 开发者: IBM Research
- GitHub 仓库: ibm-granite/granite-language-models
- 网站: Granite Docs
- 发布日期: 2024年12月18日
- 许可证: Apache 2.0。