IBM Granite 1B 和 3B 模型是 IBM 推出的首批专家混合(MoE)Granite 模型,专为低延迟使用而设计。

工具 1b 3b

18.1K 2 周前

自述文件

An illustration of Ollama holding a beautiful flower with the IBM Rebus logo of the Eye, Bee and M, made by Paul Rand.

Granite 专家混合模型

IBM Granite 1B 和 3B 模型是 IBM 推出的首批专家混合(MoE)Granite 模型,专为低延迟使用而设计。

这些模型在超过 10 万亿个数据标记上进行训练,Granite MoE 模型非常适合部署在设备端应用程序或需要即时推理的场景中。

参数大小

1B

ollama run granite3-moe:1b

3B

ollama run granite3-moe:3b

支持的语言

英语、德语、西班牙语、法语、日语、葡萄牙语、阿拉伯语、捷克语、意大利语、韩语、荷兰语、中文(简体)

能力

  • 摘要
  • 文本分类
  • 文本提取
  • 问答
  • 检索增强生成(RAG)
  • 代码相关
  • 函数调用
  • 多语言对话用例

Granite 稠密模型

Granite 稠密模型提供 2B 和 8B 两种参数大小,旨在支持基于工具的用例和检索增强生成(RAG),简化代码生成、翻译和错误修复。

查看模型页面

了解更多