IBM Granite 1B 和 3B 模型是 IBM 为低延迟使用而设计的首批混合专家 (MoE) Granite 模型。

工具 1b 3b

11.5K 2 周前

自述文件

An illustration of Ollama holding a beautiful flower with the IBM Rebus logo of the Eye, Bee and M, made by Paul Rand.

Granite 混合专家模型

IBM Granite **1B 和 3B 模型**是 IBM 为低延迟使用而设计的首批混合专家 (MoE) Granite 模型。

这些模型在超过 10 万亿个词元的數據上进行训练,Granite MoE 模型非常适合部署在设备上应用程序中或需要即时推理的场景中。

参数大小

1B

ollama run granite3-moe:1b

3B

ollama run granite3-moe:3b

支持的语言

英语、德语、西班牙语、法语、日语、葡萄牙语、阿拉伯语、捷克语、意大利语、韩语、荷兰语、简体中文

功能

  • 摘要
  • 文本分类
  • 文本提取
  • 问答
  • 检索增强生成 (RAG)
  • 与代码相关
  • 函数调用
  • 多语言对话用例

Granite 稠密模型

Granite 稠密模型提供 **2B 和 8B** 参数大小,旨在支持基于工具的用例和检索增强生成 (RAG),简化代码生成、翻译和错误修复。

查看模型页面

了解更多信息