IBM Granite 1B 和 3B 模型是 IBM 推出的首批专家混合 (MoE) Granite 模型,专为低延迟使用而设计。

工具 10亿参数 30亿参数

18.1K 2 周前

自述文件

An illustration of Ollama holding a beautiful flower with the IBM Rebus logo of the Eye, Bee and M, made by Paul Rand.

Granite 专家混合模型

IBM Granite 1B 和 3B 模型是 IBM 推出的首批专家混合 (MoE) Granite 模型,专为低延迟使用而设计。

这些模型在超过 10 万亿个数据标记上进行训练,Granite MoE 模型非常适合部署在设备端应用程序或需要即时推理的情况下。

参数大小

10亿参数

ollama run granite3-moe:1b

30亿参数

ollama run granite3-moe:3b

支持的语言

英语、德语、西班牙语、法语、日语、葡萄牙语、阿拉伯语、捷克语、意大利语、韩语、荷兰语、中文(简体)

能力

  • 摘要
  • 文本分类
  • 文本提取
  • 问答
  • 检索增强生成 (RAG)
  • 代码相关
  • 函数调用
  • 多语言对话用例

Granite 稠密模型

Granite 稠密模型提供 20亿 和 80亿 参数大小,旨在支持基于工具的用例和检索增强生成 (RAG),简化代码生成、翻译和错误修复。

查看模型页面

了解更多