IBM Granite 1B 和 3B 模型是 IBM 推出的长上下文专家混合 (MoE) Granite 模型,专为低延迟使用而设计。

工具 1b 3b

20.6K 2 周前

自述

Granite 专家混合模型

IBM Granite 1B 和 3B 模型是 IBM 推出的长上下文专家混合 (MoE) Granite 模型,专为低延迟使用而设计。

这些模型使用超过 10 万亿个 tokens 的数据进行训练,Granite MoE 模型是在设备端应用程序或需要即时推理的情况下部署的理想选择。

参数大小

1B

ollama run granite3.1-moe:1b

3B

ollama run granite3.1-moe:3b

支持的语言

英语、德语、西班牙语、法语、日语、葡萄牙语、阿拉伯语、捷克语、意大利语、韩语、荷兰语、中文(简体)

功能

  • 摘要
  • 文本分类
  • 文本提取
  • 问答
  • 检索增强生成 (RAG)
  • 代码相关任务
  • 函数调用任务
  • 多语言对话用例
  • 长上下文任务,包括长文档/会议摘要、长文档问答等。

Granite 稠密模型

Granite 稠密模型提供 2B 和 8B 参数大小,旨在支持基于工具的用例和检索增强生成 (RAG),从而简化代码生成、翻译和错误修复。

查看模型页面

了解更多